Trí tuệ nhân tạo (AI) là nguồn tri thức của nhân loại. Đây là điều không ai có thể phủ nhận. Và ChatGPT là công cụ AI có lượng người dùng lớn nhất thế giới, ước tính hơn 450 triệu người tại thời điểm hiện nay. ChatGPT sở hữu một hệ thống văn bản bao gồm 8 triệu tài liệu và hơn 10 tỉ từ, vì thế có thể đáp ứng gần hết các yêu cầu của con người ở nhiều lĩnh vực chưa hiểu hoặc hiểu chưa sâu; mô phỏng các cuộc đối thoại, trò chuyện giống con người, thậm chí làm thơ và phân tích dữ liệu...
Chính vì sự thông minh của công cụ này mà không ít người bị lệ thuộc, dẫn đến có những tình huống nằm trong tầm hiểu biết của mình hoặc thuộc về cảm xúc cá nhân nhưng lại dựa vào ChatGPT để tìm câu trả lời. AI đang bị “lạm dụng”, nhất là trong những lĩnh vực vốn cần sự khác biệt của con người.
Ví dụ một lời chúc mừng, một câu xin lỗi hoàn toàn nằm ở thái độ, cảm xúc của người muốn gửi gắm. Vậy nhưng nhiều người lại dùng AI thay lời mình muốn nói. Dẫn chứng cho ví dụ trên là chia sẻ của một giáo viên dạy văn. Dịp 20/11 năm ngoái, giáo viên này nhận được lời chúc của rất nhiều học sinh.
Với người giáo viên, không gì ấm áp hơn khi các thế hệ học trò luôn nhớ đến và dành nhiều lời chúc tốt đẹp cho mình nhân ngày nhà giáo. Vậy nhưng giáo viên này lại rất tâm tư khi nhiều trong số đó là những lời chúc sáo rỗng, rập khuôn mà nhìn vào đó, không khó để biết rằng người chúc lấy từ gợi ý của ChatGPT.
Cũng theo giáo viên này, không chỉ sao chép lời chúc, nhiều học sinh còn dựa vào công cụ thông minh này để làm văn. Tuy nhiên, nếu sự lệ thuộc này thể hiện trong bài viết, giáo viên có thể nhắc nhở, thậm chí cho điểm kém tùy theo mức độ sao chép nhưng với những hành động thể hiện cảm xúc thì giáo viên ngoài sự chạnh lòng không biết làm gì hơn.
Hay mới đây, mạng xã hội lan truyền những lời xin lỗi (được cho là của một sinh viên có thái độ xử sự không đúng mực đối với cựu chiến binh trong lễ diễu binh, diễu hành dịp 30/4 tại TP. Hồ Chí Minh). Những lời xin lỗi rất lễ phép, thể hiện thái độ biết lỗi của sinh viên này. Tuy nhiên, cư dân mạng cho rằng những câu văn đó của ChatGPT, do sinh viên này “vay mượn”.
Thực hư câu chuyện chưa biết nhưng những tình huống tương tự như trên không hiếm, nhất là từ khi trí tuệ nhân tạo chiếm lĩnh trong đời sống. Lời chúc mừng hay xin lỗi đều thể hiện tình cảm, sự tôn trọng của người được chúc, được xin lỗi mà máy móc hoàn toàn không thay thế được. Vì thế, thật đáng lo ngại khi một số người lại vay mượn cảm xúc từ AI. Lúc đó, dù lời chúc, lời xin lỗi có suôn sẻ đến đâu chăng nữa cũng thiếu sự chân thành và khó để người khác tiếp nhận.
Trong giải quyết công việc thì sao? AI rất cần khi đưa ra một gợi ý nào đó để chúng ta tham khảo. Vậy nhưng không phải nội dung nào AI cũng biết hoặc đưa ra đáp án cụ thể. Một phóng viên trẻ chia sẻ được tòa soạn phân công làm bài phỏng vấn lãnh đạo một đơn vị đầu ngành liên quan đến lĩnh vực người này phụ trách. Câu hỏi gửi đi, câu trả lời chuyển về đúng thời gian khiến phóng viên rất mừng. Tuy nhiên, khi đọc nội dung bên trong, không khó để phóng viên này phát hiện tất cả đều do ChatGPT trả lời.
Toàn bộ nội dung đều thể hiện sự chung chung, khái quát (mà điều này thì phản ánh tình hình ở địa phương nào cũng giống nhau), trong khi yêu cầu đặt ra là phải có kết quả cụ thể qua số liệu mới nhất của ngành, sau đó đưa ra giải pháp khắc phục phù hợp với tình hình thực tế của địa phương.
Vì thế, phóng viên phải đăng ký làm việc trực tiếp để khai thác các thông tin mình cần. Là người khá thành thạo với AI, phóng viên cho rằng khi tìm kiếm với những từ khóa không quá phổ biến thì gần như ChatGPT không đưa ra được gợi ý như mong muốn. Thậm chí đối với những thông tin về luật pháp, lịch sử, đôi khi ChatGPT đem lại thông tin chắp vá, sai kiến thức.
Trở lại câu chuyện giới trẻ lệ thuộc thông tin bởi AI, Quỹ Nhi đồng Liên Hợp Quốc (UNICEF) đã từng cảnh báo về nguy cơ này. Bà Henrietta Fore - Giám đốc Điều hành UNICEF - từng kêu gọi: “Chúng ta cần nỗ lực hơn nữa để chuẩn bị cho các công dân trẻ tuổi am hiểu về công nghệ này khả năng chống lại sự thao túng và gìn giữ niềm tin đối với các nguồn kiến thức đáng tin cậy và có thể xác minh”.
Rõ ràng, đây là nguy cơ đáng lo ngại không chỉ đối với giới trẻ Việt Nam mà trên toàn thế giới và rất cần có những giải pháp hữu hiệu để ứng phó với sự lệ thuộc này. Vì giới trẻ là đối tượng chính trong việc tiếp nhận AI, đồng thời đối mặt nhiều nhất với các nguy cơ đến từ AI. Thật nguy hiểm khi đối tượng này ngày càng lệ thuộc vào AI trong việc tiếp nhận thông tin, nhất là các thông tin về lịch sử, chính trị, nền tảng tư tưởng của Đảng.
Cần phải khẳng định việc sử dụng AI là rất cần thiết. Nếu biết cách tân dụng, biến nó trở thành công cụ hỗ trợ sẽ tiết kiệm nhiều thời gian để đầu tư cho việc sáng tạo. Tuy nhiên nếu quá phụ thuộc, không chỉ học sinh, sinh viên mà mọi người đều có thể đánh mất nhiều khả năng như tư duy phản biện, sáng tạo.
Đối với học sinh, sinh viên, việc dựa vào Chat GPT nói riêng và các công cụ trí tuệ nhân tạo nói chung sẽ hình thành thói quen lười suy nghĩ. Thói quen này dần đánh mất khả năng tư duy, thậm chí mất niềm tin vào bản thân khi cho rằng câu trả lời chỉ có thể nằm ở AI. Vì thế, giáo viên cần phải định hướng cho học sinh ngay từ cấp THCS.
Muốn vậy, đội ngũ này phải là người tiếp cận với công nghệ để phân biệt được vấn đề mà học sinh đưa ra của AI hay do chính các em thực hiện. Một chuyên gia ngành giáo dục cho rằng, trong giảng dạy, giáo viên phải sáng tạo những câu hỏi đòi hỏi học sinh, sinh viên phải biện luận cho việc đúng hay sai, điều mà AI không làm được. Hoặc những bài toán cần tư duy logic đòi hỏi sinh viên phải suy nghĩ, vì AI chỉ trả lời được câu hỏi đúng hoặc sai.
Anh Thư