Ảnh minh họa: O.C
Bạn có thường xuyên làm việc trước màn hình máy tính? Mắt có bị mỏi, ngứa sau một thời gian dài? Có đỏ lên khi dụi nhiều? Có lẽ bạn chỉ cần nghỉ ngơi để mắt hồi phục. Nhưng nếu nhập những triệu chứng này vào chatbot trí tuệ nhân tạo (AI), bạn có thể bị “chẩn đoán” mắc bixonimania - một căn bệnh… không hề tồn tại.
Bixonimania được tạo ra vào năm 2024 bởi nhóm nghiên cứu do ông Almira Osmanovic Thunström, nhà nghiên cứu y khoa tại Đại học Gothenburg (Thụy Điển), dẫn đầu. Mục tiêu của họ là kiểm tra liệu các mô hình như ChatGPT hay Gemini có nhận ra thông tin sai lệch rõ ràng hay không, hay sẽ tiếp nhận và trình bày như sự thật.
Chỉ vài tuần sau khi nhóm của ông Thunström đăng hai nghiên cứu giả về bixonimania lên một máy chủ bản thảo (preprint), “căn bệnh” này đã xuất hiện trong câu trả lời của nhiều chatbot phổ biến.
Copilot của Microsoft mô tả “Bixonimania là một tình trạng thú vị và tương đối hiếm gặp”, trong khi Gemini của Google cho rằng “đây là tình trạng do tiếp xúc quá nhiều với ánh sáng xanh”. Ngay cả ChatGPT của OpenAI cũng từng trả lời người dùng rằng liệu các triệu chứng của họ có phải là bệnh bixonimania hay không?
Một số người nhắc trực tiếp đến bixonimania trong câu hỏi, nhưng cũng có người dùng chỉ mô tả triệu chứng và nhận lại “chẩn đoán” về căn bệnh giả này. Đáng lo hơn, bixonimania và hai nghiên cứu bịa đặt còn bắt đầu xuất hiện trong các bài báo khoa học đã qua bình duyệt của những nhà nghiên cứu khác. Đây là điều khó hiểu, bởi chính tác giả đã cài sẵn nhiều chi tiết để người đọc dễ dàng nhận ra đây là thông tin giả.
“Tôi muốn bất kỳ bác sĩ hay nhân viên y tế nào cũng có thể thấy rõ đây là một tình trạng bịa đặt, vì không có bệnh về mắt nào lại dùng hậu tố ‘mania’ – đó là thuật ngữ thuộc lĩnh vực tâm thần”, ông Thunström nói.
Thực tế, các “nghiên cứu” về bixonimania chứa đầy chi tiết vô lý. Tác giả được nêu tên là Lazljiv Izgubljenovic, một nhân vật hư cấu, làm việc tại “Đại học Asteria Horizon” ở “Nova City, California”, những nơi không hề tồn tại.
Phần lời cảm ơn của một bài nghiên cứu còn nhắc đến “Giáo sư Maria Bohm tại Học viện Starfleet vì đã hỗ trợ và cung cấp phòng thí nghiệm trên tàu USS Enterprise”. Trong khi đó, cả hai nghiên cứu đều ghi được tài trợ bởi “Quỹ Giáo sư Sideshow Bob” cùng “một sáng kiến tài trợ lớn từ Đại học Fellowship of the Ring và Galactic Triad” – những cái tên không có trên thực tế.
Chưa dừng lại ở đó, các bài nghiên cứu còn có những câu như “toàn bộ nghiên cứu này là bịa đặt” hay “50 cá nhân giả tưởng trong độ tuổi 20 - 50 được tuyển vào nhóm thử nghiệm”. Nói cách khác, chỉ có thể tin chúng là thật nếu người đọc… không đọc kỹ.
Dù ban đầu có thể khiến nhiều người bật cười, song thực tế thí nghiệm này đã cho thấy rủi ro khi con người phụ thuộc quá nhiều vào chatbot AI. Đồng thời, nghiên cứu còn phơi bày một điểm yếu cốt lõi: các mô hình ngôn ngữ lớn thu thập thông tin sẵn có và đưa vào câu trả lời mà không phân biệt đúng – sai.
Bà Alex Ruani, nghiên cứu sinh tiến sĩ về thông tin sai lệch trong y tế tại Trường Đại học University College London, nói với Tạp chí Nature: “Nghe có vẻ nực cười, nhưng hãy dừng lại, chúng ta đang có vấn đề. Đây là ví dụ điển hình về cách lan truyền của tin giả và thông tin sai lệch. Nếu ngay cả quy trình khoa học và các hệ thống hỗ trợ cũng không thể phát hiện hay loại bỏ những nội dung như vậy, chúng ta thực sự đang đối mặt với rủi ro lớn”.
Vân Khánh/Báo Tin tức và Dân tộc (Theo O.C)