ChatGPT, DeepSeek bóp méo dữ liệu khoa học

ChatGPT, DeepSeek bóp méo dữ liệu khoa học
8 giờ trướcBài gốc
Một nhóm nhà nghiên cứu tại Đức mới đây đã lên tiếng cảnh báo về nguy cơ sai lệch khi sử dụng chatbot AI để rút gọn nội dung nghiên cứu. Sau khi phân tích 4.900 bản tóm tắt khoa học do con người viết, nhóm đã dùng nhiều mô hình AI để so sánh cách thức các hệ thống này xử lý thông tin. Kết quả cho thấy hầu hết chatbot đều mắc lỗi khái quát hóa quá mức, thậm chí ngay cả khi được nhắc nhở cần tóm tắt chính xác.
AI dễ làm sai lệch nội dung khi tóm tắt nghiên cứu khoa học.
Trong các thử nghiệm, các mô hình AI mắc lỗi nhiều gấp 5 lần so với chuyên gia khi không được hướng dẫn. Ngay cả khi có yêu cầu rõ ràng về độ chính xác, tỷ lệ sai sót vẫn cao gấp đôi so với bản tóm tắt thông thường. Một thành viên nhóm nghiên cứu nhận định: “Việc khái quát hóa đôi khi nghe có vẻ vô hại, nhưng thực chất lại thay đổi bản chất của nghiên cứu gốc. Đó là sự sai lệch mang tính hệ thống.”
Đáng chú ý, các phiên bản mới hơn của chatbot không những không khắc phục được vấn đề mà còn làm tình hình thêm nghiêm trọng. Với khả năng diễn đạt mượt mà và hấp dẫn, các bản tóm tắt do AI tạo ra dễ gây cảm giác đáng tin, trong khi nội dung thực chất đã bị biến dạng. Có trường hợp DeepSeek thay đổi cụm từ “an toàn và có thể thực hiện thành công” thành “phương pháp điều trị an toàn và hiệu quả” – một sự diễn giải vượt khỏi kết luận gốc của nghiên cứu.
Trong một ví dụ khác, mô hình Llama đã áp dụng khuyến nghị sử dụng thuốc điều trị tiểu đường cho đối tượng trẻ tuổi mà không nêu rõ liều lượng, tần suất dùng hoặc tác dụng phụ. Nếu người đọc là bác sĩ hay nhân viên y tế không kiểm chứng lại với nghiên cứu gốc, những bản tóm tắt kiểu này có thể gây nguy hiểm trực tiếp cho bệnh nhân.
Giới chuyên gia cho rằng hiện tượng này có nguyên nhân sâu xa từ cách đào tạo các mô hình AI. Nhiều chatbot hiện nay được huấn luyện dựa trên dữ liệu thứ cấp – như các bản tin khoa học đại chúng – vốn đã được giản lược từ trước. Khi AI tiếp tục tóm tắt lại các nội dung đã rút gọn, nguy cơ bóp méo càng lớn hơn.
Các chuyên gia về AI trong lĩnh vực sức khỏe tâm thần cho rằng cần sớm xây dựng các rào chắn kỹ thuật trong quá trình phát triển và sử dụng AI.
Người dùng cần cảnh giác khi chatbot dễ bóp méo nội dung.
Khi người dùng ngày càng phụ thuộc vào chatbot AI để tìm hiểu thông tin khoa học, những sai lệch nhỏ trong diễn giải có thể nhanh chóng tích tụ và lan rộng, gây ra nhận thức lệch lạc trên diện rộng. Trong thời điểm niềm tin vào khoa học đang suy giảm, nguy cơ này càng trở nên đáng lo ngại và cần được quan tâm đúng mức.
Việc tích hợp AI vào quá trình nghiên cứu và phổ biến kiến thức là xu hướng không thể đảo ngược. Tuy nhiên, giới chuyên môn khẳng định công nghệ không thể thay thế vai trò của con người trong việc hiểu và kiểm chứng nội dung khoa học. Khi sử dụng chatbot trong những lĩnh vực có độ rủi ro cao như y tế, cần đặt tính chính xác lên hàng đầu, thay vì chỉ tập trung vào trải nghiệm ngôn ngữ trơn tru hay tốc độ phản hồi.
Diễm Quỳnh
Nguồn Tri Thức & Cuộc Sống : https://kienthuc.net.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html