Khi AI làm 'lung lay' nền tảng nghiên cứu khoa học

Khi AI làm 'lung lay' nền tảng nghiên cứu khoa học
2 giờ trướcBài gốc
Trí tuệ nhân tạo đang tạo ra một nghịch lý trong giới nghiên cứu. Công cụ được kỳ vọng thúc đẩy khoa học lại đang bị lạm dụng, làm giảm chất lượng học thuật và bào mòn niềm tin công chúng. Khi AI quá dễ dùng, ranh giới giữa hỗ trợ và làm thay con người gần như biến mất.
Trong những tháng gần đây, các hội nghị AI lớn đã đồng loạt siết chặt việc sử dụng mô hình ngôn ngữ lớn. Ban tổ chức cho biết họ đang bị quá tải bởi các bài viết do AI tạo ra, hình thức chỉn chu nhưng nội dung yếu và tiềm ẩn sai sót. Điều này đẩy quá trình phản biện khoa học vào tình thế rủi ro hơn bao giờ hết.
Các hội nghị AI gần đây đã siết chặt việc sử dụng mô hình ngôn ngữ lớn sau khi bị tràn ngập bởi các bài viết kém chất lượng do AI tạo ra. Ảnh: Dreamstime
Inioluwa Deborah Raji, nhà nghiên cứu AI tại University of California, Berkeley, một đại học công lập hàng đầu của Mỹ, cho rằng đây là nghịch lý lớn của ngành. Theo bà, trong khi AI được tung hô sẽ tái định hình y học, giáo dục và kinh tế, thì chính lĩnh vực AI lại rơi vào hỗn loạn vì sử dụng công nghệ này thiếu kiểm soát.
Những con số gần đây cho thấy AI đã thâm nhập rất sâu vào hoạt động nghiên cứu. Một nghiên cứu của trường đại học Stanford University tại Mỹ, công bố hồi tháng 8 cho thấy khoảng 22% bài báo khoa học máy tính có sử dụng các mô hình ngôn ngữ lớn.
Tại Hội nghị Quốc tế về Biểu diễn Học tập (ICLR), một trong những diễn đàn uy tín nhất về học sâu, công ty khởi nghiệp Pangram ước tính rằng 21% các bài đánh giá năm 2025 được tạo hoàn toàn bằng AI. Hơn một nửa số bài còn lại có sử dụng AI ở một mức độ nhất định, từ chỉnh sửa câu chữ đến viết lại nội dung.
Đáng lo ngại hơn, gần 9% bài báo gửi tới ICLR có hơn một nửa nội dung do AI tạo ra. Có trường hợp một bài bị nghi ngờ viết bằng AI vẫn lọt vào nhóm 17% bài có điểm phản biện cao nhất. Thực tế này cho thấy hệ thống đánh giá khoa học đang gặp thách thức lớn trước nội dung do AI tạo ra.
Tình trạng tương tự cũng xuất hiện tại Hội nghị Hệ thống xử lý thông tin thần kinh (NeurIPS), diễn đàn được coi là uy tín bậc nhất trong lĩnh vực AI. Tháng Giêng vừa qua, công ty GPTZero, startup chuyên phát hiện nội dung do AI tạo ra, công bố nghiên cứu phát hiện hơn 100 lỗi liên quan đến AI trong 50 bài báo trình bày tại NeurIPS năm trước. Các lỗi phổ biến gồm tài liệu tham khảo không tồn tại, mô tả thí nghiệm mơ hồ và kết luận thiếu cơ sở kiểm chứng.
Trước sức ép ngày càng lớn, ban tổ chức ICLR đã cập nhật hướng dẫn sử dụng AI. Theo quy định mới, những bài báo không nói rõ việc sử dụng các mô hình ngôn ngữ lớn có thể bị từ chối. Các nhà nghiên cứu dùng AI để viết những bản đánh giá sơ sài, kém chất lượng cũng sẽ bị xử phạt, thậm chí ảnh hưởng trực tiếp đến cơ hội công bố công trình của chính họ.
Theo Hany Farid, giáo sư tại University of California, Berkeley, việc công bố các bài báo sai và kém chất lượng đang đe dọa niềm tin xã hội vào khoa học. Ông nhấn mạnh rằng giá trị khoa học không nằm ở số lượng bài báo, mà ở mức độ đáng tin của mỗi kết quả.
Áp lực công bố được xem là nguyên nhân sâu xa. Ban tổ chức NeurIPS cho biết họ nhận được hơn 21.500 bài gửi trong năm 2025, tăng mạnh so với năm trước và gần gấp ba so với năm 2020. Có tác giả đứng tên hơn 100 bài tại cùng một hội nghị, con số vượt xa khả năng làm việc thông thường của một nhà nghiên cứu.
Theo Thomas G Dietterich, giáo sư danh dự tại Đại học bang Oregon và phụ trách mảng khoa học máy tính của arXiv, kho lưu trữ học thuật trực tuyến miễn phí lớn nhất thế giới, số lượng bài báo khoa học máy tính đăng tải trên nền tảng này cũng tăng rất nhanh. Tuy nhiên, ông cho rằng vẫn khó khẳng định mức tăng đó chủ yếu đến từ AI hay do lĩnh vực này thu hút thêm nhiều nhà nghiên cứu mới.
Việc phát hiện nội dung do AI tạo ra hiện vẫn gặp nhiều khó khăn do thiếu tiêu chuẩn thống nhất. Dietterich cho biết dấu hiệu dễ nhận thấy nhất là danh mục tài liệu tham khảo bịa đặt hoặc các số liệu không hợp lý. Khi bị phát hiện, tác giả có thể bị cấm gửi bài trong một thời gian.
Nhiều chuyên gia nhấn mạnh AI vẫn có giá trị nếu được dùng đúng cách, như hỗ trợ ý tưởng hoặc chỉnh sửa ngôn ngữ. Theo Thomas G. Dietterich, AI đã góp phần cải thiện đáng kể chất lượng tiếng Anh trong nhiều bài báo khoa học từ Trung Quốc.
Tranh luận càng trở nên gay gắt khi các công ty công nghệ lớn như Google, Anthropic - startup AI tập trung vào an toàn mô hình và OpenAI quảng bá các mô hình của họ như những “nhà khoa học cộng tác” có thể đẩy nhanh nghiên cứu trong nhiều lĩnh vực.
Các mô hình AI thường được huấn luyện từ các tài liệu khoa học. Tuy nhiên, nếu những tài liệu này ngày càng do AI tạo ra, chất lượng mô hình khó tránh khỏi suy giảm. Hany Farid cảnh báo rằng khi AI “học từ chính mình” mà không được sàng lọc, mô hình có thể rơi vào tình trạng “sụp đổ”, tạo ra các kết quả vô nghĩa vì mất đi sự đa dạng của tri thức ban đầu.
Kevin Weil, trưởng bộ phận khoa học tại OpenAI, thừa nhận AI là công cụ rất mạnh, nhưng không thể thay thế trách nhiệm khoa học. Theo ông, AI có thể giúp mở ra những hướng nghiên cứu mới, nhưng không đồng nghĩa với việc con người được phép lơ là kiểm chứng và chuẩn mực học thuật.
Tùng Lâm (Theo Financial Times, CNN)
Nguồn KTĐT : https://kinhtedothi.vn/khi-ai-lam-lung-lay-nen-tang-nghien-cuu-khoa-hoc.975240.html