AI mang trong mình tiềm năng to lớn để thúc đẩy tốc độ nghiên cứu và mở ra những chân trời tri thức chưa từng có. Tuy nhiên, sự bùng nổ của công nghệ này cũng đang đặt cộng đồng học thuật toàn cầu trước một thách thức chưa từng có tiền lệ: sự xâm lấn ồ ạt của các công trình nghiên cứu kém chất lượng, thậm chí là ngụy tạo.
AI giúp rút ngắn thời gian nghiên cứu khoa học nhưng cũng có thể tạo ra nhiều "rác" học thuật
Một nghiên cứu chấn động vừa được công bố cho thấy, trong năm 2024, có tới hơn 13% số lượng tóm tắt các bài báo y sinh được gửi đi trên toàn cầu có dấu hiệu rõ ràng của việc được soạn thảo bởi AI. Con số này không chỉ là một thống kê khô khan mà là hồi chuông báo động về tính toàn vẹn của khoa học.
Trong khi AI giúp việc viết lách trở nên dễ dàng hơn bao giờ hết, nó cũng vô tình biến các cổng nhận bài trở thành những "bãi rác" thông tin, gây khó khăn cực độ cho việc sàng lọc và kiểm chứng, từ đó tạo điều kiện cho tin giả lan truyền và cản trở những phát kiến khoa học chân chính đến được với công chúng.
Cơn "hồng thủy" bài báo khoa học và gánh nặng ngàn cân lên hệ thống bình duyệt
Để hiểu rõ mức độ nghiêm trọng của vấn đề, chúng ta cần nhìn lại quy trình sản xuất tri thức truyền thống. Trước đây, các nhà nghiên cứu phải mất hàng tháng, thậm chí hàng năm trời để hoàn thiện một công trình, từ khâu lên ý tưởng, thực nghiệm cho đến khi đặt bút viết những dòng báo cáo cuối cùng. Các bản thảo này sau đó được gửi đến các kho lưu trữ trực tuyến để cộng đồng cùng xem xét trước khi trải qua quy trình bình duyệt gắt gao của các tạp chí khoa học uy tín.
Đó là một quá trình chậm rãi, tỉ mỉ và đầy tính chọn lọc, nơi danh tiếng của một nhà khoa học được đo đếm bằng chất lượng của những công trình được công bố trên các tạp chí hàng đầu. Tuy nhiên, sự xuất hiện của AI tạo sinh đã phá vỡ hoàn toàn nhịp điệu này, tạo ra một cơn "lũ" bài báo khoa học ập đến các nền tảng lưu trữ với tốc độ chóng mặt.
Chỉ tính riêng trong năm 2025, tổng số bài báo được đăng tải trên ba nền tảng chia sẻ nghiên cứu lớn nhất thế giới là arXiv, bioRxiv và medRxiv đã cán mốc 370.000 bài, tăng vọt 16% so với năm trước đó. Sự gia tăng đột biến này không hoàn toàn đến từ sự mở rộng tự nhiên của cộng đồng nghiên cứu hay sự bùng nổ của các phát kiến mới, mà theo nhận định của nhiều chuyên gia, phần lớn động lực đến từ sự hỗ trợ của AI.
Việc AI có thể tạo ra các văn bản tự nhiên, trôi chảy và mang văn phong học thuật chỉ trong vài giây đã khiến rào cản viết lách gần như bị xóa bỏ. Điều này dẫn đến tình trạng "vàng thau lẫn lộn", khi những nghiên cứu sơ sài, thiếu chiều sâu hoặc thậm chí là rỗng tuếch về mặt nội dung được ngụy trang dưới lớp vỏ ngôn ngữ hào nhoáng của máy móc.
Hậu quả nhãn tiền là vào tháng 10 năm 2025, arXiv – kho lưu trữ tri thức mở uy tín bậc nhất trong giới khoa học máy tính – đã buộc phải siết chặt các quy định đăng bài sau khi chứng kiến sự tràn ngập của các bài báo kém chất lượng được sinh ra từ các công cụ AI.
Sự bùng nổ về số lượng này đang đặt một áp lực khổng lồ lên vai những người gác cổng tri thức. Giáo sư Isao Echizen từ Viện Tin học Quốc gia Nhật Bản đã phải thốt lên rằng các hiệp hội học thuật hàng đầu trong lĩnh vực AI đang đối mặt với tình trạng thiếu hụt trầm trọng người bình duyệt.
Dù AI có thể hỗ trợ phần nào trong việc sàng lọc sơ bộ, nhưng trách nhiệm cuối cùng trong việc đánh giá tính đúng đắn, logic và đạo đức của một nghiên cứu vẫn phải thuộc về con người. Quy trình này đòi hỏi một lượng thời gian và nỗ lực trí tuệ khổng lồ mà không một thuật toán nào có thể thay thế hoàn toàn. Khi số lượng bài gửi đến tăng theo cấp số nhân nhưng số lượng chuyên gia thẩm định vẫn giữ nguyên, nguy cơ bỏ lọt những sai sót nghiêm trọng hoặc đánh mất những công trình giá trị trong "biển" bài viết kém chất lượng là điều khó tránh khỏi.
Truy tìm "dấu vân tay" máy móc và những ngôn ngữ rập khuôn
Trước thực trạng đáng lo ngại này, giới khoa học không ngồi yên chịu trận. Một cuộc đua thầm lặng nhưng quyết liệt đang diễn ra nhằm phát triển các công cụ để phát hiện "dấu vân tay" của AI trong các văn bản học thuật. Các nhà nghiên cứu đang nỗ lực giải mã những đặc điểm ngôn ngữ riêng biệt mà các mô hình ngôn ngữ lớn (LLM) thường để lại, những dấu hiệu mà mắt thường đôi khi khó nhận ra nhưng lại hiện lên rõ mòn mọt dưới lăng kính phân tích dữ liệu lớn.
Một trong những nỗ lực đáng chú ý nhất đến từ nhóm nghiên cứu tại Đại học Tuebingen, Đức. Vào tháng 7.2025, nhóm này đã công bố một báo cáo gây tiếng vang lớn trên một tạp chí khoa học Mỹ, vạch trần thói quen sử dụng từ ngữ bất thường trong các bài báo y sinh trên toàn thế giới.
Bằng cách phân tích tới 15 triệu bản tóm tắt nghiên cứu, các nhà khoa học Đức đã phát hiện ra sự gia tăng đột biến tần suất xuất hiện của một số từ vựng nhất định kể từ khi OpenAI tung ra ChatGPT vào cuối năm 2022.
Những từ ngữ mang tính chất "đệm" hoặc nhấn mạnh thái quá như "these" (những cái này) hay "significant" (đáng kể) xuất hiện với mật độ dày đặc và thiếu tự nhiên, khác hẳn với văn phong gãy gọn truyền thống của giới y sinh. Dựa trên những phân tích thống kê này, nhóm nghiên cứu ước tính rằng AI tạo sinh đã can thiệp vào ít nhất 13,5% số lượng bài báo y sinh trong năm 2024. Đây là một con số biết nói, cho thấy mức độ xâm nhập của AI vào dòng chảy tri thức chính thống đã sâu rộng hơn nhiều so với những gì chúng ta từng hình dung.
Giáo sư thỉnh giảng Shota Imai tại Viện Khoa học và Công nghệ Tiên tiến Nhật Bản đã đưa ra một lời giải thích thú vị cho hiện tượng này. Ông cho rằng AI, về bản chất, là một tấm gương phản chiếu lại dữ liệu mà nó được huấn luyện. Nó đã "thừa kế" một cách máy móc sự lạm dụng hoặc thiên lệch trong việc sử dụng từ ngữ từ chính kho dữ liệu khổng lồ mà nó đã "học".
Khi các mô hình này được yêu cầu viết văn bản khoa học, chúng có xu hướng lặp lại những khuôn mẫu ngôn ngữ đó, tạo ra những văn bản nghe có vẻ rất "khoa học" nhưng lại thiếu đi sự tinh tế và chính xác của tư duy con người. Việc phát hiện ra những "tật" ngôn ngữ này không chỉ giúp nhận diện các bài báo do máy viết mà còn đặt ra câu hỏi lớn về tính độc bản và sự sáng tạo trong nghiên cứu khoa học khi con người ngày càng phụ thuộc vào máy móc để diễn đạt ý tưởng của mình.
Ranh giới đạo đức và sự chia rẽ trong cộng đồng nghiên cứu
Sự xâm nhập của AI vào lĩnh vực xuất bản khoa học không chỉ là vấn đề kỹ thuật mà còn là một cuộc tranh luận đạo đức gay gắt đang chia rẽ cộng đồng nghiên cứu toàn cầu. Câu hỏi được đặt ra là: Giới hạn nào cho việc sử dụng AI trong khoa học? Đâu là lằn ranh giữa việc sử dụng một công cụ hỗ trợ và việc gian lận học thuật?
Một cuộc khảo sát quy mô lớn được thực hiện bởi tạp chí danh tiếng Nature vào tháng 3 năm 2025 với sự tham gia của 5.000 nhà nghiên cứu trên khắp thế giới đã phác họa nên một bức tranh đa chiều về quan điểm này. Kết quả cho thấy một sự đồng thuận cao đối với vai trò "trợ lý" của AI, với hơn 90% người được hỏi ủng hộ việc sử dụng công nghệ này cho mục đích rà soát lỗi chính tả, ngữ pháp hoặc biên tập lại câu văn cho trôi chảy hơn. Ở khía cạnh này, AI được xem như một công cụ giúp xóa bỏ rào cản ngôn ngữ, đặc biệt là đối với các nhà khoa học không sử dụng tiếng Anh là tiếng mẹ đẻ.
Tuy nhiên, sự ủng hộ giảm sút rõ rệt khi đề cập đến việc sử dụng AI để trực tiếp viết nội dung bài báo. Chỉ có khoảng 65% số người được hỏi chấp nhận việc AI tham gia vào quá trình soạn thảo văn bản. Sự sụt giảm này phản ánh nỗi lo ngại sâu sắc về quyền tác giả và trách nhiệm giải trình. Nếu một bài báo chứa đựng thông tin sai lệch do AI bịa đặt (hallucination), ai sẽ là người chịu trách nhiệm? Tác giả đứng tên hay công cụ AI?
Chính vì những lo ngại này, các tạp chí hàng đầu như Nature hiện tại vẫn giữ quan điểm cứng rắn: không công nhận các công cụ AI là tác giả hoặc đồng tác giả của các bài báo khoa học. Quan điểm của họ rất rõ ràng: quyền tác giả đi kèm với trách nhiệm, và vì AI không thể chịu trách nhiệm trước pháp luật hay đạo đức về những gì nó viết ra, nên nó không thể được coi là tác giả.
Các nhà xuất bản yêu cầu con người phải là người chịu trách nhiệm cuối cùng và duy nhất đối với toàn bộ nội dung bài viết. Đồng thời, tính minh bạch được đặt lên hàng đầu khi các tạp chí yêu cầu tác giả phải công khai việc sử dụng AI trong quá trình phân tích dữ liệu hay bất kỳ công đoạn nào khác.
Mặc dù vậy, không thể phủ nhận những lợi ích to lớn mà AI mang lại. Nếu được sử dụng đúng cách, AI có thể giúp các nhà khoa học phân tích dữ liệu phòng thí nghiệm nhanh hơn, đề xuất các giả thuyết mới dựa trên việc tổng hợp hàng triệu nghiên cứu trong quá khứ, và thậm chí cung cấp những góc nhìn đột phá mà tư duy con người có thể bỏ sót.
Vấn đề cốt lõi không phải là cấm đoán AI, mà là làm thế nào để thiết lập một hành lang pháp lý và đạo đức đủ vững chắc để AI trở thành một người cộng sự đắc lực thay vì một kẻ phá hoại sự liêm chính của khoa học. Cuộc chiến chống lại "rác" học thuật và bảo vệ giá trị thật của tri thức sẽ còn kéo dài, và nó đòi hỏi sự tỉnh táo, trung thực của mỗi nhà khoa học trong kỷ nguyên số.
Bùi Tú