Sự trơn tru của AI có thể đánh lừa về khả năng suy luận thực sự

Sự trơn tru của AI có thể đánh lừa về khả năng suy luận thực sự
20 giờ trướcBài gốc
Công trình nghiên cứu, công bố vào tháng 2.2025 trên tạp chí Transactions on Machine Learning Research, đã kiểm tra khả năng suy luận và tạo lập phép loại suy của các mô hình ngôn ngữ lớn (LLM) như GPT-4 của OpenAI.
Theo Live Science, các nhà khoa học muốn tìm hiểu xem những mô hình này có thể xử lý các bài toán mang tính khái quát như con người hay không. Kết quả cho thấy, dù AI rất giỏi trong việc phát hiện các mẫu từ dữ liệu, chúng lại thiếu khả năng suy luận trừu tượng - một trong những đặc điểm quan trọng tạo nên tư duy con người.
Các mô hình AI gặp khó khăn trong việc đưa ra phép so sánh khi xem xét các chủ đề phức tạp - Ảnh: Getty
AI bị sai ngay cả những điều con người thấy hiển nhiên
Một ví dụ điển hình là các bài toán chuỗi ký tự. Khi được hỏi “abcd” biến thành “abce”, vậy “ijkl” sẽ thành gì, cả người và AI thường trả lời đúng là “ijkm” vì dễ nhận ra quy luật.
Nhưng nếu câu hỏi phức tạp hơn như: “abbcd” chuyển thành “abcd”, thì “ijkkl” sẽ thành gì? Con người dễ dàng thấy mẫu lặp bị loại bỏ, nên câu trả lời là “ijkl”. Trong khi đó, AI thường trả lời sai vì không nhận ra quy luật cần thiết, dù rất nhỏ.
Không chỉ với ký tự, AI còn gặp khó khi hoàn thành các bài toán dạng ma trận số - những bài đòi hỏi sự quan sát tinh tế và khả năng áp dụng quy luật đã học vào tình huống mới. Trong các thử nghiệm, con người thực hiện khá tốt, trong khi mô hình AI thể hiện rõ sự suy giảm hiệu suất, đặc biệt là với các câu hỏi khác biệt so với dữ liệu mà chúng từng được huấn luyện.
Tư duy trừu tượng
Tiến sĩ Martha Lewis, một trong những tác giả nghiên cứu và là giảng viên tại Đại học Amsterdam (Hà Lan) giải thích rằng con người có thể dễ dàng rút ra quy luật từ những ví dụ cụ thể và áp dụng chúng trong các ngữ cảnh khác nhau.
Đó là điều mà các hệ thống AI hiện tại chưa thể làm được. Theo bà M.Lewis, AI thường hoạt động như một “cỗ máy so khớp mẫu”, tức là chỉ đưa ra kết quả dựa trên những gì nó đã từng thấy, chứ không thực sự “hiểu” mối liên hệ giữa các sự vật hay hiện tượng.
Khả năng khái quát hóa này đặc biệt quan trọng khi AI được đưa vào sử dụng trong những lĩnh vực nhạy cảm như pháp lý, y tế hay giáo dục. Ví dụ, trong lĩnh vực pháp lý, AI có thể được dùng để nghiên cứu luật, phân tích tiền lệ, hoặc đề xuất mức phạt. Tuy nhiên, nếu AI không nhận ra những điểm tương đồng ẩn giữa các vụ việc - điều mà con người dễ dàng nắm bắt - nó có thể đưa ra những khuyến nghị không phù hợp với bối cảnh, dù thoạt nhìn có vẻ hợp lý.
Nghiên cứu cũng chỉ ra rằng, mặc dù AI có thể đạt được kết quả đúng trong nhiều trường hợp, nó lại không có khả năng tự đánh giá khi nào mình đang “không chắc chắn”. Điều này rất nguy hiểm trong các quyết định thực tế, nơi sai lầm nhỏ cũng có thể dẫn đến hậu quả lớn. Vì vậy, các nhà khoa học cho rằng chúng ta không chỉ nên đánh giá AI dựa trên độ chính xác của câu trả lời, mà còn cần xem xét tính đáng tin cậy trong khả năng nhận thức và lý luận của nó.
Một điểm nữa khiến các nhà nghiên cứu lo ngại là sự nhầm lẫn giữa khả năng ngôn ngữ mượt mà với trí tuệ thực sự. AI như GPT-4 có thể trò chuyện trôi chảy, viết văn hay thậm chí mô phỏng cảm xúc, nhưng điều đó không đồng nghĩa với việc nó suy nghĩ như con người. Sự khác biệt này cần được nhận thức rõ để tránh rơi vào cái bẫy đặt quá nhiều niềm tin vào những hệ thống chưa đủ năng lực hiểu sâu các vấn đề phức tạp.
Sử dụng AI một cách an toàn
Với tốc độ phát triển nhanh chóng, AI ngày càng được tích hợp vào cuộc sống và công việc. Tuy nhiên, theo nhóm tác giả nghiên cứu, cần hết sức thận trọng khi đưa AI vào những lĩnh vực có ảnh hưởng lớn đến con người. Việc thiếu khả năng nhận biết, tổng quát và đánh giá lại có thể làm lệch hướng các quyết định quan trọng, đặc biệt là khi con người dựa quá nhiều vào khuyến nghị từ hệ thống.
Để cải thiện tình hình, các chuyên gia cho rằng AI trong tương lai cần được thiết kế không chỉ với mục tiêu trả lời đúng, mà còn phải biết “nghĩ như con người” - hoặc ít nhất là hiểu khi nào mình không chắc chắn. Điều này đòi hỏi các tiêu chí đánh giá mới, đi sâu vào khả năng suy luận, phản xạ và ứng biến - thay vì chỉ tập trung vào khả năng ghi nhớ hoặc tái hiện mẫu.
Nghiên cứu không nhằm phủ nhận giá trị của AI, mà ngược lại, nó cho thấy tiềm năng to lớn của công nghệ này nếu được sử dụng đúng cách và hiểu rõ giới hạn. AI có thể là một công cụ hỗ trợ tuyệt vời trong nhiều lĩnh vực, từ phân tích dữ liệu lớn đến trợ lý cá nhân. Nhưng nó không phải là người ra quyết định thay con người - đặc biệt khi sự sáng tạo, linh hoạt và cảm nhận tinh tế là yếu tố then chốt.
AI có thể rất mạnh trong việc xử lý thông tin, nhưng chưa thể “suy nghĩ” như con người. Sự khác biệt này - nếu không được nhận diện - có thể dẫn đến những quyết định sai lầm trong thế giới thực. Vì vậy, khi ứng dụng AI vào các hoạt động có tính chất sống còn, cần kết hợp công nghệ với sự giám sát và đánh giá của con người - để đảm bảo những gì chúng ta xây dựng vẫn đặt yếu tố con người làm trung tâm.
Hoàng Vũ
Nguồn Một Thế Giới : https://1thegioi.vn/su-tron-tru-cua-ai-co-the-danh-lua-ve-kha-nang-suy-luan-thuc-su-231119.html