Andrej Karpathy, đồng sáng lập OpenAI. Ảnh: Dwarkesh Patel.
Trong bối cảnh nhiều người trong giới công nghệ tin rằng trí tuệ nhân tạo tổng quát (AGI) sắp trở thành hiện thực, Andrej Karpathy, nhà khoa học nổi tiếng từng giữ vai trò giám đốc AI của Tesla và đồng sáng lập OpenAI, lại đưa ra quan điểm trái ngược. Ông cho rằng con đường đến AGI vẫn còn dài và thế giới cần ít nhất một thập kỷ nữa để vượt qua những thách thức căn bản.
“Các vấn đề có thể giải quyết được, tuy chúng vẫn còn khó khăn ở thời điểm hiện tại. Tôi nghĩ sẽ mất khoảng mười năm để khắc phục tất cả hạn chế hiện nay", Karpathy nói trong một buổi trò chuyện gần đây.
Bài học quý giá
Theo ông Karpathy, sự phát triển nhanh chóng của các mô hình ngôn ngữ lớn (LLM) trong vài năm qua khiến nhiều người tin rằng thời đại của “các tác nhân AI”, những hệ thống có khả năng tự động đã đến. Tuy nhiên, cựu giám đốc mảng AI của Tesla không đồng ý với quan điểm này. Ông cho rằng 2025 không phải là “năm của tác nhân AI”.
Ông lý giải những công cụ như Claude hay Codex cho thấy khả năng hỗ trợ con người trong nhiều công việc. Tuy nhiên, chúng vẫn còn xa mới đạt đến mức được xem là “đồng nghiệp kỹ thuật số”.
“Hiện tại, các tác nhân AI không đủ thông minh, không thể sử dụng máy tính một cách tự nhiên và chưa có khả năng học tập liên tục. Bạn không thể nói với chúng điều gì đó rồi mong chúng nhớ mãi. Chúng thiếu nhận thức, đó là điều khiến các mô hình chưa thể làm việc thực sự hiệu quả", Karpathy nói.
Karpathy từng giữ vai trò giám đốc AI của Tesla. Ảnh: Teslarati.
Với hơn 15 năm gắn bó cùng lĩnh vực AI, Karpathy cho biết ông đã nhiều lần chứng kiến những bước ngoặt khiến toàn bộ ngành thay đổi. Ông từng học và làm việc cùng Geoffrey Hinton, cha đẻ của mạng nơ-ron tại Đại học Toronto, thời điểm mà học sâu (deep learning) vẫn còn là một nhánh nghiên cứu ít được chú ý. Thành công của AlexNet năm 2012 đã mở ra kỷ nguyên mới cho AI, giúp mạng nơ-ron trở thành nền tảng cho nhiều ứng dụng sau này.
Sau làn sóng học sâu, ngành AI từng bước chuyển sang hướng xây dựng các tác nhân có khả năng quan sát, hành động và học hỏi từ môi trường. Một trong những thử nghiệm đầu tiên là học tăng cường sâu (deep reinforcement learning) trên trò chơi Atari vào khoảng năm 2013. Dù được xem là đột phá lúc bấy giờ, ông cho rằng hướng đi này là “một sai lầm mang tính thời điểm”.
“Thật dễ hiểu khi mọi người muốn thử nghiệm trong môi trường trò chơi, nơi dễ mô phỏng và đo lường. Nhưng nó không phản ánh thế giới thực. Nếu bạn chỉ để AI gõ bàn phím, nhấp chuột và chờ phần thưởng, nó sẽ không học được gì đáng kể”, ông nhận định.
Chưa đúng thời điểm
Khi làm việc tại OpenAI, Karpathy từng tham gia dự án Universe, một nỗ lực tạo ra một tác nhân có thể điều khiển bằng chuột và bàn phím để thực hiện các tác vụ thực tế. Tuy nhiên, ông thừa nhận rằng dự án khi đó ra đời “quá sớm”.
“Chúng tôi chưa đủ sức mạnh biểu diễn của mạng nơ-ron và chưa có nền tảng mô hình ngôn ngữ lớn như hiện nay”, Karpathy nói.
Karpathy tin rằng việc phát triển AGI cần cả một thập kỷ. Ảnh: Vidhya.
Nhà khoa học nói thêm rằng để phát triển một tác nhân trở nên thông minh thật sự, các mô hình cần phải có một nền tảng vững chắc về biểu diễn ngôn ngữ và nhận thức. Karpathy ví quá trình tiền huấn luyện (pre-training) trên dữ liệu Internet như một hình thức “tiến hóa tồi tệ”. Tuy vậy, quá trình này giúp AI tích lũy được lượng kiến thức khổng lồ và khả năng suy luận cơ bản.
Dù vậy, ông cảnh báo việc phụ thuộc quá nhiều vào kho kiến thức sẵn có có thể khiến AI kém sáng tạo hơn. “Có lẽ chúng ta cần tìm cách loại bỏ một phần kiến thức, chỉ giữ lại cái gọi là cốt lõi nhận thức, phần thể hiện khả năng tư duy, giải quyết vấn đề và chiến lược”, Karpathy chia sẻ.
Theo đó, AI đang bước vào giai đoạn chuyển mình. Sự kết hợp giữa sức mạnh của các mô hình ngôn ngữ và khả năng hành động của tác nhân sẽ mở ra chương mới cho công nghệ. Tuy vậy, con đường ấy, theo Karpathy, không thể chỉ tính bằng năm.
Minh Hoàng