Cuộc gặp giữa Tổng Bí thư, Chủ tịch Trung Quốc Tập Cận Bình và Tổng thống Mỹ Donald Trump tại Bắc Kinh ngày 14 đến 15-5 vì thế không chỉ xoay quanh thương mại hay vấn đề Đài Loan. Đằng sau những chủ đề quen thuộc ấy là một câu hỏi lớn hơn, đó là liệu hai cường quốc công nghệ hàng đầu thế giới có thể xây dựng được những giới hạn an toàn chung cho AI trước khi quá muộn?
Tổng thống Mỹ Donald Trump và Tổng Bí thư, Chủ tịch Trung Quốc Tập Cận Bình trao đổi khi rời cuộc gặp song phương tại Sân bay Quốc tế Gimhae, bên lề hội nghị APEC ở Busan, Hàn Quốc, ngày 30-10-2025. Nguồn: Reuters
Nỗi lo này không còn mang tính giả định. Chỉ trong vài năm, AI đã chuyển từ công cụ hỗ trợ tìm kiếm và viết nội dung sang những mô hình có khả năng tự động lập trình, phân tích dữ liệu khổng lồ, phát hiện lỗ hổng an ninh mạng và tham gia vào các quy trình ra quyết định ngày càng phức tạp.
Sự xuất hiện của các mô hình AI thế hệ mới khiến giới hoạch định chính sách bắt đầu nhìn công nghệ này bằng con mắt khác. Nếu trước đây AI được xem như động lực tăng trưởng kinh tế, thì hiện nay nó đồng thời được coi là vấn đề an ninh chiến lược.
Nhiều chuyên gia thậm chí bắt đầu so sánh AI với công nghệ hạt nhân trong thế kỷ 20, vốn vừa mang lại ưu thế chiến lược khổng lồ, vừa đặt ra nguy cơ chưa từng có đối với an ninh toàn cầu.
Một số mô hình AI gần đây được cho là đã đạt tới năng lực đủ mạnh để tự phát hiện lỗ hổng mạng, hỗ trợ phát triển mã độc hoặc xử lý khối lượng dữ liệu vượt xa khả năng của con người. Điều đó làm dấy lên lo ngại rằng AI trong tương lai không chỉ làm thay đổi nền kinh tế, mà còn có thể làm thay đổi cán cân quyền lực giữa các quốc gia.
Tuy nhiên, điều khiến thế giới lo ngại hơn cả là tốc độ phát triển của AI đang vượt xa tốc độ xây dựng luật chơi.
Mỹ hiện ngày càng siết chặt cách tiếp cận với AI sau nhiều năm ưu tiên đổi mới công nghệ. Washington bắt đầu cân nhắc các cơ chế đánh giá an toàn đối với các mô hình AI tiên tiến, đặc biệt trong những lĩnh vực liên quan an ninh mạng, quốc phòng và dữ liệu chiến lược.
Trong khi đó, Trung Quốc cũng đẩy mạnh thảo luận về quản trị AI toàn cầu, kêu gọi xây dựng các tiêu chuẩn quốc tế và nhấn mạnh vai trò của hợp tác đa phương. Bắc Kinh nhiều lần cảnh báo nguy cơ AI vượt khỏi kiểm soát của con người và cho rằng các quốc gia cần phối hợp để tránh những hệ lụy xuyên biên giới.
Dù vậy, cách tiếp cận của hai bên vẫn tồn tại khác biệt đáng kể. Giới chiến lược Mỹ nhìn AI chủ yếu dưới lăng kính cạnh tranh quyền lực và an ninh quốc gia. Với Washington, quốc gia dẫn đầu AI có thể giành ưu thế kinh tế, quân sự và công nghệ trong nhiều thập niên tới.
Trong khi đó, Trung Quốc thường nhấn mạnh vai trò của AI đối với tăng trưởng kinh tế, năng suất và hiện đại hóa công nghiệp. Bắc Kinh cũng tỏ ra thận trọng trước nguy cơ bị hạn chế tiếp cận công nghệ lõi, đặc biệt trong bối cảnh Mỹ siết xuất khẩu chip bán dẫn tiên tiến.
Chính sự khác biệt về ưu tiên chiến lược khiến hợp tác AI trở nên khó khăn. Vấn đề không nằm ở chỗ hai bên thiếu nhận thức về rủi ro. Trái lại, cả Washington và Bắc Kinh đều hiểu rằng một mô hình AI mất kiểm soát tại bất kỳ quốc gia nào cũng có thể tạo ra tác động toàn cầu. Trong lĩnh vực AI, rủi ro công nghệ gần như không có biên giới.
Điều còn thiếu là lòng tin chiến lược. Cũng giống nhiều lĩnh vực nhạy cảm khác, từ hạt nhân cho tới an ninh mạng, Mỹ và Trung Quốc đều lo ngại rằng hợp tác quá sâu có thể khiến bên kia thu được lợi thế công nghệ hoặc tiếp cận dữ liệu quan trọng.
Vì vậy, các cuộc đối thoại AI hiện mới chủ yếu dừng ở mức trao đổi nguyên tắc và xây dựng kênh liên lạc. Một số chuyên gia cho rằng trong giai đoạn đầu, điều thực tế nhất có thể đạt được là hai nước cùng xây dựng các tiêu chuẩn an toàn tối thiểu, chia sẻ cách đánh giá rủi ro và thiết lập cơ chế giảm hiểu lầm chiến lược.
Đó là cách mà thế giới từng làm với công nghệ hạt nhân trong thời kỳ Chiến tranh Lạnh: đối thoại không phải vì tin tưởng tuyệt đối, mà vì cái giá của sự mất kiểm soát quá lớn.
Lịch sử cho thấy các tiêu chuẩn an toàn toàn cầu thường chỉ được thúc đẩy mạnh sau những cú sốc lớn, từ thảm họa hóa chất Bhopal năm 1984 đến sự cố hạt nhân Chernobyl năm 1986. Với AI, nhiều chuyên gia lo ngại thế giới có thể cũng chỉ thực sự hành động mạnh sau một sự cố nghiêm trọng.
Nhưng nếu điều đó xảy ra, cái giá có thể sẽ rất khác so với những cuộc khủng hoảng công nghệ trước đây.
Bởi AI không chỉ hiện diện trong phòng thí nghiệm hay nhà máy. Công nghệ này đang từng bước can dự vào tài chính, giao thông, quốc phòng, truyền thông và cả những quyết định ảnh hưởng trực tiếp tới đời sống con người.
Trong bối cảnh ấy, câu hỏi lớn nhất có lẽ không còn là quốc gia nào đi nhanh hơn trong cuộc đua AI, mà là liệu thế giới có thể xây dựng được những giới hạn an toàn chung trước khi công nghệ này vượt khỏi khả năng kiểm soát của chính con người hay không?
Ngọc Lâm