Việc ứng dụng AI trong chiến tranh đang tăng tốc, song rủi ro lớn nhất nằm ở vũ khí sát thương tự động và khả năng mất kiểm soát chỉ huy. Trao đổi giữa Helen Warrell (FT) và James O’Donnell (MIT Technology Review) nêu các kịch bản tấn công đa miền do AI dẫn dắt, ví dụ triển khai tại Ukraine và Gaza, cùng cảnh báo sớm từ Henry Kissinger và lời kêu gọi cấm vũ khí tự động hoàn toàn của António Guterres.
Helen Warrell (trái) và James O’Donnell (phải) - Ảnh: FT
Tổng quan
Một kịch bản được nêu: máy bay không người lái tự động dùng AI để áp đảo phòng không; đồng thời tấn công mạng do AI tạo ra làm gián đoạn năng lượng và liên lạc; song song là chiến dịch tung tin giả quy mô lớn giảm mức phản đối quốc tế. Những kịch bản này đặt ra câu hỏi nền tảng: lợi thế tốc độ và độ chính xác do AI mang lại có đánh đổi bằng nguy cơ leo thang ngoài kiểm soát khi giám sát đạo đức và pháp lý không theo kịp.
Trước khi qua đời vào tháng 11.2023, Henry Kissinger cảnh báo thảm họa chiến tranh do AI điều khiển có thể xảy ra. Nhiều lãnh đạo quân sự coi đây là “khoảnh khắc Oppenheimer” – thời điểm buộc phải đối mặt trách nhiệm đạo đức khi tạo ra công nghệ có sức mạnh thay đổi thế giới, tương tự vụ thử bom nguyên tử ngày 16.7.1945.
Ứng dụng và năng lực hiện có
Ba nhóm ứng dụng chính của AI trong quân sự hiện nay: lập kế hoạch và hậu cần; chiến tranh mạng (phá hoại, gián điệp, tấn công mạng, chiến dịch thông tin); và nhắm mục tiêu vũ khí. Chưa có ứng dụng nào đạt mức tự động hoàn toàn.
Trên chiến trường, Ukraine dùng phần mềm AI điều khiển drone để né gây nhiễu khi tiếp cận mục tiêu nhạy cảm. Tại Gaza, Lực lượng Phòng vệ Israel sử dụng hệ thống hỗ trợ quyết định dựa trên AI có tên Lavender, giúp xác định khoảng 37.000 mục tiêu tiềm năng là con người.
Rủi ro kiểm soát, thiên kiến và đạo đức
Rủi ro cốt lõi là tốc độ ra quyết định do AI thúc đẩy có thể vượt quá khả năng kiểm soát của con người, trong bối cảnh khung giám sát đạo đức – pháp lý chưa hoàn thiện. Với Lavender, nguy cơ lặp lại thiên kiến trong dữ liệu huấn luyện là hiện hữu. Tuy vậy, binh sĩ cũng có thiên kiến; một sĩ quan tình báo Israel cho rằng hệ thống dựa trên thống kê và dữ liệu có thể đưa ra quyết định khách quan hơn con người trong trạng thái cảm xúc.
Một số quan điểm cho rằng khung kiểm soát hiện tại đủ để triển khai AI nếu bảo đảm dữ liệu huấn luyện không gây lệch hành vi, và chỉ huy phải chịu trách nhiệm với mọi sai sót. Ngược lại, ý kiến phản biện đặt câu hỏi: khi mô hình tổng hợp hàng nghìn đầu vào, liệu con người có thể kiểm soát được toàn bộ kết luận trước khi hành động.
Khung pháp lý và quản trị
Một đồng thuận đang nổi lên ở phương Tây: không giao phó các quyết định liên quan đến vũ khí hạt nhân cho AI. Tổng thư ký Liên Hợp Quốc António Guterres kêu gọi cấm hoàn toàn các hệ thống vũ khí sát thương hoàn toàn tự động, đồng thời nhấn mạnh quy định phải theo kịp tốc độ phát triển công nghệ.
Ông Henry Kissinger cảnh báo thảm họa chiến tranh do AI điều khiển sắp xảy ra trước khi qua đời - Ảnh: Internet
Năng lực và giới hạn kỹ thuật
Các nhà nghiên cứu tại Trung tâm Belfer (Đại học Harvard) cho rằng năng lực AI chiến đấu có thể đang bị thổi phồng. Giáo sư Anthony King nhận định AI sẽ hỗ trợ tăng nhận thức tình huống chứ không thay thế con người; “tự động hóa hoàn toàn chiến tranh” là ảo tưởng. Ở chiều ngược lại, Missy Cummings cảnh báo các mô hình ngôn ngữ lớn đặc biệt dễ mắc lỗi nghiêm trọng trong môi trường quân sự, nơi đòi hỏi độ tin cậy cao.
Công nghiệp quốc phòng và động lực tài chính
James O’Donnell ghi nhận sự xoay trục đáng kể của các công ty AI đối với ứng dụng quân sự. Đầu năm 2024, OpenAI cấm sử dụng công cụ cho mục đích chiến tranh; đến cuối năm 2024, tổ chức này ký thỏa thuận với Anduril Industries để hỗ trợ bắn hạ drone trên chiến trường.
Anduril Industries là công ty công nghệ quốc phòng Mỹ vận hành theo mô hình tích hợp dọc (phần mềm và phần cứng), trụ sở tại Costa Mesa, bang California; thành lập năm 2017 bởi Palmer Luckey, Trae Stephens, Matt Grimm, Joe Chen và Brian Schimpf; vốn mạo hiểm trong đó có Founders Fund do Peter Thiel đồng sáng lập.
Các nguyên nhân của sự xoay trục gồm: làn sóng thổi phồng về AI và nhu cầu thu hồi chi phí lớn để huấn luyện, vận hành mô hình; Bộ Quốc phòng Mỹ và giới lãnh đạo quốc phòng châu Âu sẵn sàng chi tiêu; dòng vốn đầu tư mạo hiểm vào công nghệ quốc phòng năm nay tăng, gấp đôi so với cả năm 2024, hướng tới nhu cầu mua sắm mới và hợp tác với các công ty khởi nghiệp. Một số đơn vị tác chiến như lính thủy đánh bộ Mỹ đã thử nghiệm hệ thống AI phân tích tình báo nước ngoài nhanh hơn con người trong các chuyến tuần tra ở Nam Thái Bình Dương.
Mối lo về vũ khí tự động và thảm họa chiến tranh do AI dẫn dắt
Tác động chiến thuật và học thuyết
Kịch bản tấn công do AI dẫn dắt kết hợp UAV tự động, chiến tranh mạng và chiến dịch thông tin cho thấy ưu thế của tác chiến đa miền có tốc độ cao. Tuy vậy, điều này làm tăng rủi ro leo thang nhanh và khó kiểm chứng. Một số quan điểm đề xuất giữ “con người trong vòng lặp”, trong khi quan điểm khác nhấn mạnh trách nhiệm chỉ huy theo luật hiện hành, với yêu cầu kiểm soát chất lượng dữ liệu huấn luyện và quy trình triển khai.
Kết luận
Nhiều bằng chứng cho thấy AI đã tham gia thực chiến ở vai trò hỗ trợ quyết định và nhắm mục tiêu, nhưng tự động hóa hoàn toàn chưa xuất hiện. Câu hỏi trung tâm còn lại: mức an toàn nào là chấp nhận được khi tốc độ tác chiến tăng lên, trong khi thiên kiến dữ liệu và giới hạn kỹ thuật vẫn tồn tại. Như Helen Warrell và James O’Donnell nhấn mạnh, cần giám sát chặt chẽ, buộc lãnh đạo chính trị chịu trách nhiệm và hoài nghi trước các lời hứa phi thường về AI quân sự – nhất là khi cuộc chạy đua vũ khí AI đang diễn ra nhanh và nhiều bí mật, dễ vượt trước quá trình xem xét công khai vốn cần thiết.
CTVX