Nghiên cứu do giáo sư Kenneth Payne của Đại học Nhà vua London (King’s College London) thực hiện đã thử nghiệm nhiều mô hình ngôn ngữ lớn (LLM) như GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash trong vai trò lãnh đạo phe đối lập trong 21 kịch bản chiến tranh khác nhau.
Các kịch bản này bao gồm xung đột biên giới, tranh chấp tài nguyên hay các tình huống mà quốc gia đối mặt với mối đe dọa nghiêm trọng đến sự tồn vong quốc gia.
Trong những mô phỏng này, các hệ thống AI được coi như người đứng đầu lực lượng quân sự có quyền quyết định các hành động chiến lược.
Kết quả cho thấy trong khoảng 95% trường hợp, AI lựa chọn sử dụng vũ khí hạt nhân nguyên tử khi được giao quyền điều khiển quân đội, bất kể các lựa chọn khác như hòa giải hay rút lui.
Chỉ có khoảng 25% các phe đối thủ chọn phương án giảm leo thang căng thẳng sau khi có bên sử dụng vũ khí hạt nhân, và không một mô hình nào chọn phương án nhượng bộ, đầu hàng hay từ bỏ giao tranh dù thất bại nặng nề.
Điều này được nhận định như một cảnh báo về rủi ro khi áp dụng công nghệ AI vào các quyết định chiến tranh mang tính sống còn.
Các chuyên gia đã tổng hợp phản ứng AI từ nhiều kịch bản, trong đó có tình huống một bên bị tấn công trước, tranh chấp biên giới leo thang hoặc một quốc gia bị đe dọa tồn vong.
Theo giáo sư Payne, nghiên cứu này không phản ánh tình trạng hiện tại của hệ thống, vì chưa có chính phủ hay quân đội nào giao quyền sử dụng vũ khí hủy diệt hàng loạt cho AI, nhưng kết quả cho thấy tiềm ẩn các lựa chọn quyết định cực đoan nếu AI được trao quyền quyết định chiến lược.
Vũ khí hạt nhân nguyên tử là loại vũ khí gây nổ bằng phản ứng hạt nhân, có sức hủy diệt cực lớn trong phạm vi rộng lớn.
Các loại bom nguyên tử có thể gây thiệt hại nặng nề cho mục tiêu trong phạm vi hàng chục km, và tia bức xạ sau nổ gây hậu quả lâu dài đối với sinh mạng, môi trường và cơ sở hạ tầng.
Hiện nay, các quốc gia sở hữu vũ khí hạt nhân đều duy trì hệ thống chỉ huy và kiểm soát chặt chẽ, trong đó quyền ra lệnh sử dụng loại vũ khí này thường chỉ thuộc về lãnh đạo cao nhất quốc gia.
Nhiều quốc gia như Trung Quốc và Ấn Độ thậm chí tuyên bố chính sách "không sử dụng trước" (no first use), cam kết không khởi động sử dụng vũ khí hạt nhân trước trong bất kỳ hoàn cảnh nào nếu đối thủ chưa sử dụng trước.
Tuy nhiên, nghiên cứu cũng cho thấy AI có xu hướng chọn sử dụng vũ khí hạt nhân khi gặp các tình huống chiến tranh nghiêm trọng, ngay cả trong các trường hợp không rơi vào tình trạng khủng hoảng sinh tồn của quốc gia.
Điều này gợi mở câu hỏi về cách thức AI ra quyết định dưới áp lực chiến tranh và liệu các hệ thống hiện đại có thể duy trì sự kiểm soát phù hợp với đạo đức và mục tiêu chính sách quốc gia hay không.
Giáo sư Payne và nhóm nghiên cứu nhấn mạnh kết quả này không có nghĩa AI sẽ thực sự ra lệnh sử dụng vũ khí hạt nhân trong thực tế, nhưng nó làm nổi bật rủi ro khi tích hợp AI vào các hệ thống chỉ huy chiến trường hoặc hỗ trợ ra quyết định chiến lược.
Hiện nay, các quân đội lớn trên thế giới, bao gồm Mỹ, vẫn giữ quyền kiểm soát cuối cùng về sử dụng vũ khí hủy diệt hàng loạt trong tay con người, không giao cho hệ thống tự động.
Việc nghiên cứu này được công bố giữa bối cảnh tranh luận toàn cầu về vai trò của AI trong quân sự, đặc biệt là khi các thuật toán ngày càng tinh vi và có thể ảnh hưởng đến các quyết định chiến tranh - hòa bình.
Một số chuyên gia lo ngại nếu không có cơ chế kiểm soát chặt chẽ, AI có thể trở thành một yếu tố khiến các cuộc xung đột nhanh chóng leo thang ngoài ý muốn.
Việt Hùng