Tối 27.2, Bộ trưởng Quốc phòng Mỹ Pete Hegseth đã chỉ đạo Lầu Năm Góc gắn nhãn Anthropic là “rủi ro chuỗi cung ứng”, gây chấn động Thung lũng Silicon và khiến nhiều công ty phải gấp rút tìm hiểu liệu họ có thể tiếp tục sử dụng Claude, một trong những mô hình AI phổ biến nhất ngành, hay không.
“Có hiệu lực ngay lập tức, không nhà thầu, nhà cung cấp hay đối tác nào làm ăn với quân đội Mỹ được phép tiến hành bất kỳ hoạt động thương mại nào với Anthropic”, Pete Hegseth viết trên mạng xã hội X.
Tổng thống Donald Trump chỉ đạo mọi cơ quan liên bang Mỹ ngừng hợp tác với Anthropic.
Trong bài đăng trên mạng xã hội Truth Social tối 27.2, ông Trump cho biết: "Tôi chỉ thị tất cả cơ quan liên bang trong chính phủ Mỹ ngay lập tức ngừng sử dụng công nghệ của Anthropic. Chúng ta không cần nó, chúng ta không muốn nó và sẽ không bao giờ làm ăn với họ nữa!".
Tổng thống Mỹ cho biết sẽ có một giai đoạn loại bỏ kéo dài 6 tháng với Bộ Quốc phòng và các cơ quan khác đang sử dụng sản phẩm của Anthropic.
Ông Trump cảnh báo rằng sẽ sử dụng "toàn bộ quyền lực của chức vụ tổng thống để buộc họ tuân thủ, với những hậu quả dân sự và hình sự nghiêm trọng" nếu Anthropic không hợp tác trong việc loại bỏ dần công nghệ của mình khỏi các cơ quan liên bang.
Các hành động này liên quan đến hạn chót 27.2 mà Bộ Quốc phòng Mỹ đặt ra để giải quyết cuộc tranh chấp leo thang với Anthropic liên quan đến những lo ngại về cách quân đội có thể sử dụng AI trong chiến tranh.
Lầu Năm Góc yêu cầu Anthropic phải đồng ý cho phép quân đội Mỹ sử dụng AI của công ty này cho “mọi mục đích hợp pháp” mà không có ngoại lệ cụ thể.
Hôm 26.2, Anthropic tuyên bố sẽ không cho phép công nghệ của mình được sử dụng để giám sát người Mỹ trên quy mô lớn hoặc vận hành các hệ thống vũ khí hoạt động hoàn toàn tự động.
Dario Amodei, Giám đốc điều hành Anthropic, nói công ty không thể cho phép Bộ Quốc phòng Mỹ sử dụng các mô hình AI của mình trong tất cả trường hợp sử dụng hợp pháp mà không có bất kỳ hạn chế nào, đồng thời khẳng định những lời đe dọa của cơ quan này không làm thay đổi lập trường của công ty.
“Bộ Quốc phòng có quyền lựa chọn các nhà thầu phù hợp nhất với tầm nhìn của họ, nhưng xét đến giá trị đáng kể mà công nghệ của Anthropic mang lại cho lực lượng vũ trang của chúng ta, chúng tôi hy vọng họ sẽ xem xét lại”, Dario Amodei tuyên bố.
“Anthropic rất mong muốn tiếp tục phục vụ Bộ Quốc phòng và các binh sĩ của chúng ta, với hai biện pháp bảo vệ mà chúng tôi đã yêu cầu. Nếu Bộ quyết định chấm dứt hợp tác với Anthropic, chúng tôi sẽ hỗ trợ để đảm bảo quá trình chuyển đổi sang nhà cung cấp khác diễn ra suôn sẻ, tránh làm gián đoạn các kế hoạch quân sự, hoạt động tác chiến hoặc các nhiệm vụ quan trọng khác”, ông nhấn mạnh.
Anthropic dọa kiện chính phủ Mỹ
Việc gắn nhãn “rủi ro chuỗi cung ứng” cho phép Lầu Năm Góc hạn chế hoặc loại trừ các nhà cung cấp khỏi các hợp đồng quốc phòng nếu họ bị coi là có nguy cơ gây ra lỗ hổng an ninh, chẳng hạn rủi ro liên quan đến quyền sở hữu, kiểm soát hoặc ảnh hưởng của nước ngoài. Mục tiêu là bảo vệ các hệ thống và dữ liệu quân sự nhạy cảm khỏi nguy cơ bị xâm phạm.
Anthropic đã phản hồi trong một bài blog khác tối 27.2, tuyên bố sẽ “thách thức bất kỳ quyết định gắn nhãn rủi ro chuỗi cung ứng nào tại tòa án” và cho rằng quyết định này sẽ “tạo ra một tiền lệ nguy hiểm cho bất kỳ công ty Mỹ nào đàm phán với chính phủ”.
Anthropic cho rằng việc Bộ Quốc phòng Mỹ đưa công nghệ của họ vào danh sách đen là "không hợp pháp" - Ảnh: MTG
Anthropic cũng cho biết chưa nhận được bất kỳ thông báo trực tiếp nào từ Bộ Quốc phòng Mỹ hoặc Nhà Trắng về các cuộc đàm phán liên quan đến việc sử dụng các mô hình AI của họ.
“Bộ trưởng Hegseth đã ám chỉ rằng quyết định này sẽ hạn chế bất kỳ ai làm ăn với quân đội không được hợp tác với Anthropic. Bộ trưởng không có thẩm quyền theo luật định để đưa ra tuyên bố này”, công ty đứng sau mô hình Claude viết. Lầu Năm Góc từ chối bình luận.
“Vượt quá thẩm quyền”
“Đây là điều gây sốc, gây tổn hại và vượt quá thẩm quyền nhất mà tôi từng thấy chính phủ Mỹ làm. Về cơ bản, chính phủ vừa trừng phạt một công ty Mỹ. Nếu là người Mỹ, bạn nên tự hỏi liệu 10 năm nữa mình có còn muốn sống ở đây không”, Dean Ball, cựu cố vấn chính sách AI cấp cao của Nhà Trắng, nhận xét.
Nhiều người trong Thung lũng Silicon cảm thấy sốc và bày tỏ bất bình trên mạng xã hội. Paul Graham, nhà sáng lập vườn ươm công ty khởi nghiệp Y Combinator, viết trên X: “Những người điều hành chính quyền này hành động bốc đồng và mang tính trả đũa. Tôi tin điều này đủ để giải thích hành vi của họ”.
Boaz Barak, nhà nghiên cứu tại OpenAI, cho biết trong một bài đăng trên X rằng: “Việc làm tê liệt một trong những công ty AI hàng đầu Mỹ là một trong những sai lầm tồi tệ nhất mà chúng ta có thể tự gây ra. Tôi rất hy vọng rằng những người tỉnh táo hơn sẽ thắng thế và thông báo này sẽ bị đảo ngược”.
Trong khi đó, Sam Altman (Giám đốc điều hành OpenAI) thông báo vào tối 27.2 rằng công ty đã đạt được thỏa thuận với Bộ Quốc phòng Mỹ để triển khai các mô hình AI của mình trong các môi trường mật, dường như có các ngoại lệ rõ ràng.
“Hai trong số những nguyên tắc an toàn quan trọng nhất của chúng tôi là cấm giám sát hàng loạt trong nước và đảm bảo con người chịu trách nhiệm với việc sử dụng vũ lực, gồm cả hệ thống vũ khí tự động. Bộ Quốc phòng Mỹ đồng ý với các nguyên tắc này, phản ánh chúng trong luật pháp, chính sách và chúng tôi đã đưa chúng vào thỏa thuận”, Sam Altman nói.
Trước đó, Giám đốc điều hành OpenAI hy vọng sẽ giúp làm trung gian hòa giải giữa hai bên (Bộ Quốc phòng Mỹ với Anthropic) và tránh những tiền lệ nguy hiểm cho ngành công nghiệp này.
Sam Altman muốn giải quyết bế tắc giữa Bộ Quốc phòng Mỹ và Anthropic - Ảnh: Getty Images
Hoạt động kinh doanh của Anthropic có thể bị ảnh hưởng
hoạt động kinh doanh của Anthropic có thể bị ảnh hưởng
Trong bài trên blog tối 27.2, Anthropic cho biết việc gắn nhãn rủi ro chuỗi cung ứng, theo thẩm quyền của Điều 10 USC 3252, chỉ áp dụng cho các hợp đồng của Bộ Quốc phòng Mỹ trực tiếp với nhà cung cấp, không gồm cả cách các nhà thầu sử dụng mô hình AI Claude để phục vụ các khách hàng khác.
Ba chuyên gia về hợp đồng liên bang cho biết hiện chưa thể xác định khách hàng nào của Anthropic, nếu có, buộc phải cắt đứt quan hệ với công ty.
Alex Major, đối tác tại hãng luật McCarter & English chuyên làm việc với các hãng công nghệ, cho biết thông báo của Pete Hegseth “không dựa trên bất kỳ cơ sở pháp lý cụ thể nào mà chúng tôi có thể xác định lúc này”.
Amazon, Microsoft, Google và Nvidia - tất cả đều cung cấp dịch vụ cho quân đội Mỹ và hợp tác với Anthropic - chưa phản hồi ngay lập tức về vấn đề này. Anduril và Shield AI, hai hãng công nghệ quốc phòng tập trung vào AI, từ chối bình luận.
Theo Charlie Bullock - nghiên cứu viên cấp cao tại Viện Luật và AI, các quyết định gắn nhãn rủi ro chuỗi cung ứng thường không có hiệu lực ngay lập tức. Theo ông, chính phủ Mỹ phải hoàn tất đánh giá rủi ro cũng như thông báo cho Quốc hội trước khi các đối tác quân sự buộc phải cắt đứt quan hệ với một công ty hoặc sản phẩm của họ.
Tuy nhiên, tình hình này vẫn có thể khiến các hãng công nghệ khác e ngại khi làm việc với Lầu Năm Góc, theo Greg Allen - cố vấn cấp cao tại Trung tâm AI Wadhwani thuộc Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS).
“Bộ Quốc phòng Mỹ vừa gửi một thông điệp rất rõ ràng đến mọi công ty rằng nếu bạn bước chân vào lĩnh vực hợp đồng quốc phòng, chúng tôi có thể kéo bạn vào sâu hơn bất cứ lúc nào chúng tôi muốn”, Greg Allen nói.
Một số chuyên gia pháp lý nói với tạp chí WIRED rằng Anthropic nhiều khả năng sẽ kiện chính phủ Mỹ. Trước đó, Pete Hegseth từng gợi ý Bộ Quốc phòng Mỹ có thể viện dẫn Đạo luật Sản xuất Quốc phòng để buộc Anthropic cung cấp công nghệ cho Lầu Năm Góc. Greg Allen cho rằng sự thay đổi lập trường này làm suy yếu lập luận rằng Anthropic thực sự là một rủi ro chuỗi cung ứng.
Tuy nhiên, một vụ kiện sẽ mất nhiều tháng hoặc nhiều năm để giải quyết, và hoạt động kinh doanh của Anthropic có thể bị ảnh hưởng trong thời gian đó nếu các công ty buộc phải cắt đứt quan hệ với họ.
Tranh chấp này đặt ra những câu hỏi quan trọng với nhiều đối tác quân sự lớn của chính phủ Mỹ, như Nvidia, Amazon, Google và Palantir, vốn hợp tác chặt chẽ với Anthropic.
Một giám đốc công nghệ của công ty cung cấp phần mềm cho quân đội Mỹ, yêu cầu giấu tên vì tính nhạy cảm của vấn đề, cho biết đang chờ đợi và để các luật sư xem xét tình hình, vì chỉ thị của Bộ Quốc phòng Mỹ hiện mới chỉ được công bố trên mạng xã hội.
Vị này so sánh tình huống trên với Điều khoản 889 của Đạo luật Ủy quyền Quốc phòng Quốc gia, vốn cấm các cơ quan liên bang ký hợp đồng với các công ty sử dụng thiết bị viễn thông Trung Quốc nhất định như “một thành phần thiết yếu” trong bất kỳ hệ thống nào.
Nếu quy định mới này tương tự thì việc áp dụng sẽ không dễ dàng, vì tiêu chuẩn để coi bị vi phạm là rất cao. Ngay cả khi một hãng công nghệ đang sử dụng mô hình Claude Code cho mục đích nội bộ, điều đó chưa chắc được xem là một thành phần “thiết yếu” của sản phẩm mà họ bán cho chính phủ, nên có thể vẫn không bị cấm hợp tác với Anthropic.
Vào tháng 7.2025, Anthropic đã ký một hợp đồng trị giá 200 triệu USD với Bộ Quốc phòng Mỹ. Anthropic cho biết họ là công ty AI tiên tiến đầu tiên đưa các mô hình của mình lên các mạng lưới mật của chính phủ Mỹ thông qua nhà cung cấp đám mây Amazon. Ngoài ra, Anthropic cũng là công ty đầu tiên xây dựng các mô hình AI tùy chỉnh cho khách hàng an ninh quốc gia.
Mô hình Claude của Anthropic đang được sử dụng rộng rãi trong cộng đồng tình báo và các lực lượng vũ trang.
Các đối thủ của Anthropic như OpenAI, Google và xAI cũng được Bộ Quốc phòng Mỹ trao các hợp đồng trị giá lên tới 200 triệu USD vào năm ngoái. OpenAI, Google và xAI đã đồng ý cho phép Bộ Quốc phòng Mỹ sử dụng các mô hình AI của họ cho mọi mục đích hợp pháp trong các hệ thống quân sự không mật. Tuần này, xAI đồng ý cho phép các mô hình Grok của mình được sử dụng trong các môi trường mật.
Thế nhưng, nhiều nhân viên OpenAI và Google cảnh báo công ty của họ không nên bàn giao AI cho Bộ Quốc phòng Mỹ nếu không có các biện pháp bảo vệ thích hợp.
Sơn Vân