Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI) thuộc Bộ Thương mại Mỹ thông báo rằng thỏa thuận này sẽ cho phép họ đánh giá sớm các mô hình AI và tiến hành nghiên cứu để xác định năng lực cũng như các rủi ro an ninh.
Thỏa thuận trên cho thấy mối lo ngại ngày càng gia tăng tại Mỹ về rủi ro an ninh quốc gia do các mô hình AI mạnh mẽ gây ra. Bằng cách đảm bảo quyền truy cập sớm vào các mô hình AI tiên tiến, giới chức Mỹ muốn xác định mối đe dọa, từ tấn công mạng đến việc sử dụng sai mục đích trong quân sự, trước khi chúng được triển khai rộng rãi.
Sự phát triển của các mô hình AI tiên tiến, gồm cả Claude Mythos từ Anthropic, những tuần gần đây đã gây xôn xao trên toàn cầu. Giới chức và doanh nghiệp Mỹ lo ngại những mô hình AI tiên tiến có thể tăng cường sức mạnh cho hacker.
“Các phương pháp đo lường khoa học độc lập và nghiêm ngặt là yếu tố thiết yếu để hiểu rõ AI tiên tiến và các tác động của nó với an ninh quốc gia”, ông Chris Fall, Giám đốc CAISI, tuyên bố.
Động thái này tiếp nối các thỏa thuận với OpenAI và Anthropic, được thiết lập vào năm 2024 dưới thời chính quyền Joe Biden, khi CAISI còn được gọi là Viện An toàn Trí tuệ Nhân tạo Mỹ.
CAISI đóng vai trò trung tâm chính của chính phủ Mỹ trong việc thử nghiệm các mô hình AI. Cơ quan này cho biết đã hoàn thành hơn 40 cuộc đánh giá, gồm cả những mô hình AI tiên tiến chưa được công bố công khai.
CAISI cho biết một số nhà phát triển thường cung cấp các phiên bản mô hình AI đã gỡ bớt các cơ chế bảo vệ để trung tâm có thể kiểm tra kỹ hơn những rủi ro với an ninh quốc gia.
Microsoft và xAI chưa phản hồi ngay lập tức câu hỏi về vấn đề trên, trong khi Google từ chối bình luận.
Chính phủ Mỹ được phép tiếp cận sớm mô hình AI mới của Microsoft, Google và xAI để kiểm tra các rủi ro với an ninh quốc gia - Ảnh: SV
Tuần trước, Lầu Năm Góc đã đạt được thỏa thuận với 7 công ty AI hàng đầu nhằm triển khai năng lực tiên tiến của họ trên các mạng lưới mật thuộc Bộ Quốc phòng Mỹ. Điều đó diễn ra trong bối cảnh Lầu Năm Góc tìm cách đa dạng hóa danh sách các công ty AI hợp tác với quân đội Mỹ.
Đáng chú ý là trong danh sách không có Anthropic, công ty khởi nghiệp AI hàng đầu đang tranh chấp với Lầu Năm Góc về cách quân đội Mỹ có thể sử dụng các mô hình Claude của họ.
Bộ Quốc phòng Mỹ đã xếp Anthropic vào nhóm rủi ro chuỗi cung ứng hồi cuối tháng 2. Chính quyền Trump đã cấm sử dụng sản phẩm AI của Anthropic trong Bộ Quốc phòng Mỹ và các cơ quan liên bang khác.
Theo hãng tin Reuters, SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft và Amazon Web Services sẽ được tích hợp vào các môi trường mạng Cấp độ Tác động 6 và 7 của Lầu Năm Góc, cho phép nhiều đơn vị quân đội hơn tiếp cận các sản phẩm của họ. Vài cái tên trong 7 gã khổng lồ AI này từng hợp tác với Lầu Năm Góc trước đây.
GenAI.mil, nền tảng AI chủ lực của Lầu Năm Góc, được hơn 1,3 triệu nhân viên Bộ Quốc phòng Mỹ sử dụng sau 5 tháng vận hành.
“Google Gemini giúp tiết kiệm hàng nghìn giờ làm việc”
Cuối tháng 4, ông Cameron Stanley, Giám đốc AI của Lầu Năm Góc, xác nhận đang sử dụng mô hình AI Gemini mới nhất của Google cho các dự án mật. Ngoài Gemini, Lầu Năm Góc cũng đang làm việc với OpenAI và các nhà cung cấp AI khác để hiện đại hóa năng lực tác chiến, theo Cameron Stanley.
“Việc phụ thuộc quá mức vào một nhà cung cấp chưa bao giờ là điều tốt. Chúng ta đang thấy điều đó, đặc biệt là trong lĩnh vực phần mềm”, ông nói.
Cameron Stanley cho biết việc sử dụng Gemini đang giúp Bộ Quốc phòng và các lực lượng tác chiến Mỹ tiết kiệm thời gian, chi phí.
“Có rất nhiều thứ đang giúp tiết kiệm hàng nghìn giờ làm việc, theo đúng nghĩa đen là hàng nghìn giờ mỗi tuần”, ông nói.
Thỏa thuận với Bộ Quốc phòng Mỹ cũng vấp phải sự phản đối nội bộ tại Google. Hàng trăm nhân viên đã ký vào bức thư gửi Giám đốc điều hành Sundar Pichai, kêu gọi công ty từ chối công việc mật. Trong thư, họ cho biết không muốn Gemini bị “sử dụng theo những cách vô nhân đạo hoặc cực kỳ gây hại”.
Theo Cameron Stanley, mục tiêu tổng thể là đạt được kết quả tốt nhất cho các lực lượng tác chiến của Mỹ. Để làm được điều đó, Bộ Quốc phòng Mỹ cần đảm bảo sử dụng đúng các mô hình AI.
“Tôi thường nói trong những tình huống như thế này: bạn không thể nấu gà tây Lễ Tạ ơn bằng lò vi sóng. Bạn cần công nghệ phù hợp cho đúng trường hợp sử dụng để đạt được kết quả tốt nhất”, ông nhấn mạnh.
Việc Bộ Quốc phòng Mỹ đẩy mạnh hợp tác với 7 công ty AI hàng đầu diễn ra trong bối cảnh tranh chấp pháp lý căng thẳng với Anthropic. Đầu tháng 4, tòa phúc thẩm liên bang tại Washington D.C (thủ đô Mỹ) đã bác yêu cầu từ Anthropic về việc tạm thời chặn quyết định đưa công ty khởi nghiệp AI này vào danh sách đen của Bộ Quốc phòng Mỹ, trong khi vụ kiện thách thức lệnh trừng phạt vẫn đang được xét xử.
Phán quyết này được đưa ra sau khi thẩm phán tại thành phố San Francisco (Mỹ), trong một vụ kiện riêng nhưng có liên quan, chấp thuận lệnh cấm tạm thời sơ bộ, ngăn chính quyền Trump thực thi lệnh cấm sử dụng mô hình Claude. Với phán quyết trái chiều từ hai tòa án, Anthropic bị loại khỏi các hợp đồng của Bộ Quốc phòng Mỹ nhưng vẫn có thể tiếp tục làm việc với các cơ quan chính phủ khác trong thời gian vụ kiện diễn ra.
Một người phát ngôn của Bộ Quốc phòng Mỹ xác nhận rằng cơ quan này hiện không làm việc với Anthropic. Cuối tháng 4, Tổng thống Mỹ Donald Trump cho biết Anthropic đang “dần đáp ứng yêu cầu” từ chính quyền, mở ra khả năng công ty AI này có thể được gỡ khỏi danh sách đen của Lầu Năm Góc.
“Claude Mythos là khoảnh khắc an ninh quốc gia riêng biệt”
Đầu tháng 5, ông Emil Michael, Giám đốc công nghệ Bộ Quốc phòng Mỹ, nói rằng Anthropic vẫn là rủi ro chuỗi cung ứng, nhưng Claude Mythos của công ty này, với năng lực an ninh mạng tiên tiến, là “khoảnh khắc an ninh quốc gia riêng biệt”.
Theo Anthropic, Claude Mythos có tính tự chủ cực cao và khả năng suy luận tinh vi, tương đương chuyên gia nghiên cứu bảo mật cấp cao. Nó có thể phát hiện hàng chục nghìn lỗ hổng bảo mật mà ngay cả những chuyên gia săn lỗi hàng đầu cũng khó tìm ra.
Trong quá trình thử nghiệm của Anthropic, Claude Mythos đã phát hiện lỗi trong “mọi hệ điều hành và trình duyệt web lớn”, gồm cả những lỗ hổng tồn tại hàng chục năm mà các cuộc kiểm tra bảo mật do con người thực hiện trước đó không phát hiện ra.
Thay vì phát hành công khai, Anthropic cung cấp phiên bản Claude Mythos Preview cho nhóm 11 tổ chức chọn lọc trong khuôn khổ Dự án Glasswing của Anthropic, gồm Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, Linux Foundation, Microsoft, Nvidia, Palo Alto Networks, JPMorgan Chase.
Anthropic tiết lộ đã mở rộng quyền truy cập Claude Mythos Preview cho khoảng 40 tổ chức khác chịu trách nhiệm về hạ tầng phần mềm quan trọng. Theo Anthropic, mục tiêu lâu dài của công ty là giúp người dùng có thể triển khai các mô hình AI mạnh mẽ như Claude Mythos một cách an toàn và trên quy mô lớn, kể cả cho các mục đích ngoài an ninh mạng.
Theo trang Axios, Cơ quan An ninh Quốc gia Mỹ (NSA) cùng nhiều cơ quan chính phủ khác cũng đã bắt đầu sử dụng Claude Mythos Preview.
Sơn Vân