Hacker đang lạm dụng AI cho những mục đích đen tối
Anthropic tiết lộ rằng chatbot của họ đã bị lợi dụng để tạo ra phần mềm độc hại tùy chỉnh, xác định mục tiêu dễ bị tấn công và tổ chức dữ liệu bị đánh cắp. Tin tặc cũng dùng Claude để soạn thảo các thông điệp đòi tiền chuộc, giúp toàn bộ chiến dịch trở nên tự động hóa và hiệu quả hơn.
Công ty khẳng định trong báo cáo: “AI mang tính tác nhân đã bị vũ khí hóa”. Danh tính của các tổ chức bị ảnh hưởng chưa được công bố, song báo cáo xác nhận rằng có những yêu cầu tiền chuộc lên tới 500.000 USD.
Cách tin tặc khai thác Claude AI
Vụ việc được phát hiện bởi đội an ninh nội bộ của Anthropic, vốn theo dõi cách các năng lực lập trình tiên tiến của Claude bị lạm dụng để điều khiển tấn công mạng thông qua những câu lệnh ngôn ngữ tự nhiên đơn giản. Công ty gọi chiến thuật này là “vibe hacking”, bắt nguồn từ khái niệm “vibe coding”, tức AI tạo ra mã chỉ từ hướng dẫn bằng tiếng Anh thông thường.
Một trong những phương pháp hiệu quả nhất được phát hiện là "many-shot jailbreaking". Thay vì chỉ đưa một câu lệnh xấu, tin tặc đã cung cấp cho Claude hàng trăm ví dụ về các câu hỏi độc hại cùng với câu trả lời mà chúng mong muốn.
Các mô hình AI tiên tiến như Claude được huấn luyện để học hỏi từ các ví dụ. Khi bị "nhồi nhét" quá nhiều ví dụ độc hại, hệ thống an toàn của nó sẽ bị quá tải và bị "thuyết phục" rằng việc trả lời những câu hỏi đó là hành vi "đúng đắn". Điều này cho phép tin tặc vượt qua lớp bảo vệ ban đầu và khiến AI thực hiện các hành động nguy hiểm.
Trong một số trường hợp, tin tặc đã tải lên một tệp cấu hình cho Claude với một câu chuyện giả mạo. Tệp này nói rằng tất cả các hoạt động độc hại sắp diễn ra chỉ là một "bài kiểm tra an ninh mạng" hợp pháp.
Bằng cách đưa ra một bối cảnh đáng tin cậy, tin tặc đã lừa được Claude thực hiện các hành động tấn công mà đáng lẽ nó phải từ chối, vì AI hiểu rằng nó đang hỗ trợ một hoạt động hợp pháp.
Tóm lại, những kẻ tấn công đã không chỉ sử dụng những câu lệnh đơn giản, mà đã áp dụng các chiến thuật phức tạp để khai thác những lỗ hổng trong cách AI xử lý và học hỏi từ các ngữ cảnh, biến AI từ một công cụ hỗ trợ thành một "người thực hiện" các cuộc tấn công.
Nói cách khác, Claude không “tự nguyện” viết ransomware, mà bị lợi dụng bởi những prompt khéo léo khiến hệ thống không nhận diện được đó là yêu cầu nguy hiểm.
Điều này cũng chỉ ra một nghịch lý trong AI hiện nay: Nếu AI quá “mở”, dễ sinh mã nguy hiểm. Nếu AI quá “đóng”, lại hạn chế tính hữu ích hợp pháp (ví dụ học lập trình, thử nghiệm bảo mật).
Chưa có giải pháp gốc rễ ngăn chặn việc AI bị tin tặc lợi dụng
Anthropic trong báo cáo thừa nhận vẫn chưa có ranh giới hoàn hảo để chặn 100% lạm dụng. Chính vì vậy, ngay sau khi phát hiện hoạt động độc hại, Anthropic đã đình chỉ các tài khoản liên quan, củng cố các biện pháp an toàn, đồng thời chia sẻ thực hành tốt để hỗ trợ doanh nghiệp tự bảo vệ trước những mối đe dọa do AI dẫn dắt.
Phát hiện này phản ánh mối lo ngại ngày càng lớn trong cộng đồng an ninh mạng về mức độ dễ tiếp cận của hệ thống AI. Kẻ tấn công giờ đây không còn cần kỹ năng chuyên sâu để triển khai chiến dịch nguy hiểm, bởi chatbot AI đã có thể đơn giản hóa phần lớn quy trình.
Bản báo cáo được công bố trong bối cảnh các chuyên gia an ninh mạng kêu gọi doanh nghiệp nâng cao cảnh giác khi công nghệ AI ngày càng phát triển. Đặc biệt, các chủ doanh nghiệp nhỏ được khuyến khích áp dụng những biện pháp chủ động nhằm bảo vệ dữ liệu nhạy cảm.
Các quy tắc bảo mật an ninh mạng cơ bản vẫn là ưu tiên hàng đầu, gồm đào tạo nhân viên để nhận diện lừa đảo, sử dụng mật khẩu mạnh, cùng xác thực đa yếu tố. Các chuyên gia cũng khuyến nghị tiến hành kiểm toán và đánh giá thường xuyên, nhất là với những tổ chức nắm giữ thông tin quan trọng hoặc có giá trị cao.
Việc theo dõi sát sao những khả năng mới nhất của AI và các rủi ro đi kèm cũng rất cần thiết. Doanh nghiệp có thể hưởng lợi từ các mạng lưới chia sẻ mối đe dọa trong ngành, vốn cung cấp thông tin tình báo và thực hành tốt nhất để chống lại tội phạm mạng tận dụng AI.
Báo cáo của Anthropic là lời cảnh báo rõ ràng rằng sự phát triển nhanh chóng của AI vừa mang đến đổi mới, vừa kéo theo rủi ro. Nếu không có những thực hành an ninh mạnh mẽ hơn, doanh nghiệp có thể đối mặt với các cuộc tấn công ngày càng phức tạp từ những kẻ tội phạm biết khai thác công cụ AI.
Bùi Tú