Trong diễn biến mới nhất, ngày 4/6, đại gia công nghệ Mỹ Microsoft tuyên bố: Họ sẽ tăng cường hợp tác với các chính phủ châu Âu, để chống lại các hiểm họa an ninh mạng. Ở dự án này, AI sẽ đóng vai trò trọng tâm, khi Microsoft triển khai công nghệ thu thập thông tin tình báo sử dụng trí tuệ nhân tạo.
Điều đáng chú ý là đây: Tháng 5/2025, Microsoft đã hỗ trợ cảnh sát khắp châu Âu triệt phá phần lớn hạ tầng số hỗ trợ mạng lưới ăn cắp thông tin có tên Lumma - hệ thống đã thu thập các thông tin nhạy cảm như mật khẩu và ví tiền điện tử từ thiết bị của nạn nhân. Nghĩa là, trên thực tế, giới tội phạm mạng cũng đã thực hiện những chương trình tương tự điều mà Microsoft cùng các nhà chức trách hướng tới, dĩ nhiên là với sự hỗ trợ đắc lực của AI.
AI là công cụ. AI tạo nên vấn đề. Và cũng chính AI lại sẽ là giải pháp cho vấn đề ấy.
Ngày 3/6/2025, một kết quả khảo sát được Fortinet – công ty hàng đầu thế giới về bảo mật và an ninh mạng - công bố, trong đó chỉ ra: sự gia tăng đáng kể cả về quy mô lẫn mức độ tinh vi của các mối đe dọa an ninh mạng, tại khu vực Châu Á – Thái Bình Dương. Kết quả nghiên cứu cho thấy: AI đang được sử dụng rộng rãi, nhằm đẩy cao tốc độ và mở rộng quy mô các cuộc tấn công mạng, gây nên rất nhiều khó khăn cho công tác phòng vệ.
Theo Fortinet, khảo sát được thực hiện với 550 nhà lãnh đạo công nghệ thông tin và bảo mật tại 11 thị trường trong khu vực châu Á - Thái Bình Dương, bao gồm: Australia, Ấn Độ, Indonesia, Malaysia, Singapore, Hàn Quốc, Thái Lan, Philippines, Việt Nam, Hồng Kông (Trung Quốc) và New Zealand, từ tháng 2/2025 đến tháng 4/2025. Những người tham gia khảo sát là đại diện từ các tổ chức có quy mô trên 250 nhân viên, và đóng vai trò trực tiếp trong quá trình ra quyết định liên quan đến chiến lược và đầu tư an ninh mạng.
Từ nhận định của chính những “người trong cuộc” ấy, thực tế được hé lộ: Gần 52% tổ chức tại Việt Nam cho biết đã gặp phải các mối đe dọa mạng được hỗ trợ bởi AI trong năm 2024. Các mối đe dọa này đang mở rộng với tốc độ nhanh chóng, 54% số tổ chức ghi nhận mức tăng gấp 2 lần và 36% báo cáo tăng gấp 3 lần. Như vậy, tội phạm mạng sử dụng AI đã thật sự hiện hữu, chứ không còn chỉ là nguy cơ trên lý thuyết.
Hơn thế, “Thế hệ mối đe dọa mới được hỗ trợ bởi AI khó bị phát hiện hơn, thường lợi dụng các điểm yếu trong hành vi con người, các lỗi sai trong cấu hình hệ thống và lỗ hổng trong quản lý định danh”, và đặc biệt: Các cuộc tấn công được hỗ trợ bởi AI đang gia tăng. Chỉ có 8% tổ chức tham gia khảo sát cảm thấy tự tin vào khả năng phòng thủ hiện tại, 30% thừa nhận rằng các mối đe dọa do AI điều khiển đã vượt quá khả năng phát hiện. Có tới 33% tổ chức hiện hoàn toàn không có khả năng giám sát các loại hình tấn công này.
Theo Fortinet, rủi ro mạng đã trở thành trạng thái thường trực, chứ không chỉ còn là những cuộc khủng hoảng đơn lẻ, tức thời. Các mối đe dọa gia tăng nhanh nhất là: phần mềm mã hóa tống tiền (32%), lỗ hổng đám mây (28%), các cuộc tấn công vào hệ thống IoT/OT (24%), tấn công chuỗi cung ứng (22%), các lỗ hổng chưa vá và zero-day (20%). Những mối đe dọa này đang leo thang và mở rộng nhanh chóng nhờ tập trung vào khai thác các “khoảng trống” trong quản trị, khả năng hiển thị và độ phức tạp của hệ thống, khiến chúng khó bị phát hiện hơn và có khả năng gây thiệt hại lớn hơn khi thành công.
Hậu quả không chỉ dừng lại ở thời gian ngừng vận hành. Tác động lớn nhất của các cuộc tấn công mạng đối với doanh nghiệp bao gồm: gián đoạn hoạt động (58%), trộm cắp dữ liệu và xâm phạm quyền riêng tư (54%), mất niềm tin của khách hàng (50%), bị xử phạt theo quy định (20%). Và đương nhiên, 44% số người tham gia khảo sát cho biết: Họ đã bị vi phạm dữ liệu dẫn đến thiệt hại tài chính, trong đó cứ 4 vụ thì 1 vụ có chi phí trên 500.000 USD.
Trong một bài viết trên tạp chí chuyên ngành dữ liệu CPO phân tích: “Trong một ván cờ vua chuyên nghiệp hàng đầu, các đại kiện tướng không thắng bằng vũ lực; họ thắng bằng cách quan sát, dự đoán và khai thác những điểm yếu nhỏ trong thế cờ của đối thủ. Mỗi nước đi đều là một phần của chiến lược. Đây chính xác là cách tội phạm mạng hoạt động ngày nay. Nhưng thay vì ngồi trên bàn cờ, chúng ngồi sau bàn phím, lặng lẽ nghiên cứu các biện pháp phòng thủ của bạn và theo dõi cách hệ thống của bạn phản ứng, chúng sử dụng AI để làm điều đó - nhanh hơn, thông minh hơn và chính xác hơn…
Với AI, tội phạm mạng không chỉ tấn công. Chúng thích nghi. Chúng dự đoán. Chúng ghi nhớ… Thách thức đối với chúng ta là mỗi khi chúng ta đưa ra một chiến lược phòng thủ mới, chúng lại đưa ra một hình thức tấn công mới. Và giờ đây, với AI, chúng đang đưa ra các cuộc tấn công mới nhanh hơn bao giờ hết”.
Theo chuyên gia an ninh mạng quốc tế James Martin, hiện mỗi giây có tới 11 nạn nhân của một cuộc tấn công phần mềm độc hại, nghĩa là có hơn 340 triệu nạn nhân/ năm. Năm 2024, khu vực Bắc Mỹ chứng kiến số vụ tấn công bằng phần mềm tống tiền tăng 15% . Trên thực tế, 59% doanh nghiệp tại 14 quốc gia lớn, bao gồm cả nước Mỹ, đã bị phần mềm tống tiền nhắm tới trong 12 tháng qua.
Sự tỉnh táo và tinh thần phản biện của người dùng mạng là yêu cầu quan trọng nhất, trong kỷ nguyên mới.
Ông cũng cảnh báo: Tội phạm mạng sử dụng AI sẽ nhắm vào con người - điểm yếu nhất trong mọi hệ thống an ninh. “Bạn có thể chưa từng nghĩ AI có tác động đáng kể đến lĩnh vực tội phạm mạng công nghệ. Song, công nghệ này có thể giúp tin tặc tạo ra những nhân vật đáng tin hơn để thuyết phục nạn nhân cung cấp thông tin nhạy cảm” - ông khẳng định. Một nghiên cứu được công bố vào năm ngoái cho thấy 60% người tham gia bị thuyết phục bởi các cuộc tấn công lừa đảo do AI tạo ra. Tỷ lệ này tương đương với tỷ lệ thành công của các tin nhắn do con người tạo ra.
Tại châu Âu, mỗi ngày, có hàng nghìn email mang nội dung đe dọa, yêu cầu thanh toán các khoản phí giả mạo như tiền phạt giao thông, dịch vụ chưa hoàn tất hoặc truy cập tài liệu bất hợp pháp… được phát tán. Các email này thường dẫn người nhận đến các trang web giả mạo, yêu cầu cung cấp thông tin đăng nhập, mật khẩu và thậm chí là dữ liệu ngân hàng. Trước đây, những email lừa đảo này thường bị lộ tẩy do lỗi chính tả, hình ảnh nhòe nhoẹt, hoặc cách xưng hô sai lệch. Tuy nhiên, với sự hỗ trợ của AI, các email giả mạo giờ đã trở nên trau chuốt, chính xác, cá nhân hóa theo thông tin thu thập từ mạng xã hội hoặc các nền tảng công khai khác.
Theo ông Christophe Axen, Phó giám đốc Đơn vị tội phạm máy tính khu vực của Cảnh sát Tư pháp Liên bang Bỉ tại Lìege, những chiêu trò này từng dễ dàng bị phát hiện nhờ người dùng tinh ý hoặc bộ lọc thư rác. Song hiện nay, AI tạo sinh không những có thể tạo ra email, mà còn có thể mô phỏng cả một cuộc đối thoại chân thực, khiến người dùng mất cảnh giác.
Khía cạnh khác nữa cũng cần phải được nhắc đến, về ảnh hưởng tiêu cực của AI đối với các nguy cơ an ninh mạng nói chung, chính là chuyện AI góp phần phát tán thông tin sai lệch, gây nên những hệ lụy đáng kể (và thậm chí là nghiêm trọng). Đơn cử, khi các kiểm chứng viên của hãng tin AFP yêu cầu Gemini (chatbot AI của Google) xác minh một hình ảnh do AI tạo ra, chatbot này không chỉ khẳng định đó là ảnh thật mà còn "bịa thêm" chi tiết về danh tính và bối cảnh địa điểm.
Thậm chí, ở một câu chuyện khác, chatbot Grok còn tuyên bố một video giả về "rắn khổng lồ bơi trên sông Amazon" là "có thật", đồng thời viện dẫn những chuyến thám hiểm khoa học tưởng tượng để củng cố cho nhận định sai lầm của mình. Dù sau đó hãng tin AFP đã xác nhận đây là video do AI tạo ra, nhưng nhiều người dùng vẫn tiếp tục chia sẻ dựa trên "kết luận của Grok".
Không có gì đáng ngạc nhiên, khi chuyên gia McKenzie Sadeghi thuộc tổ chức giám sát thông tin sai lệch NewsGuard khẳng định: Các chatbot AI không phải là nguồn đáng tin cậy cho tin tức, đặc biệt là trong các tình huống tin nóng. Và cũng chẳng có gì bất ngờ, khi trên các nền tảng mạng xã hội, kể cả ở Việt Nam, đã bắt đầu hình thành một trào lưu trục lợi mới: Sử dụng AI để thực hiện các content (nội dung) thu hút người xem, bất kể các content đó bao hàm những thông tin phi lý, sai lệch (đặc biệt là về các lĩnh vực học thuật như lịch sử hay chính trị), thậm chí vi phạm cả các chuẩn mực đạo đức lẫn pháp luật.
Giải pháp để loài người chống chọi lại những hệ lụy này chính là dùng AI để ngăn chặn các hiểm họa an ninh từ AI. Đó cũng chính là điều mà Microsoft cũng như các tập đoàn công nghệ hàng đầu, các đội ngũ an ninh mạng đang hướng tới. Cũng như “các hacker mũ trắng” trước kia, “AI trắng” là lựa chọn hàng đầu - sau sự tỉnh táo của mỗi người dùng mạng, khi “kho vũ khí” của tội phạm mạng giờ đã bao gồm cả “AI đen”.
Mây Linh