Interpol cảnh báo lừa đảo công nghệ lan rộng toàn cầu

Interpol cảnh báo lừa đảo công nghệ lan rộng toàn cầu
6 giờ trướcBài gốc
Mặt trận mới của tội phạm công nghệ
Báo cáo do Tổ chức Cảnh sát Hình sự Quốc tế (Interpol) công bố tháng 7/2025 cảnh báo sự gia tăng đột biến các hình thức tội phạm mạng lợi dụng công nghệ deepfake - công nghệ giả mạo hình ảnh, giọng nói và video bằng trí tuệ nhân tạo (AI). Xu hướng này đang đặt ra thách thức lớn đối với an ninh mạng toàn cầu, khi tội phạm ngày càng tận dụng AI tạo sinh để thực hiện các vụ lừa đảo tinh vi, gây khó khăn cho việc nhận diện và ngăn chặn.
Doanh nghiệp toàn cầu đối mặt rủi ro từ các hình thức lừa đảo công nghệ cao bằng video, giọng nói và hình ảnh siêu thực do AI tạo dựng
Một trong những vụ việc điển hình xảy ra tại Hong Kong, khi công ty kỹ thuật Arup bị lừa chuyển 25 triệu USD thông qua một cuộc họp video có sự tham gia của các “lãnh đạo cấp cao”. Tuy nhiên, toàn bộ hình ảnh và giọng nói trong cuộc họp đều do tội phạm dựng lên bằng công nghệ deepfake. Theo đó, nhóm đối tượng đã sử dụng dữ liệu công khai về các lãnh đạo doanh nghiệp để tái tạo hình ảnh và giọng nói gần như hoàn hảo, khiến nhân viên phụ trách giao dịch không phát hiện dấu hiệu bất thường.
Tình trạng tương tự cũng được ghi nhận tại châu Âu và Mỹ, khi nhiều ngân hàng trở thành mục tiêu của các cuộc gọi giả mạo bằng deepfake, mô phỏng giọng nói các giám đốc điều hành để yêu cầu chuyển tiền khẩn cấp. Trong một số trường hợp, tội phạm đã vượt qua cả hệ thống xác thực bằng giọng nói nhờ công nghệ tổng hợp âm thanh tiên tiến, tái tạo giọng nói chính xác đến mức có thể thao túng các quy trình bảo mật tự động.
Ông John Shier, Giám đốc an ninh tại hãng bảo mật Sophos nhận định: “Chúng ta đang bước vào một giai đoạn hoàn toàn mới của an ninh mạng. Deepfake biến những điều từng chỉ có trong phim khoa học viễn tưởng thành thực tế. Hiện nay, việc tạo dựng một video hoặc cuộc gọi giả mạo trở nên dễ thực hiện hơn rất nhiều so với trước đây”.
Tại Singapore và nhiều trung tâm công nghệ trên thế giới, các công cụ AI mã nguồn mở đang trở nên phổ biến và dễ tiếp cận hơn bao giờ hết. Chỉ với vài phút ghi âm hoặc một đoạn video ngắn, tội phạm có thể tái tạo khuôn mặt, giọng nói với độ chân thực cao, gần như không thể phân biệt bằng mắt thường hoặc tai người. Những nền tảng như ElevenLabs, HeyGen cùng các công cụ deepfake mã nguồn mở đang bị lạm dụng trong nhiều vụ việc, làm gia tăng rủi ro trên phạm vi toàn cầu.
Siết chặt phòng tuyến
Điểm nguy hiểm cốt lõi của công nghệ deepfake là khả năng tấn công trực tiếp vào niềm tin vốn có của con người đối với hình ảnh và âm thanh. Nếu trước đây, các vụ lừa đảo thường dừng ở việc giả mạo email, tài liệu hay thông tin văn bản, thì hiện nay tội phạm mạng đã chuyển sang sử dụng chính những hình ảnh và giọng nói quen thuộc để đánh lừa nạn nhân, khiến việc phát hiện trở nên khó khăn và phức tạp hơn.
Tại Anh, nhiều doanh nghiệp đã chủ động nâng cấp cảnh báo nội bộ sau khi ghi nhận các vụ việc liên quan đến công nghệ deepfake nhằm thao túng giao dịch tài chính. Cơ quan An ninh mạng Quốc gia Anh (NCSC) khuyến cáo các tổ chức không nên thực hiện chuyển khoản hay phê duyệt giao dịch chỉ dựa trên cuộc gọi video hoặc yêu cầu trực tuyến, ngay cả khi người liên hệ có khuôn mặt và giọng nói trùng khớp với lãnh đạo cấp cao.
Theo giới chuyên gia, công nghệ deepfake thế hệ mới đã làm suy giảm hiệu quả của các phương thức xác thực truyền thống như nhận diện khuôn mặt hay sinh trắc học giọng nói. Trước thực tế này, các doanh nghiệp được khuyến nghị triển khai thêm các lớp phòng vệ nhằm giảm thiểu rủi ro. Những giải pháp đang được đề xuất bao gồm xác thực đa yếu tố, kết hợp với phân tích hành vi người dùng và quy trình kiểm tra độc lập đối với các giao dịch tài chính có giá trị lớn hoặc các hợp đồng nhạy cảm. Ngoài ra, việc đào tạo, nâng cao nhận thức cho nhân viên về các thủ đoạn lừa đảo công nghệ cao cũng được xem là biện pháp cần thiết, nhất là trong bối cảnh hình thức tội phạm này đang ngày càng phổ biến và tinh vi hơn.
Để đối phó với nguy cơ trên diện rộng, Interpol cũng kêu gọi các quốc gia thành viên đẩy mạnh hợp tác quốc tế, chia sẻ dữ liệu và phát triển các công cụ nhận diện nội dung do AI tạo sinh. Hiện nay, các phương pháp được nghiên cứu và áp dụng thử nghiệm bao gồm: phân tích siêu dữ liệu, nhận diện dấu hiệu mô hình hóa giọng nói, đối chiếu hình ảnh, kiểm tra biến dạng trong video hoặc phát hiện dấu vết chỉnh sửa.
Theo cảnh báo từ Interpol và các tổ chức an ninh mạng quốc tế, nếu không có những biện pháp kiểm soát kịp thời, các hành vi lừa đảo sử dụng deepfake sẽ tiếp tục gia tăng, gây tổn thất lớn cho nền kinh tế, làm suy giảm lòng tin vào hệ thống kết nối số toàn cầu.
Giữ vững an ninh mạng trong kỷ nguyên AI không chỉ là nhiệm vụ công nghệ mà còn là bài toán về hành lang pháp lý, quản trị thông tin và nâng cao nhận thức xã hội. Điều này đòi hỏi sự hợp tác đồng bộ giữa các chính phủ, doanh nghiệp, chuyên gia công nghệ và lực lượng thực thi pháp luật trên toàn thế giới.
Trần Minh
Nguồn ANTG : https://antg.cand.com.vn/khoa-hoc-ky-thuat-hinh-su/interpol-canh-bao-lua-dao-cong-nghe-lan-rong-toan-cau-i785175/