Tinh vi thủ đoạn lừa đảo bằng công nghệ deepfake

Tinh vi thủ đoạn lừa đảo bằng công nghệ deepfake
4 giờ trướcBài gốc
Chiêu trò lừa đảo từ những cuộc gọi không nói gì
Thời gian gần đây xuất hiện tình trạng khách hàng nhận được nhiều cuộc gọi lạ giả danh, cuộc gọi không nói gì, không có âm thanh… gây phiền hà. Thậm chí còn có nhiều người dính bẫy lừa đảo cần cảnh giác.
Gần đây, nhiều người dùng điện thoại phản ánh về tình trạng thường xuyên nhận được cuộc gọi từ số lạ nhưng khi bắt máy thì không ai trả lời. Nguyên nhân có thể do lỗi kỹ thuật hoặc kẻ gian cố tình thực hiện cuộc gọi không lời nhằm khơi gợi sự tò mò, khiến khách hàng gọi lại. Khi đó có thể bị tính phí viễn thông cao bất thường. Tình trạng trên thường được gọi là "cuộc gọi mồi", những cuộc gọi trong tích tắc rồi tắt máy, để người dùng thấy cuộc gọi nhỡ mà gọi lại, kết quả sẽ tốn rất nhiều tiền trong vài giây ngắn ngủi mà không nghe đối phương nói gì.
Hình thức lừa đảo này đã từng rất phổ biến tại Mỹ và các nước châu Âu từ thập kỷ trước và hiện đang quay trở lại, gây hoang mang cho khách hàng của các nhà mạng. Cách thức lừa đảo này đã từng được các trang báo trong nước cũng như quốc tế cảnh báo từ lâu. Cụ thể, những kẻ lừa đảo sẽ sử dụng một thiết bị để tự động thực hiện các cuộc gọi đến hàng triệu số điện thoại di động ngẫu nhiên trên toàn cầu. Đánh vào đúng thói quen rất bình thường từ trước đến nay của người dùng điện thoại, đó là việc gọi lại những cuộc gọi nhỡ, trò này đã lừa được vô số người. Hầu hết các số điện thoại đều rất khó nhận diện, vì chúng hao hao như mã vùng điện thoại tại một số nơi ở Việt Nam.
Cục An toàn thông tin (Bộ TT&TT) khuyến cáo hiện nay các hình thức lừa đảo qua mạng xã hội và Internet ngày càng tinh vi, không chỉ giới hạn trong môi trường trực tuyến mà còn mở rộng sang những cuộc gọi điện thoại với nhiều chiêu trò khó lường. Người dân nếu nhận được cuộc gọi từ số điện thoại không phải là một số điện thoại cố định hay di động thông thường hoặc không liên quan đến một tổ chức hay đơn vị nào, cần tuyệt đối cảnh giác, không nghe và thực hiện theo hướng dẫn của đối tượng lạ. Không cung cấp thông tin cá nhân nhạy cảm dưới mọi hình thức hoặc truy cập vào những đường dẫn do đối tượng không rõ danh tính gửi đến. Trong trường hợp trở thành nạn nhân của đối tượng lừa đảo, người dân cần báo cáo ngay với cơ quan Công an để có thể hỗ trợ và giải quyết kịp thời.
Tái diễn chiêu trò lừa đảo video, hình ảnh bằng công nghệ cao
Mới đây, Bộ Công an đã gửi tin nhắn cảnh báo về việc xuất hiện tình trạng tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép, đe dọa tống tiền bằng các video giả mạo.
Công nghệ deepfake là một nhánh nổi bật của AI. Nhờ khả năng tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng lên các video, cuộc gọi nhằm lừa đảo tài chính. Hơn nữa, các chiêu trò này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.
Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm (AI romantic scams), trong đó deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân thông qua các cuộc gọi video. Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.
Gần đây, một nhóm hơn hai chục người liên quan đến các vụ lừa đảo kiểu này đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Singapore, Ấn Độ… Giọng nói giả mạo (voice fakes) cũng đã được sử dụng trong các vụ lừa đảo nhắm vào cá nhân, cũng như trong các cuộc tấn công nhằm vào các ngân hàng sử dụng hệ thống xác thực bằng giọng nói.
Trước tình hình trên, Cục An toàn thông tin (Bộ TT&TT) khuyến cáo người dùng cần phải cảnh giác với lời khuyên đầu tư từ người nổi tiếng, đặc biệt là trên mạng xã hội. Hãy quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video. Nếu một khoản đầu tư nghe có vẻ quá hấp dẫn, thì rất có thể đó là một chiêu trò lừa đảo. Ngoài ra, người dùng cần hạn chế đăng tải nội dung liên quan đến thông tin cá nhân lên mạng xã hội để tránh trường hợp bị các đối tượng xấu đánh cắp thông tin như hình ảnh, video hoặc giọng nó, đồng thời đặt chế độ tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân. Người dùng cũng nên cảnh giác với các tin nhắn, email hoặc cuộc gọi không xác định, không cung cấp thông tin cá nhân, tài khoản hoặc làm theo yêu cầu của họ. Bên cạnh đó, cần chú ý đến các dấu hiệu bất thường trong hình ảnh, video hoặc giọng nói cũng có thể giúp bạn nhận diện các trò lừa đảo.
Hồng Sơn
Nguồn TBNH : https://thoibaonganhang.vn/tinh-vi-thu-doan-lua-dao-bang-cong-nghe-deepfake-160750.html