Deepfake là công nghệ được sử dụng để tạo ra nội dung giả mạo, đặc biệt là video. Ảnh minh họa.
Lừa đảo từ các cuộc gọi không nói gì
Nhiều người dân phản ánh, gần đây họ nhận được cuộc gọi từ số lạ nhưng khi bắt máy thì không ai trả lời. Những cuộc gọi thế này, thường được gọi là "cuộc gọi mồi", những cuộc gọi trong tích tắc rồi tắt máy, để người dùng thấy cuộc gọi nhỡ mà gọi lại, kết quả sẽ tốn rất nhiều tiền trong vài giây ngắn ngủi mà không nghe đối phương nói gì.
Theo các chuyên gia, hình thức lừa đảo này từng rất phổ biến tại Mỹ và các nước châu Âu từ thập kỷ trước và hiện đang quay trở lại, gây hoang mang cho khách hàng của các nhà mạng.
Cục An toàn thông tin khuyến cáo các hình thức lừa đảo qua mạng xã hội và Internet ngày càng tinh vi, không chỉ giới hạn trong môi trường trực tuyến mà còn mở rộng sang những cuộc gọi điện thoại với nhiều chiêu trò khó lường.
Vì vậy, nếu nhận được cuộc gọi từ số điện thoại không phải là thuê bao cố định hay di động thông thường hoặc không liên quan đến một tổ chức hay đơn vị nào, người dân cần cảnh giác, không nghe và thực hiện theo hướng dẫn của đối tượng lạ. Người dân cũng không nên cung cấp thông tin cá nhân nhạy cảm dưới mọi hình thức hoặc truy cập vào những đường dẫn do đối tượng không rõ danh tính gửi đến.
Trường hợp trở thành nạn nhân bị lừa đảo, người dân cần báo cáo ngay với cơ quan công an để được hỗ trợ kịp thời.
Giả mạo video, hình ảnh bằng công nghệ cao
Mới đây, Bộ Công an đã nhắn tin cảnh báo rộng rãi tới đông đảo người dân về tình trạng tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép, đe dọa tống tiền bằng các video giả mạo.
Deepfake là công nghệ được sử dụng để tạo ra nội dung giả mạo, đặc biệt là video, trong đó khuôn mặt hoặc âm thanh của một người sẽ được ghép vào các video, âm thanh của người khác với độ chính xác cao. Sử dụng công nghệ này, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng các video, cuộc gọi nhằm lừa đảo tài chính.
Hơn thế, các chiêu trò lừa đảo này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.
Và gần đây, Deepfake còn tham gia vào các vụ lừa đảo tình cảm. Theo đó, công nghệ này được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân qua các cuộc gọi video. Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.
Trước tình hình trên, Cục An toàn thông tin khuyến cáo người dân cảnh giác với những lời khuyên đầu tư từ người nổi tiếng trên mạng xã hội; cảnh giác với những tin nhắn, email hoặc cuộc gọi không xác định; cần quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video.
Người dân cũng cần hạn chế đăng tải nội dung liên quan đến thông tin cá nhân lên mạng xã hội để tránh trường hợp bị các đối tượng xấu đánh cắp thông tin như hình ảnh, video hoặc giọng nói; đồng thời, cài đặt tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân.
Quỳnh Anh