Trào lưu tạo mô hình figure 3D từ ảnh chân dung: Niềm vui ảo, rủi ro thật!

Trào lưu tạo mô hình figure 3D từ ảnh chân dung: Niềm vui ảo, rủi ro thật!
3 giờ trướcBài gốc
Mô hình do AI tạo ra
Trong kỷ nguyên AI, những trào lưu “ảo diệu” xuất hiện liên tục, khiến cộng đồng mạng (CĐM) thích thú đua nhau thực hiện theo, làm cho việc thật - giả, thực - ảo ngày càng khó phân định.
Chỉ vì vài giây theo trend, người dùng có thể không nhận ra mình vừa vô tình trao đi tài sản sinh học quý giá nhất: Khuôn mặt - chiếc “chìa khóa” định danh số, có khả năng mở ra mọi cánh cửa danh tính và nếu rơi vào tay kẻ xấu, nó hoàn toàn có thể trở thành mối đe dọa trực tiếp đến sự an toàn cá nhân.
Chỉ cần một vài thao tác đơn giản, với một “công thức ăn sẵn” được nhà sáng tạo (hoặc có thể do chính hacker) tạo ra, người dùng chỉ cần thay thông tin, hình ảnh chân dung của chính bản thân mình, gia đình, bạn bè rồi sử dụng một nền tảng AI như Gemini hay các công cụ dựng hình tương tự là đã có thể biến bức ảnh chân dung đó thành mô hình figure 3D sống động, “chất lừ”.
Nhân vật đứng trên đế mica trong suốt, bên cạnh màn hình hiển thị quá trình dựng hình, thậm chí kèm hộp sản phẩm trông chẳng khác gì vừa được đóng vai một nhà thiết kế chuyên nghiệp, thiết kế ra sản phẩm “limited”. Hình ảnh lung linh ấy ngay lập tức thu về hàng nghìn lượt thích, sự ngưỡng mộ, niềm thích thú, thậm chí là nguồn content quảng cáo vô hạn biến bạn thành tâm điểm của sự chú ý trên không gian mạng.
Nhưng ẩn sau sự hấp dẫn ấy là một vấn đề mà rất ít người để ý, bạn đã đồng thời trao đi dữ liệu sinh trắc học quan trọng nhất và là duy nhất của bản thân mình - Khuôn mặt. Trong an ninh mạng, khuôn mặt không đơn thuần là một bức ảnh. Nó là dữ liệu sinh trắc học, là loại thông tin đang được sử dụng rộng rãi để mở khóa điện thoại, xác thực giao dịch ngân hàng, truy cập hệ thống hành chính công...
Theo các chuyên gia an ninh mạng của WhiteHat, khi một nền tảng AI lưu giữ ảnh khuôn mặt, thì rủi ro an ninh mạng có thể xảy ra ở nhiều cấp độ. Cụ thể là hacker có thể tái sử dụng ảnh để tạo deepfake, đánh lừa hệ thống nhận diện; Một bức ảnh rõ nét đủ để dựng nên hồ sơ giả mạo, phục vụ lừa đảo trực tuyến; Dữ liệu có thể bị bán, dùng huấn luyện AI hoặc khai thác thương mại mà chủ nhân không hề hay biết.
Điểm nguy hiểm là hầu hết người dùng, đặc biệt là GenZ, thường bỏ qua điều khoản sử dụng, vội vàng nhấn “chấp nhận” để trải nghiệm, mà không biết rằng dữ liệu cá nhân có thể bị lưu trữ vô thời hạn, thậm chí là được public công khai.
Những thủ đoạn lừa đảo có thể xảy ra khi kẻ xấu có trong tay dữ liệu “Khuôn mặt” là giả mạo danh tính: Ảnh chân dung bị dùng để đăng ký tài khoản ngân hàng, ví điện tử hoặc hồ sơ trực tuyến giả;
Tấn công deepfake: Kẻ xấu tạo video giả mạo để lừa đảo người thân, đồng nghiệp; Đánh cắp quyền truy cập: Ảnh chất lượng cao có thể qua mặt một số hệ thống nhận diện khuôn mặt.
Hoặc khai thác thương mại: Hình ảnh bị tái sử dụng trong quảng cáo, huấn luyện mô hình AI mà bạn không được thông báo.
Các chuyên gia WhiteHat khuyến cáo người dùng đặc biệt lưu ý tránh dùng ảnh nhạy cảm: Không tải ảnh thẻ, ảnh giấy tờ, ảnh chất lượng quá cao.
Đọc kỹ điều khoản, chỉ dùng nền tảng cam kết xóa dữ liệu hoặc có chính sách bảo mật rõ ràng; Hạn chế chia sẻ công khai, khi đăng sản phẩm, đừng kèm ảnh gốc hay thông tin cá nhân.
Chọn nền tảng uy tín, ưu tiên dịch vụ có đánh giá tích cực từ cộng đồng công nghệ. Đồng thời, theo dõi tài khoản cá nhân, nếu nghi ngờ dữ liệu bị lộ, hãy đổi mật khẩu, bật xác thực hai lớp, giám sát biến động bất thường.
Vân Hằng
Nguồn ANTĐ : https://anninhthudo.vn/trao-luu-tao-mo-hinh-figure-3d-tu-anh-chan-dung-niem-vui-ao-rui-ro-that-post623846.antd