Ranh giới giữa thực và ảo ngày càng trở nên mong manh hơn bao giờ hết với sự xuất hiện của Deepfake. Đồ họa: Thái Bình
Những chiếc "mặt nạ kỹ thuật số" và dấu hiệu nhận biết
Chúng ta đang sống trong một thời đại mà hình ảnh người thân, bạn bè hay thậm chí là cấp trên xuất hiện trên màn hình điện thoại chưa chắc đã là người thật. Deepfake, về bản chất, là sự kết hợp giữa "deep learning" (học sâu) và "fake" (giả mạo), sử dụng AI để phân tích cử chỉ, nét mặt và giọng nói của một người từ các dữ liệu thô, sau đó tái tạo và chỉnh sửa để cho ra đời các sản phẩm trông như thật. Thực tế đã chứng minh mức độ nguy hiểm của công nghệ Deepfake qua hàng loạt vụ việc lừa đảo gây hiệu quả nghiêm trọng.
Những vụ việc này cho thấy, tội phạm mạng đã tận dụng tối đa khả năng thu thập và phân tích dữ liệu người dùng của AI để xây dựng những kịch bản lừa đảo vô cùng tinh vi, kết hợp giữa Deepfake và các mô hình ngôn ngữ lớn, khiến việc nhận diện trở nên khó khăn hơn rất nhiều. Không chỉ dừng lại ở lừa đảo tài chính, Deepfake còn bị lợi dụng để tống tiền, bôi nhọ danh dự bằng cách ghép mặt nạn nhân vào các hình ảnh, video nhạy cảm, gây ra những tổn thương tâm lý sâu sắc và khó khắc phục. Sự nguy hiểm nằm ở chỗ, chỉ cần một bức ảnh và khoảng 5 giây giọng nói của nạn nhân, kẻ xấu đã có thể tạo ra một video giả mạo, đồng nghĩa với việc người dùng càng đăng tải nhiều hình ảnh lên mạng xã hội thì rủi ro bị làm giả càng cao.
Mặc dù công nghệ Deepfake ngày càng tinh vi và các video do AI tạo ra như Sora hay Veo 3 đang dần đạt đến độ chân thực khó tin, nhưng ở thời điểm hiện tại, chúng vẫn chưa thể hoàn hảo tuyệt đối và luôn tồn tại những "lỗi kỹ thuật" mà mắt thường có thể nhận ra, nếu quan sát kỹ. Một trong những dấu hiệu trực quan dễ nhận thấy nhất nằm ở đôi mắt và khuôn mặt của nhân vật trong video. Cụ thể, công nghệ hiện tại chưa thể bắt chước hoàn toàn cách chớp mắt tự nhiên của con người, đồng thời ánh mắt trong video giả thường thiếu sự linh hoạt, không thay đổi theo chuyển động của đối phương khi giao tiếp. Bên cạnh đó, người xem cần chú ý đến màu da và ánh sáng, nếu thấy màu da thay đổi bất thường khi chuyển khung hình, hoặc xuất hiện những vệt sáng lạ, bóng đổ không đúng vị trí, thì đó rất có thể là sản phẩm của Deepfake. Khuôn mặt trong video giả đôi khi cũng thiếu sự cân đối, biểu cảm cứng nhắc, chi tiết mắt mũi không tương đồng hoặc mỗi bộ phận hướng về một phía khác nhau. Ngoài ra, chất lượng video cũng là một yếu tố tố cáo sự giả mạo, bởi các video Deepfake thường có độ phân giải thấp, hình ảnh rung mờ, thiếu độ sắc nét so với các thiết bị quay phim hiện đại ngày nay.
Việc chủ động bảo vệ dữ liệu cá nhân trên không gian mạng là biện pháp phòng ngừa hữu hiệu nhất để tránh trở thành nguyên liệu cho AI. Đồ họa: Thái Bình
Bên cạnh hình ảnh, âm thanh và hành vi cuộc gọi cũng chứa đựng nhiều manh mối quan trọng giúp lật tẩy chiêu trò lừa đảo. Một đặc điểm phổ biến của các cuộc gọi lừa đảo bằng Deepfake là thời lượng thường rất ngắn, chỉ kéo dài từ 5 đến 7 giây hoặc không quá 10 giây, sau đó, kẻ gian sẽ ngắt máy với lý do sóng yếu, mạng chập chờn hoặc hết pin. Lý do là bởi việc duy trì một video giả mạo trong thời gian dài đòi hỏi tài nguyên xử lý lớn và rất dễ lộ ra các sơ hở kỹ thuật như hình ảnh bị giật, khuôn mặt biến dạng khi quay đầu hay nghiêng người. Về mặt âm thanh, giọng nói trong video Deepfake thường thiếu cảm xúc, có âm sắc máy móc hoặc chứa nhiều tiếng ồn kỹ thuật số, thiếu các âm thanh môi trường tự nhiên. Đặc biệt, sự không khớp giữa khẩu hình miệng và lời nói là một dấu hiệu rất rõ ràng, do video và âm thanh thường được ghép từ hai nguồn dữ liệu khác nhau.
Xây dựng "bức tường lửa" tri thức và kỹ năng phòng vệ chủ động
Trước làn sóng tấn công ngày càng tinh vi của tội phạm mạng sử dụng Deepfake, việc trang bị kiến thức và kỹ năng phòng vệ là yếu tố sống còn để bảo vệ bản thân và tài sản. Nguyên tắc "vàng" đầu tiên là luôn phải xác minh danh tính kỹ càng trước mọi yêu cầu chuyển tiền hoặc cung cấp thông tin nhạy cảm. Khi nhận được cuộc gọi video hoặc tin nhắn từ người thân, bạn bè nhờ vay tiền, thay vì tin tưởng ngay lập tức, người dùng cần bình tĩnh kiểm tra bằng cách gọi lại trực tiếp vào số điện thoại cá nhân của họ hoặc liên hệ qua một kênh liên lạc khác để xác nhận. Một mẹo nhỏ nhưng cực kỳ hiệu quả là hãy hỏi những câu hỏi bất ngờ, mang tính cá nhân mà chỉ hai người mới biết câu trả lời, hoặc thiết lập sẵn một "mật khẩu gia đình" để dùng trong các trường hợp khẩn cấp; điều này sẽ giúp vạch trần kẻ giả mạo bởi AI chưa thể xử lý các tình huống ngẫu hứng này. Bên cạnh đó, thái độ hoài nghi lành mạnh là cần thiết, tuyệt đối không chuyển tiền hay cung cấp mã OTP, thông tin tài khoản ngân hàng, căn cước công dân cho người lạ hoặc bất kỳ ai qua điện thoại, mạng xã hội khi chưa xác minh rõ ràng.
Về mặt kỹ thuật, việc chủ động bảo vệ dữ liệu cá nhân trên không gian mạng là biện pháp phòng ngừa hữu hiệu nhất để tránh trở thành nguyên liệu cho AI. Người dùng nên hạn chế công khai hình ảnh, video cá nhân và các thông tin nhạy cảm trên mạng xã hội, đồng thời thiết lập tài khoản ở chế độ riêng tư, chỉ cho phép bạn bè xem nội dung chia sẻ và ẩn danh sách bạn bè với người lạ. Việc sử dụng các biện pháp bảo mật mạnh như mật khẩu phức tạp (ít nhất 16 ký tự), xác thực hai yếu tố (2FA) cho tất cả các tài khoản trực tuyến và thường xuyên cập nhật phần mềm là những bước đi cơ bản nhưng vô cùng quan trọng để ngăn chặn kẻ gian xâm nhập và đánh cắp dữ liệu.
Ngoài ra, người dùng có thể áp dụng các giải pháp công nghệ như thêm vùng nhiễu (digital noise) vào ảnh trước khi đăng tải để làm sai lệch khả năng học của AI, hoặc sử dụng các công cụ phát hiện Deepfake chuyên dụng như Deepfake Analyser, Microsoft Video Authenticator để kiểm tra độ tin cậy của video. Trong trường hợp không may trở thành nạn nhân, cần nhanh chóng lưu lại bằng chứng, báo cáo với nền tảng mạng xã hội và trình báo ngay cho cơ quan chức năng hoặc qua địa chỉ canhbao.ncsc.gov.vn để được hỗ trợ xử lý kịp thời.
Công nghệ Deepfake đang biến đổi không ngừng, khiến ranh giới thật - giả ngày càng khó phân biệt, do đó, sự cảnh giác của con người chính là chốt chặn an toàn cuối cùng và quan trọng nhất. Hãy luôn giữ thái độ “chậm lại một nhịp” để kiểm chứng thông tin, không vội vã tin theo những lời cầu cứu tài chính qua video và chủ động hạn chế chia sẻ dữ liệu sinh trắc học cá nhân trên mạng xã hội. Nếu nghi ngờ một cuộc gọi là giả mạo, hãy thử yêu cầu người gọi quay mặt sang hai bên, đưa tay lên trước mặt hoặc hỏi những câu hỏi đời tư khó đoán để kiểm tra phản ứng của họ...
Thái Bình