Hình ảnh do AI tạo ra khiến thật giả khó phân biệt
Ủy ban Truyền thông Hàn Quốc ngày 4.7 cho biết họ đã công bố "Báo cáo minh bạch năm 2024 về xử lý các tài liệu quay lén bất hợp pháp.." chứa các nội dung nói trên.
Giật mình với các báo cáo
Báo cáo này nêu chi tiết 81 nhà cung cấp dịch vụ internet (cả các công ty viễn thông lớn như Naver, Kakao, Google và Meta) đã xử lý các video quay lén bất hợp pháp như clip khiêu dâm và nội dung bóc lột tình dục trẻ em/thanh thiếu niên.
Con số 180.000 video bị xử lý đã tăng hơn gấp đôi so với năm trước có lẽ do số lượng báo cáo về tội phạm tình dục kỹ thuật số gia tăng. Ngoài ra, các nhà cung cấp dịch vụ chủ động thực hiện các biện pháp nhằm ngăn chặn sự lan truyền của những nội dung này.
Báo cáo cũng công bố tình hình nỗ lực và biện pháp nhằm ngăn chặn sự lan truyền của các tài liệu quay phim, sao chép, chỉnh sửa, lắp ghép và xử lý trái phép, theo Luật đặc biệt về xử phạt tội phạm tình dục, Luật bảo vệ trẻ em và thanh thiếu niên khỏi hành vi lạm dụng tình dục.
Thông qua báo cáo minh bạch này, có thể kiểm tra chi tiết theo từng doanh nghiệp về số lượng báo cáo và kết quả xử lý đối với tài liệu quay lén bất hợp pháp; các nỗ lực nhằm ngăn chặn sự phát tán; việc thiết lập và vận hành quy trình phòng ngừa phát tán; việc bố trí và đào tạo người phụ trách quản lý phòng ngừa phát tán.
Đối tượng bắt buộc nộp báo cáo là các doanh nghiệp dịch vụ viễn thông giá trị gia tăng như: mạng xã hội trực tuyến (SNS), cộng đồng mạng, phát sóng cá nhân qua internet, cổng tìm kiếm trực tuyến, cùng các nhà cung cấp dịch vụ "web hard" có doanh thu trên 1 tỉ won hoặc trung bình 100.000 người dùng/ngày.
Năm ngoái, các nhà cung cấp dịch vụ internet đã tiếp nhận tổng cộng 231.261 báo cáo từ người dùng và các tổ chức, cơ quan liên quan về các nội dung quay lén bất hợp pháp, gồm: video khiêu dâm giả mạo và nội dung bóc lột tình dục trẻ em/thanh thiếu niên và đã xóa hoặc chặn 181.204 trường hợp.
So với năm trước đó, số trường hợp được báo cáo đã tăng thêm 86.448 (tăng 59,7%) và số trường hợp bị xóa/chặn tăng thêm 99.626 (tăng 122,1%). Phân tích cho thấy số lượng báo cáo tăng do nhận thức xã hội về tội phạm tình dục kỹ thuật số gia tăng, đồng thời các doanh nghiệp cũng tích cực hơn trong việc xử lý và ngăn chặn bằng cách xóa bỏ thông tin liên quan.
Google (gồm YouTube) là đơn vị nhận và xử lý nhiều báo cáo nhất, với 158.052 trường hợp được báo cáo và 142.211 trường hợp đã bị xóa. X (trước đây là Twitter) cũng nhận được 62.751 báo cáo, trong đó 37.106 trường hợp đã bị xóa hoặc chặn. Ngoài ra, TikTok nhận được 8.797 báo cáo, với 443 trường hợp bị xóa hoặc chặn.
Bà Lee Jin-sook, Chủ tịch Ủy ban Truyền thông Hàn Quốc, phát biểu: “Với sự phát triển nhanh chóng của các dịch vụ AI, tội phạm tình dục kỹ thuật số như video deepfake và các nội dung phạm tội tình dục đang gia tăng nhanh chóng. Để ngăn chặn thiệt hại thứ cấp, điều quan trọng là các nhà cung cấp dịch vụ Internet phải nỗ lực ngăn chặn sự phát tán các nội dung này”.
Bà nói thêm: “Tôi hy vọng các nhà cung cấp dịch vụ sẽ tiếp tục chuẩn bị báo cáo minh bạch một cách đầy đủ và thực hiện trách nhiệm xã hội của mình nhằm xây dựng một xã hội an toàn”.
Ủy ban Truyền thông Hàn Quốc cho biết sẽ tiếp tục tiến hành các đợt thanh tra thực tế để kiểm tra xem các nhà cung cấp dịch vụ Internet có thực hiện các biện pháp kỹ thuật và hành chính, chẳng hạn như đào tạo và lọc nội dung từ sớm nhằm giảm thiểu thiệt hại từ tội phạm tình dục kỹ thuật số hay không.
Thực trạng và giải pháp của Hàn Quốc
Hàn Quốc là một trong những quốc gia tiên phong trong việc ghi nhận và công bố số liệu về loại tội phạm này. Năm 2024, hơn 1.300 vụ tội phạm tình dục số liên quan đến công nghệ deepfake đã được ghi nhận tại Hàn Quốc, tăng mạnh so với con số 156 vụ vào năm 2021. Điều này cho thấy tốc độ lây lan và mức độ nghiêm trọng của vấn nạn.
Đã có nhiều vụ án gây chấn động, điển hình là các vụ bắt giữ những kẻ sản xuất và phát tán hàng trăm video deepfake khiêu dâm, nhắm vào cả người nổi tiếng lẫn phụ nữ bình thường (thậm chí là bạn học cũ). Các đối tượng này thường tạo ra các phòng chat kín trên các nền tảng như Telegram để phát tán video, thu hút hàng trăm ngàn thành viên. Một số vụ án cho thấy kẻ phạm tội còn sử dụng công nghệ Deep Voice để giả mạo giọng nói, khiến nạn nhân phải chịu tổn thương kép.
Nạn nhân không chỉ là người nổi tiếng mà còn gồm cả nữ sinh, phụ nữ trẻ, và thậm chí cả trẻ em dưới 10 tuổi. Những hình ảnh được sử dụng để tạo deepfake thường được lấy từ kỷ yếu, hồ sơ mạng xã hội công khai, hoặc các ảnh riêng tư bị đánh cắp.
Hàn Quốc đang đi đầu trong việc đối phó với vấn nạn này. Quốc hội nước này đã thông qua dự luật hình sự hóa việc sở hữu hoặc xem hình ảnh/video deepfake khiêu dâm, với các hình phạt nghiêm khắc (án tù lên tới 3 năm hoặc phạt tiền). Mức án tối đa cho việc tạo deepfake khiêu dâm cũng tăng lên 7 năm tù. Hàn Quốc cũng đẩy mạnh hợp tác quốc tế và sử dụng công nghệ AI để theo dõi tội phạm.
Công nghệ Deepfake và AI: "Vũ khí" mới của tội phạm
Khó phân biệt thật giả: Công nghệ AI cho phép tạo ra hình ảnh, âm thanh và video giả mạo (deepfake) với độ chân thực cao, rất khó để phân biệt với nội dung thật. Điều này khiến nạn nhân khó chứng minh rằng mình bị giả mạo và cũng gây khó khăn cho việc nhận diện, xóa bỏ nội dung vi phạm.
Dễ dàng tiếp cận: Các công cụ tạo deepfake ngày càng trở nên dễ tiếp cận và thân thiện với người dùng, thậm chí có thể sử dụng miễn phí hoặc với chi phí thấp, hạ thấp rào cản tham gia cho những kẻ xấu.
Tối ưu hóa cho LLM: Đáng báo động là một số kẻ tấn công đang tối ưu hóa các trang web lừa đảo của chúng để "hợp" với các mô hình ngôn ngữ lớn (LLM), nghĩa là nếu AI tạo ra một liên kết, nó có thể vô tình dẫn người dùng đến các trang web độc hại này.
Anh Tú