Châu Âu muốn ngăn chặn việc các công cụ AI tạo ảnh nhạy cảm
Trước làn sóng phẫn nộ của dư luận toàn cầu khi hàng loạt người dùng lạm dụng công cụ Grok của tỷ phú Elon Musk để tạo ra hàng ngàn bức ảnh nhạy cảm của phụ nữ và trẻ em, giới chức châu Âu đã chính thức vào cuộc. Các công cụ trí tuệ nhân tạo có khả năng tạo ra hình ảnh tình dục không đồng thuận đang đứng trước nguy cơ bị cấm hoàn toàn tại thị trường này.
Động thái trên đánh dấu một bước ngoặt lớn trong tư duy lập pháp, chuyển hướng mục tiêu từ việc trừng phạt người dùng sang việc quy trách nhiệm trực tiếp cho các nhà phát triển công nghệ lõi. Việc lạm dụng trí tuệ nhân tạo để xâm phạm quyền riêng tư thân thể đang trở thành một vấn nạn nhức nhối, đòi hỏi một biện pháp can thiệp pháp lý ở quy mô lục địa để ngăn chặn những hệ lụy khôn lường đối với phẩm giá con người.
Đạo luật AI Omnibus và ranh giới trách nhiệm của các nền tảng
Vào ngày 18.3, Ủy ban tự do dân sự của Nghị viện Châu Âu đã chính thức thông qua bản dự thảo văn bản của khối về Đạo luật AI Omnibus (Artificial Intelligence Omnibus). Điểm sáng giá nhất trong bản dự thảo này là một bản sửa đổi mang tính chất quyết định, nhằm mục đích đặt ra ngoài vòng pháp luật bất kỳ hệ thống trí tuệ nhân tạo nào có khả năng tạo ra các hình ảnh chân thực nhằm mô tả các hoạt động tình dục rõ ràng hoặc các bộ phận nhạy cảm của một cá nhân có thể xác định được mà không có sự cho phép rõ ràng từ họ. Lệnh cấm này sẽ được miễn trừ áp dụng nếu công ty phát triển AI đã chủ động áp dụng các biện pháp kỹ thuật nghiêm ngặt nhằm hạn chế việc tạo ra các sản phẩm deepfake độc hại ngay từ khâu thiết kế thuật toán.
Sự chấp thuận đối với bản sửa đổi này đưa Nghị viện Châu Âu cùng chung một chiến tuyến với chính phủ các quốc gia thành viên trong khu vực. Trước đó, các chính phủ này cũng đã đạt được sự đồng thuận về một lệnh cấm có tính chất tương tự, mở ra một lộ trình thênh thang để quy định này chính thức được luật hóa vào cuối năm nay. Mặc dù châu Âu hiện đã có sẵn một hệ thống quy định pháp lý phức tạp khiến việc sản xuất và chia sẻ tài liệu nhạy cảm trái phép trở thành hành vi vi phạm pháp luật, bản sửa đổi mới nhất này vẫn mang một ý nghĩa vô cùng quan trọng.
Đây là lần đầu tiên có một chế tài nhắm mục tiêu một cách trực diện vào các nền tảng trí tuệ nhân tạo. Các nhà lập pháp đã quyết định nhắm vào chính công nghệ AI, thay vì tập trung vào những cá nhân sử dụng chúng, bởi vì tốc độ cải thiện chóng mặt trong khả năng tạo ra những hình ảnh giống hệt người thật của các mô hình này đã vượt quá khả năng kiểm soát của các khung pháp lý truyền thống.
Quy định cấm đoán này sẽ bổ sung thêm sức mạnh cho một hệ thống luật pháp đang ngày càng hoàn thiện của EU nhằm chống lại các tài liệu lạm dụng tình dục trẻ em và việc chia sẻ hình ảnh nhạy cảm không đồng thuận. Một chỉ thị được ban hành vào năm 2024 về bạo lực đối với phụ nữ đã quy định rõ ràng rằng việc sử dụng công nghệ tạo sinh để tạo ra hình ảnh tình dục mà không có sự đồng ý của đối tượng là một hành vi phạm tội.
Cùng với đó, Đạo luật Dịch vụ Kỹ thuật số (Digital Services Act) cũng đưa ra các hình phạt vô cùng nặng nề đối với các mạng xã hội cho phép phát tán nội dung bất hợp pháp, bao gồm cả tài liệu lạm dụng trẻ em. Những hành lang pháp lý này đan xen vào nhau, tạo thành một tấm lưới bảo vệ khổng lồ bảo vệ người dân trên không gian mạng.
Sự thay đổi trong tư duy lập pháp của châu Âu được hun đúc và đẩy nhanh bởi một sự kiện chấn động mang tên Grok. Vào tháng 1 vừa qua, Grok – một chatbot AI được tích hợp sẵn cho bất kỳ ai sử dụng mạng xã hội X của Elon Musk – đã bị người dùng thao túng để tạo ra và xuất bản tràn lan trên mạng vô số hình ảnh nhạy cảm. Điều đáng sợ là những hình ảnh này được tạo ra dựa trên ảnh gốc của những người đang mặc quần áo hoàn toàn bình thường.
Sự việc đã châm ngòi cho một làn sóng chỉ trích gay gắt trên diện rộng, buộc công ty mẹ xAI Corp. phải vội vã hạn chế tính năng này để dập tắt khủng hoảng truyền thông. Tính đến thời điểm hiện tại, đại diện của xAI vẫn giữ im lặng và chưa đưa ra bất kỳ phản hồi chính thức nào trước các yêu cầu bình luận từ giới báo chí.
Nếu lệnh cấm mới được chính thức đưa vào hệ thống luật pháp của EU, các nhà phát triển hệ thống AI tiên tiến có khả năng tạo ra tài liệu nghe nhìn sẽ phải đối mặt với một áp lực chứng minh khổng lồ. Họ sẽ buộc phải đưa ra các bằng chứng kỹ thuật thuyết phục cho thấy mình đã thiết lập các ranh giới hạn chế đối với hình ảnh mà mô hình của họ có thể tạo ra.
Tuy nhiên, một bài toán nan giải về mặt kỹ thuật lập tức xuất hiện, đó là làm thế nào các hệ thống thuật toán có thể tự động xác minh được việc người xuất hiện trong ảnh đã thực sự cho phép hay chưa. Khúc mắc này đòi hỏi sự phối hợp chặt chẽ giữa các chuyên gia công nghệ, các nhà nghiên cứu đạo đức và giới luật gia để tìm ra những giải pháp kỹ thuật số khả thi có thể tích hợp trực tiếp vào mã nguồn của các nền tảng trí tuệ nhân tạo.
Để giải quyết khối lượng công việc khổng lồ này, EU đang nỗ lực thông qua AI Omnibus. Đây là một quy định mang tính toàn diện, được thiết kế với mục tiêu đơn giản hóa Đạo luật Trí tuệ Nhân tạo (AI Act) vốn rất đồ sộ của liên minh. Đạo luật Omnibus này cũng được kỳ vọng sẽ làm chậm lại quá trình triển khai một số phần của Đạo luật AI liên quan đến các ứng dụng có rủi ro cao.
Ban đầu, các quy định này dự kiến sẽ có hiệu lực vào tháng 8.2026, nhưng nay đã được đẩy lùi sang tháng 12.2027 và tháng 8.2028. Việc trì hoãn này là một nước đi có tính toán, nhằm câu giờ để các tổ chức chuyên môn có đủ thời gian soạn thảo các hướng dẫn chi tiết về cách tuân thủ luật AI của châu Âu, từ đó cung cấp cho các công ty công nghệ một lộ trình thực thi rõ ràng và minh bạch hơn.
Trong lúc chờ đợi các hành lang pháp lý được hoàn thiện, các cơ quan quản lý tại EU và Vương quốc Anh hiện đang tiến hành các cuộc điều tra chính thức đối với X và xAI liên quan đến sự cố Grok hồi tháng 1, nhằm xác định xem liệu nền tảng này có vi phạm các đạo luật hiện hành về kiểm duyệt nội dung và an toàn trực tuyến hay không. Việc xử lý triệt để vụ việc này sẽ tạo ra một tiền lệ quan trọng cho việc quản lý các tập đoàn công nghệ lớn trong tương lai.
Bùi Tú