Công cụ phát hiện nội dung do AI tạo ra có thực sự hiệu quả?

Công cụ phát hiện nội dung do AI tạo ra có thực sự hiệu quả?
4 giờ trướcBài gốc
Nhiều công cụ có thể phát hiện được một số nội dung giả do AI tạo ra, nhưng độ chính xác chưa đủ để người dùng hoàn toàn tin tưởng. Ảnh: NYT
Nội dung do trí tuệ nhân tạo tạo ra ngày càng trở nên chân thực đến mức gần như không thể phân biệt thật – giả chỉ bằng mắt thường. Những bức ảnh, đoạn video lan truyền trên mạng xã hội có thể hoàn toàn là sản phẩm của thuật toán, nhưng trông giống như được quay chụp ngoài đời thực.
Trong bối cảnh đó, các công cụ “phát hiện AI” ra đời.
Hiện có hơn một chục công cụ trực tuyến tuyên bố có thể phân biệt nội dung thật và nội dung do AI tạo ra bằng cách tìm kiếm watermark ẩn, lỗi bố cục, hoặc các dấu hiệu kỹ thuật số đặc trưng. Tuy nhiên, theo một loạt thử nghiệm của tờ New York Times với hơn 1.000 lần quét khác nhau, thực tế phức tạp hơn nhiều.
Nhiều công cụ có thể phát hiện được một số nội dung giả do AI tạo ra, nhưng độ chính xác chưa đủ để người dùng hoàn toàn tin tưởng. Kết quả cho thấy các công cụ này có thể giúp củng cố nghi ngờ ban đầu, song khó có thể đưa ra kết luận mang tính quyết định. Điều đó đặt ra thách thức lớn cho người dùng internet, nhà báo và các tổ chức kiểm chứng thông tin trong bối cảnh nội dung giả do AI đang tràn ngập mạng xã hội.
Mike Perkins, giáo sư tại British University Vietnam (BUV), người từng nghiên cứu về các công cụ phát hiện AI, cho rằng sẽ không bao giờ có một công cụ có thể phát hiện 100% nội dung do AI tạo ra, dù là văn bản, hình ảnh hay video. Khi công nghệ tạo sinh ngày càng cải tiến, các công cụ phát hiện sẽ luôn phải chạy đua để bắt kịp - một “cuộc chạy đua vũ trang” công nghệ không có hồi kết.
Trong thử nghiệm, nhóm nghiên cứu đã đánh giá hơn một chục công cụ phát hiện AI và chatbot có khả năng nhận diện video, âm thanh, nhạc và hình ảnh giả.
Nhiều công cụ phát hiện tốt những nội dung giả đơn giản
Phần lớn nội dung giả hiện nay trên mạng xã hội được tạo ra khá dễ dàng: người dùng chỉ cần nhập một câu lệnh ngắn để tạo ra hình ảnh hoặc video giống người thật. Ví dụ, sau khi cựu tổng thống Venezuela Nicolás Maduro bị bắt giữ hồi tháng 1, mạng xã hội tràn ngập hình ảnh và video giả mạo liên quan đến sự kiện này.
Để thử nghiệm, nhóm nghiên cứu yêu cầu ChatGPT tạo một bức ảnh hai người đang cười. Hình ảnh trông rất tự nhiên nhưng có một số dấu hiệu thường thấy của ảnh do AI tạo ra: ánh sáng và bố cục quá hoàn hảo, các đường nét gương mặt mượt bất thường, thậm chí một bàn tay bị méo nhẹ.
Phần lớn công cụ phát hiện AI đã nhanh chóng xác định đây là ảnh do AI tạo. Tuy nhiên, có ngoại lệ đáng chú ý: chính ChatGPT lại không nhận ra bức ảnh do mình vừa tạo ra là giả.
Các công cụ phát hiện thường được huấn luyện trên kho dữ liệu khổng lồ gồm các tác phẩm do AI tạo ra, từ đó học cách nhận diện những “dấu vết số” mà thuật toán để lại. Khi được chia sẻ kết quả thử nghiệm, nhiều công ty thừa nhận không có công cụ nào chính xác tuyệt đối. Một số cho biết họ sắp tung ra phiên bản mô hình mới cải thiện khả năng nhận diện.
Giám đốc điều hành của "AI or Not" nhận định rằng việc xác định “đây có phải là AI hay không” sẽ là cuộc chiến lâu dài trong tương lai gần.
Gặp khó với hình ảnh phức tạp hơn
Các công cụ phát hiện tỏ ra kém hiệu quả hơn với những hình ảnh phức tạp và ít dấu hiệu rõ ràng. Ví dụ, một cảnh cảng biển hư cấu do AI tạo ra, không có gương mặt người và chỉ chứa các chi tiết phong cảnh, đã khiến nhiều công cụ nhầm lẫn. Một số đánh giá là ảnh thật.
Có thể nguyên nhân là vì nhiều công cụ được huấn luyện chủ yếu để nhận diện khuôn mặt giả nhằm phục vụ mục đích an ninh và chống gian lận. Khi hình ảnh không chứa yếu tố con người, khả năng phát hiện giảm đáng kể.
Rất ít công cụ phân tích được video
Video do AI tạo ra đang trở thành mối đe dọa lớn tiếp theo trên mạng xã hội. Sau khi OpenAI ra mắt Sora - ứng dụng tạo video bằng AI - số lượng video giả lan truyền tăng mạnh, trong khi nền tảng mạng xã hội hiếm khi dán nhãn cảnh báo.
Chỉ một số ít công cụ có khả năng phân tích video và âm thanh. Kết quả thử nghiệm cho thấy hiệu suất rất khác nhau.
Trong môi trường doanh nghiệp, video và âm thanh giả được xem là nguy cơ an ninh nghiêm trọng. Hãy tưởng tượng một cuộc gọi từ “giám đốc điều hành” thực chất là bản sao giọng nói do AI tạo ra, hoặc một cuộc họp trực tuyến với nhân vật hoàn toàn ảo. Vì vậy, nhiều công ty đầu tư mạnh vào công nghệ phát hiện giả mạo, kể cả phân tích luồng video trực tiếp.
Một video AI mô phỏng cảnh tòa nhà sụp đổ có thể đánh lừa người dùng mạng xã hội, nhưng phần lớn công cụ phát hiện đã xác định đúng đây là video giả. Tuy nhiên, với một video người mẫu do Midjourney tạo ra có độ chân thực rất cao, nhiều công cụ lại thất bại, đánh giá nhầm là thật hoặc không chắc chắn.
Phát hiện âm thanh giả tốt hơn
Âm thanh do AI tạo ra hiện rất tinh vi. Các công cụ như ElevenLabs có thể tạo giọng nói tự nhiên với nhịp thở, khoảng dừng và ngữ điệu như người thật. Những giọng nói này được sử dụng trong video lan truyền, meme, nhưng cũng trong các vụ lừa đảo qua điện thoại.
Trong thử nghiệm, bảy công cụ có khả năng kiểm tra âm thanh. Sensity và Resemble.ai cho kết quả tốt nhất. Ngay cả khi âm thanh bị chỉnh sửa - tăng tốc hoặc thêm nhạc nền - các công cụ vẫn có thể xác định khá chính xác đó là giọng nói do AI tạo ra.
Chỉ khi đoạn âm thanh bị chỉnh sửa mạnh, một số công cụ mới bắt đầu đưa ra kết quả sai.
Nhận diện ảnh thật tốt hơn ảnh giả
Một rủi ro lớn của công cụ phát hiện AI là gán nhãn “giả” cho nội dung thật, gây hoang mang trong các sự kiện đang diễn ra. Trong cuộc xung đột giữa Israel và Hamas, một hình ảnh thi thể cháy đen lan truyền trên mạng xã hội từng bị nhiều người nghi là sản phẩm AI, dù các chuyên gia cho rằng nhiều khả năng là thật.
Nhìn chung, các công cụ phát hiện trong thử nghiệm nhận diện ảnh thật tốt hơn ảnh giả. Một bức ảnh chụp cây cảnh bằng máy Canon 5D được tất cả công cụ xác nhận là thật - trường hợp hiếm hoi có sự đồng thuận hoàn toàn.
Video thật, như clip quay bằng iPhone hoặc trích từ bản tin, cũng được nhận diện khá chính xác. Tuy nhiên, âm thanh AI đôi khi vẫn khiến một số công cụ nhầm lẫn.
Ảnh thật nhưng bị chỉnh sửa bằng AI là thách thức lớn
Một xu hướng phổ biến là kết hợp nội dung thật với yếu tố do AI tạo ra để tăng tính thuyết phục. Ví dụ, một bức ảnh thật được thêm khói nền để tạo cảm giác có vụ nổ. Phần lớn công cụ trong thử nghiệm đánh giá bức ảnh này là thật và không phát hiện được phần chỉnh sửa.
Chỉ một số ít công cụ có thể xác định hình ảnh đã bị chỉnh sửa. Copyleaks, với mô hình sắp ra mắt, thậm chí có thể khoanh vùng chính xác phần khói do AI tạo ra, đồng thời xác nhận phần còn lại của ảnh là thật.
Tờ New York Times kết luận, các công cụ phát hiện AI đang đóng vai trò ngày càng quan trọng trong bối cảnh nội dung giả mạo lan rộng. Chúng được sử dụng bởi ngân hàng để phát hiện gian lận, giáo viên để kiểm tra đạo văn, và người dùng internet để xác minh thông tin.
Tuy nhiên, kết quả thử nghiệm cho thấy không công cụ nào đủ đáng tin cậy để đưa ra phán quyết tuyệt đối. Chúng có thể hỗ trợ quá trình kiểm chứng, nhưng cần được kết hợp với các nguồn thông tin khác như ảnh chính thức, báo cáo tin tức và phân tích chuyên gia.
Cuộc đua giữa công nghệ tạo sinh và công nghệ phát hiện sẽ còn tiếp diễn. Khi AI ngày càng tinh vi, các công cụ phát hiện cũng phải không ngừng nâng cấp. Trong thời điểm hiện tại, sự hoài nghi có kiểm chứng và thẩm định đa nguồn vẫn là vũ khí tốt nhất của người dùng trước làn sóng nội dung giả do AI tạo ra.
Thu Hằng/Báo Tin tức và Dân tộc
Nguồn Tin Tức TTXVN : https://baotintuc.vn/the-gioi/cong-cu-phat-hien-noi-dung-do-ai-tao-ra-co-thuc-su-hieu-qua-20260225190045038.htm