Khi hình ảnh không còn là bằng chứng
Tháng này, OpenAI ra mắt ứng dụng Sora cho phép người dùng tạo video chân thực chỉ bằng một đoạn mô tả, ví dụ“cảnh camera hành trình ghi lại một chú chó bị bắt vì ăn trộm thịt bò ở Costco”.
Ứng dụng miễn phí trên iPhone này nhanh chóng gây bão mạng. Người dùng đua nhau tạo clip vui như gấu trúc trên máy bay hay ngôi sao Hollywood đánh nhau theo phong cách anime Nhật Bản. Nhưng bên cạnh niềm vui là mối lo: nhiều người đã lợi dụng Sora để tạo video giả, lan truyền tin sai lệch, thậm chí là cảnh quay tội phạm không có thật.
Công cụ AI tạo video Sora của OpenAI đang gây "bão mạng". Ảnh: YourStory
Sự xuất hiện của Sora - cùng các công cụ tương tự của Meta và Google - báo hiệu “cái chết của sự thật thị giác”: video sẽ không còn là bằng chứng khách quan nữa.
Giáo sư Khoa học máy tính Ren Ng từ Đại học California cảnh báo: “Bộ não chúng ta có xu hướng tin vào những gì nhìn thấy. Nhưng giờ đây, chúng ta phải học cách tạm dừng và suy nghĩ xem một video hay bất kỳ nội dung nào có xảy ra ngoài đời thật hay không”.
Khi Hollywood và thế giới công nghệ chao đảo
Sora trở thành ứng dụng miễn phí được tải nhiều nhất trên App Store tuần qua. Tuy nhiên, giới làm phim Hollywood tỏ ra lo ngại khi phát hiện nhiều video Sora vi phạm bản quyền phim, nhân vật hoặc thương hiệu.
CEO Sam Altman cho biết OpenAI đang thu thập phản hồi và sẽ sớm cho phép chủ sở hữu bản quyền kiểm soát và kiếm tiền từ việc sử dụng hình ảnh, nhân vật của họ.
Hiện tại, Sora chỉ mở theo hình thức mời: người dùng cần mã mời từ người khác để kích hoạt. Sau khi đăng ký, giao diện Sora giống hệt TikTok hay Instagram Reels. Người dùng chỉ cần nhập mô tả như “trận đấu giữa Biggie và Tupac theo phong cách anime Demon Slayer”. Vài phút sau, video được tạo và có thể chia sẻ lên mạng xã hội.
Điểm khác biệt khiến Sora gây sốc là độ chân thực vượt xa các đối thủ như Veo 3 của Google hay Vibe của Meta AI, khiến người xem khó nhận ra đâu là thật, đâu là giả.
Khi video không còn đáng tin
Hệ quả là mọi video trên TikTok, Instagram Reels, YouTube Shorts hay Snapchat đều có thể là giả. Theo nhà sáng lập tổ chức phi lợi nhuận CivAI, Lucas Hansen, "Không ai còn có thể xem video là bằng chứng nữa”.
Video giới thiệu Sora của OpenAI. Nguồn: YouTube
Trong các thử nghiệm, phóng viên New York Times dễ dàng tạo ra những video tiềm ẩn nguy cơ lừa đảo hoặc bịa đặt như: Cảnh va chạm xe hơi giả dùng cho gian lận bảo hiểm, video nhân vật nói về nghiên cứu “ảo” ca ngợi đồ ăn không tốt cho sức khỏe; tin giả trên truyền hình bôi nhọ một người thật.
Trên TikTok, các clip giả lan tràn: xe Tesla rơi khỏi xe tải, tin tức về kẻ giết người hàng loạt hư cấu, hay người đàn ông bị đuổi khỏi quán buffet vì ăn quá nhiều - tất cả đều là sản phẩm của Sora.
OpenAI cho biết đã gắn watermark (dấu nhận dạng) và dữ liệu nguồn trong file video để giúp nhận biết clip tạo từ Sora. “Chúng tôi nghiêm cấm hành vi lừa đảo, mạo danh hoặc phát tán thông tin sai lệch, và sẽ xử lý khi phát hiện vi phạm”, nhà phát triển ChatGPT khẳng định.
Tuy nhiên, người dùng vẫn có thể cắt bỏ watermark, khiến việc phân biệt video giả ngày càng khó khăn.
Theo Giáo sư khoa học máy tính Hany Farid đến từ Đại học Berkeley, ngay cả các mẹo phát hiện deepfake cũng sẽ nhanh chóng lỗi thời vì công nghệ tiến quá nhanh. Cách duy nhất chắc chắn để tránh video giả là… ngừng dùng TikTok, Instagram hay Snapchat.
Giờ đây, AI chỉ mất vài giây để tạo video và có thể khiến thế giới thật bị nhấn chìm trong ảo ảnh kỹ thuật số. Khi mọi bằng chứng đều có thể bị tái tạo, sự thật sẽ trở thành khái niệm mong manh hơn bao giờ hết, New York Times nhận xét.
(Theo NYT)
Du Lam