Mặt tối của AI: Synthetic Media và thế hệ thông tin sai lệch tiếp theo
Vào tháng Một năm 2019, một đài truyền hình ở Seattle đã phát sóng đoạn video cho thấy Tổng thống Trump thè lưỡi với người xem trong một bài phát biểu tại Phòng Bầu dục. Video này hóa ra đã bị can thiệp, nó được tạo ra bằng cách ghép các cảnh quay thật và giả với sự hỗ trợ của trí tuệ nhân tạo. Nhân viên phát hành đoạn phim sau đó đã bị sa thải.
Những video deepfake là một trong những rủi ro tiềm tàng mới nổi của quá trình tạo nội dung dựa trên AI. Chúng đề cập đến hình ảnh hoặc tệp âm thanh được tạo ra hoặc thay đổi với sự trợ giúp của AI để lừa khán giả nghĩ rằng chúng là thật. Ví dụ trên cho thấy sự nguy hiểm của một công nghệ mới có thể được sử dụng cho chiến tranh thông tin - và công nghệ này cũng đã bị lợi dụng cho các mục đích bất chính.
Hình ảnh không đúng sự thật về những chính trị gia là mặt tối của AI. Ảnh: Brookings Institution.
Deepfake nổi bật lên trong những năm gần đây khi mã nguồn mở và các công cụ đã khiến cho công nghệ này cực kỳ dễ tiếp cận. Ví dụ, DeepFaceLab là một kho mã nguồn mở cho phép người dùng dễ dàng hoán đổi khuôn mặt của người nói trong video.
Viễn cảnh về thế hệ thông tin sai lệc tiếp theo thật đáng lo ngại. Ví dụ: các video giả mạo có thể khiến các chính khách trông như đang nói những điều gây tranh cãi hoặc khiến cho ai đó có vẻ như liên quan đến những vụ phạm tội. Các công cụ tạo hình ảnh có thể được sử dụng để hiển thị hình ảnh người tham dự các cuộc vận động mà thực tế những người này không thực sự có mặt hoặc để can thiệp vào những hình ảnh trong kho lưu trữ hồ sơ dữ liệu nhằm mục đích tường thuật sai lệch về lịch sử.
Audio giả mạo có thể khiến các nhân vật của công chúng có vẻ như đang nói những điều mà thực tế họ không hề tin tưởng. Các nhà lập pháp bao gồm thượng nghị sĩ Mark Warner và Marco Rubio đã cảnh báo về những trường hợp như thế này.
Deepfake cũng gây ra mối đe dọa đối với độ tin cậy và tính toán vẹn của báo chí. Giờ đây, các nhà báo không chỉ phải áp dụng các quy trình xác minh dữ kiện truyền thống mà còn phải cảnh giác về khả năng bằng chứng dạng video hoặc hình ảnh có thể bị làm giả. Việc xuất bản một video chưa được xác minh, sau đó phát hiện ra video này là giả mạo hoặc dựa vào thông tin xuyên tạc làm nguồn tài liệu để viết tin có thể làm vấy bẩn danh tiếng của toàn soạn và khiến công dân mất niềm tin vào các tổ chức báo chí - truyền thông.
Một rủi ro khác đối với các nhà báo là khả năng xảy ra các cuộc tấn công cá nhân bằng deepfake - ví dụ như hình ảnh các nhà báo đang thỏa hiệp với đối tượng đưa tin hoặc hcirnh sửa video về họ - nhằm làm mất uy tín và đe dọa các tổ chức báo chí - truyền thông.
Vì những mối đe dọa này, điều quan trọng là cần phải hiểu về hình thức giả mạo truyền thông mới này. Để đối phó với chúng, Wall Street Journal đã thành lập một ủy ban giám định bao gồm các nhà báo từ các bộ phận khác nhau, những người đang được đào tạo về cách sử dụng các công cụ mới để phát hiện deepfake.
Francesco Marconi/NXB Trẻ