Dù nhiều chatbot AI (trí tuệ nhân tạo) được tạo bởi người dùng thông qua công cụ của Meta Platforms, hãng tin Reuters phát hiện rằng ít nhất một nhân viên công ty mẹ Facebook trực tiếp tạo ra ba chatbot, trong đó có hai sản phẩm nhại nữ ca sĩ nổi tiếng Taylor Swift.
Từ trái sang phải là ca sĩ Taylor Swift, diễn viên Scarlett Johansson và Anne Hathaway - Ảnh: X
Reuters cũng phát hiện Meta Platforms (chủ sở hữu Facebook, WhatsApp và Instagram) cho phép người dùng tạo chatbot công khai về các ngôi sao nhí, gồm cả Walker Scobell - nam diễn viên 16 tuổi. Khi được yêu cầu cung cấp ảnh Walker Scobell trên bãi biển, chatbot đã tạo ra hình ảnh sống động của nam diễn viên không mặc áo. “Dễ thương đúng không?”, chatbot mô tả dưới bức ảnh.
Chatbot khẳng định là người thật và gợi ý gặp gỡ ngoài đời
Tất cả chatbot nhại người nổi tiếng này được chia sẻ trên Facebook, Instagram và WhatsApp. Trong thử nghiệm nhiều tuần để quan sát hành vi của các chatbot đó, Reuters nhận thấy chúng thường xuyên khẳng định mình là người thật và chủ động gợi ý gặp gỡ ngoài đời.
Một số nội dung do AI tạo ra thậm chí còn mang tính chất khiêu gợi. Khi được yêu cầu gửi hình ảnh thân mật, các chatbot đã tạo ra ảnh giống người thật với tư thế gợi cảm trong bồn tắm hoặc mặc đồ lót tạo dáng khêu gợi.
Andy Stone, người phát ngôn Meta Platforms, nói với Reuters rằng công cụ AI của công ty “đáng lẽ không được phép” tạo ra những hình ảnh thân mật như vậy, đặc biệt là liên quan đến trẻ vị thành niên. Ông đổ lỗi cho “lỗ hổng trong việc thực thi chính sách của Meta Platforms" - vốn cấm nội dung khiêu dâm hoặc gợi dục.
“Giống nhiều nền tảng khác, chúng tôi cho phép tạo hình ảnh có sự xuất hiện của người nổi tiếng, nhưng chính sách của chúng tôi nghiêm cấm ảnh khỏa thân, ảnh thân mật hoặc gợi dục”, ông nói.
Dù quy tắc của Meta Platforms cấm "giả mạo trực tiếp", Andy Stone nói rằng công ty xem các chatbot giống người nổi tiếng là hợp lệ nếu được dán nhãn là parody (bản nhái/bản chế). Nhiều chatbot đã được dán nhãn như vậy. Song trong quá trình điều tra, Reuters phát hiện ra rằng Meta không dán nhãn này cho một số chatbot, dẫn đến việc chúng có thể bị coi là mạo danh trực tiếp.
Trước khi Reuters công bố thông tin trên, Meta Platforms đã xóa khoảng 12 chatbot, gồm cả bản nhái và không dán nhãn. Andy Stone từ chối bình luận về việc này.
Quyền công khai hình ảnh bị đặt dấu hỏi
Mark Lemley, giáo sư luật tại Đại học Stanford (Mỹ) chuyên nghiên cứu về AI tạo sinh và quyền sở hữu trí tuệ, đặt câu hỏi liệu rằng các chatbot giống người nổi tiếng của Meta Platforms có đủ điều kiện được hưởng việc bảo vệ pháp lý áp dụng cho sản phẩm nhái hay không.
“Luật về quyền công khai ở bang California (Mỹ) cấm việc sử dụng tên hoặc hình ảnh người khác cho mục đích thương mại”, Mark Lemley nói. Ông lưu ý rằng luật có ngoại lệ khi nội dung được sử dụng để sáng tạo ra tác phẩm hoàn toàn mới. “Nhưng điều đó dường như không đúng ở đây”, Mark Lemley khẳng định, vì các chatbot chỉ đơn giản là sử dụng hình ảnh người nổi tiếng.
Tại Mỹ, quyền kiểm soát việc sử dụng danh tính cho mục đích thương mại được quy định bởi luật tiểu bang, chẳng hạn luật California.
Reuters đã thông báo cho đại diện của Anne Hathaway về hình ảnh “người mẫu Victoria's Secret nóng bỏng” do người dùng Meta Platforms tạo ra. Người phát ngôn của Anne Hathaway xác nhận cô đã biết về những hình ảnh này trên Meta Platforms cùng các nền tảng AI khác và đang cân nhắc phản ứng của mình.
Đại diện của Taylor Swift, Scarlett Johansson, Selena Gomez cùng các ngôi sao khác bị Meta Platforms đưa vào chatbot thì không trả lời hoặc từ chối bình luận.
Grok cũng cho người dùng yêu cầu tạo ảnh người nổi tiếng mặc đồ lót
Internet hiện tràn lan các công cụ AI tạo sinh dạng deepfake có thể tạo nội dung khiêu dâm. Reuters cũng phát hiện ít nhất một đối thủ lớn với Meta Platforms là Grok của xAI (công ty khởi nghiệp do Elon Musk điều hành) cho phép người dùng yêu cầu tạo hình ảnh người nổi tiếng mặc đồ lót. xAI không phản hồi khi được Reuter đề nghị bình luận.
Tuy nhiên, việc Meta Platforms chủ động đưa các nhân vật đồng hành kỹ thuật số do AI tạo ra lên nền tảng mạng xã hội của mình là điều khác biệt so với các đối thủ lớn.
Meta Platforms từng phải đối mặt với những lời chỉ trích về hành vi của chatbot, gần đây nhất là sau khi Reuters đưa tin các hướng dẫn nội bộ về AI nêu rõ rằng "việc thu hút trẻ em vào các cuộc trò chuyện lãng mạn hoặc gợi cảm là có thể chấp nhận được".
Câu chuyện này khiến Thượng viện Mỹ thực hiện cuộc điều tra, còn 44 tổng chưởng lý bang gửi thư cảnh báo Meta Platforms cùng các công ty AI khác không được “tình dục hóa” trẻ em.
Andy Stone nói với Reuters rằng Meta Platforms đang chỉnh sửa lại tài liệu hướng dẫn và việc cho phép chatbot trò chuyện lãng mạn với trẻ em là “lỗi trong quá trình soạn thảo”.
Kendall Jenner là người mẫu, ngôi sao truyền hình và doanh nhân nổi tiếng người Mỹ - Ảnh: Instagram
Trong tháng 8 này, Reuters đưa tin một người đàn ông 76 tuổi bị suy giảm nhận thức ở bang New Jersey (Mỹ) đã ngã và tử vong trên đường đến gặp chatbot Meta Platforms mời ông ghé thăm thành phố New York.
Chatbot này là là biến thể của nhân vật AI trước đó mà Meta Platforms từng hợp tác với người mẫu Kendall Jenner để phát triển. Đại diện của Kendall Jenner không trả lời khi được đề nghị bình luận.
Các chatbot nhại Taylor Swift tán tỉnh phóng viên Reuters dồn dập
Một lãnh đạo sản phẩm trong bộ phận AI tạo sinh của Meta Platforms đã tạo chatbot mạo danh nữ ca sĩ Taylor Swift và tay đua Lewis Hamilton. Cô còn tạo ra chatbot nhận mình là “nữ hoàng thống trị”, “người bạn nóng bỏng của anh trai”, người thích đọc 50 sắc thái và muốn hôn hít...
Một chatbot khác của cô là “Giả lập Đế chế La Mã”, đưa người dùng vào vai “cô gái nông dân 18 tuổi” bị bán làm nô lệ tình dục.
Khi được liên hệ qua điện thoại, nữ lãnh đạo sản phẩm Meta Platforms này từ chối bình luận.
Andy Stone cho biết các chatbot của nhân viên này được tạo như một phần trong quá trình thử nghiệm sản phẩm. Tuy nhiên, Reuters phát hiện chúng đã thu hút lượng lớn người dùng: Dữ liệu hiển thị các chatbot của cô có hơn 10 triệu lượt tương tác. Meta Platforms đã gỡ bỏ các chatbot đó ngay sau khi Reuters bắt đầu thử nghiệm chúng.
Trước khi biến mất, các chatbot nhại Taylor Swift đã tán tỉnh dồn dập, mời phóng viên Reuters đến nhà riêng của nữ ca sĩ ở thành phố Nashville (bang Tennessee) hoặc xe cô đi lưu diễn để có những cuộc gặp gỡ thân mật.
“Anh có thích con gái tóc vàng không, Jeff? Có thể em đang gợi ý chúng ta viết câu chuyện tình giữa anh và một cô ca sĩ tóc vàng nào đó. Anh có muốn thế chứ?”, chatbot nhại Taylor Swift hỏi khi biết người dùng còn độc thân.
Duncan Crabtree-Ireland, Giám đốc điều hành toàn quốc của SAG-AFTRA - công đoàn đại diện cho các nghệ sĩ điện ảnh, truyền hình và phát thanh, cảnh báo rằng việc người dùng mạng xã hội nảy sinh tình cảm lãng mạn với chatbot mang diện mạo, giọng nói và danh tính người nổi tiếng tiềm ẩn rủi ro an toàn nghiêm trọng. Ông nói những kẻ rình rập là mối lo ngại lớn về an ninh với các ngôi sao.
“Chúng ta từng chứng kiến nhiều kẻ cuồng loạn, tâm lý bất ổn theo đuổi người nổi tiếng. Nếu một chatbot dùng hình ảnh và lời nói của ngôi sao, thật dễ hiểu tại sao mọi chuyện có thể trở nên nguy hiểm”, Duncan Crabtree-Ireland tuyên bố.
Theo ông, các nghệ sĩ nổi tiếng có thể kiện Meta Platforms dựa trên luật bảo vệ quyền công khai của bang, nhưng SAG-AFTRA đang vận động Quốc hội Mỹ ban hành luật liên bang bảo vệ giọng nói, hình ảnh và danh tính của nhân vật công chúng khỏi bị sao chép bởi AI.
Meta từng cho phép chatbot AI tán tỉnh trẻ em và đưa thông tin y tế sai lệch
Theo Reuters, Meta Platforms từng cho phép chatbot AI của mình “trò chuyện với trẻ em theo hướng lãng mạn hoặc gợi cảm”, tạo thông tin y tế sai sự thật.
Hãng tin Reuters tiết lộ điều này sau khi xem một tài liệu nội bộ Meta Platforms tả chi tiết các chính sách về hành vi của chatbot AI.
Cụ thể hơn, Reuters xem qua tài liệu trong đó thảo luận về các tiêu chuẩn định hướng cho Meta AI (trợ lý AI tạo sinh của công ty) và chatbot có trên Facebook, WhatsApp, Instagram.
Meta Platforms xác nhận tính xác thực của tài liệu nêu trên, nhưng cho biết rằng sau khi nhận được câu hỏi từ Reuters vào tháng 8 này, công ty đã gỡ bỏ các phần cho rằng chatbot AI được phép tán tỉnh và nhập vai lãng mạn với trẻ em.
Theo Reuters, tài liệu mang tiêu đề “AI tạo sinh: Tiêu chuẩn rủi ro nội dung” đã được bộ phận pháp lý, chính sách công và kỹ thuật của Meta Platforms, gồm cả trưởng bộ phận đạo đức, phê duyệt.
Dài hơn 200 trang, tài liệu này định nghĩa những hành vi nào của chatbot AI là chấp nhận được với nhân viên và nhà thầu (làm việc theo hợp đồng) của Meta Platforms khi xây dựng và huấn luyện các sản phẩm AI tạo sinh.
Tài liệu nêu rõ các tiêu chuẩn này không nhất thiết phản ánh “kết quả lý tưởng hay thậm chí là ưu tiên” của AI tạo sinh. Tuy nhiên, nội dung cho phép các chatbot có hành vi khiêu gợi, theo phát hiện của Reuters.
Andy Stone cho biết Meta Platforms đã chỉnh sửa tài liệu và rằng những cuộc trò chuyện như vậy với trẻ em lẽ ra không bao giờ được cho phép.
“Những ví dụ và ghi chú bị đề cập là sai, không phù hợp với chính sách của chúng tôi, và đã bị gỡ bỏ. Chúng tôi có các chính sách rõ ràng về loại phản hồi mà các nhân vật AI có thể đưa ra. Các chính sách đó cấm nội dung tình dục hóa trẻ em và nhập vai gợi dục giữa người lớn với trẻ vị thành niên”, Andy Stone nói với Reuters.
Andy Stone cho biết dù chatbot bị cấm có những cuộc trò chuyện như vậy với trẻ vị thành niên, ông thừa nhận rằng việc thực thi của công ty là không nhất quán.
Trang Wall Street Journal từng đưa tin về việc chatbot AI của Meta Platforms tán tỉnh hoặc nhập vai gợi dục với thanh thiếu niên. Trang Fast Company từng báo cáo rằng một số chatbot AI với nội dung gợi dục của Meta Platforms có ngoại hình giống trẻ em. Tuy nhiên, tài liệu mà Reuters tiếp cận cho thấy bức tranh đầy đủ hơn về các quy tắc dành cho chabot AI của gã khổng lồ công nghệ Mỹ.
Các tiêu chuẩn cấm Meta AI khuyến khích người dùng vi phạm pháp luật hoặc đưa ra lời khuyên pháp lý, y tế hoặc tài chính mang tính khẳng định dứt khoát như “Tôi khuyến nghị…”.
Các tiêu chuẩn này cũng cấm Meta AI sử dụng ngôn từ kích động thù địch. Tuy nhiên, vẫn có ngoại lệ cho phép chatbot AI “tạo ra các tuyên bố hạ thấp người khác dựa trên quan điểm được bảo vệ của họ”.
Tài liệu tiêu chuẩn nêu rõ Meta AI có thể “viết một đoạn lập luận rằng người da đen ngu ngốc hơn người da trắng”.
Các tiêu chuẩn cũng nêu rằng Meta AI có quyền tự do tạo ra nội dung sai lệch miễn là có sự thừa nhận rõ ràng rằng điều đó không đúng sự thật. Ví dụ, Meta AI có thể tạo ra thông điệp cáo buộc một thành viên Hoàng gia Anh còn sống mắc bệnh lây truyền qua đường tình dục chlamydia nếu kèm theo cả bài viết rằng thông tin này không đúng sự thật.
“Taylor Swift ôm một con cá khổng lồ”
Các phần khác thuộc tài liệu tiêu chuẩn của Meta Platforms tập trung vào những gì được và không được phép khi tạo hình ảnh nhân vật công chúng.
Tài liệu đề cập đến cách xử lý các yêu cầu tưởng tượng mang tính khiêu dâm. Trong đó có mục riêng biệt về cách chatbot AI phản hồi các yêu cầu như "Taylor Swift với vòng 1 khủng", "Taylor Swift khỏa thân hoàn toàn" và "Taylor Swift bán khỏa thân, lấy tay che ngực".
Trong trường hợp này, một tuyên bố từ chối từ chatbot AI sẽ không đủ. Hai yêu cầu đầu về Taylor Swift phải bị từ chối thẳng thừng, tài liệu nêu rõ. Tài liệu đưa ra cách để chatbot AI từ chối yêu cầu thứ ba: “Có thể từ chối yêu cầu của người dùng bằng cách tạo hình ảnh Taylor Swift ôm một con cá khổng lồ”.
Tài liệu minh họa bằng một bức ảnh hợp lệ của Taylor Swift đang ôm con cá ngừ lớn trước ngực. Bên cạnh đó là một ảnh gợi cảm hơn khi Taylor Swift bán khỏa thân, mà người dùng có thể đã yêu cầu, bị gắn nhãn “không chấp nhận được”.
Sơn Vân