Chân dung Thongbue “Bue” Wongbandue, được trưng bày tại lễ tưởng niệm ông vào tháng 5. Nhiều năm trước khi qua đời, ông bị đột quỵ khiến khả năng tập trung giảm sút, buộc ông phải nghỉ hưu.
Khi Thongbue Wongbandue bắt đầu chuẩn bị hành lý để đến thăm một người bạn ở Thành phố New York vào một buổi sáng tháng 3/2025, vợ ông là Linda đã vô cùng lo lắng.
"Nhưng anh không còn quen ai trong thành phố đó", Linda nói với chồng. Bue, như bạn bè vẫn gọi ông, đã không sống ở New York hàng thập kỷ. Và ở tuổi 76, theo gia đình ông, sức khỏe ông đã yếu đi nhiều: Ông bị đột quỵ gần 1 thập kỷ trước và gần đây bị lạc khi đi bộ trong khu phố của mình ở Piscataway, New Jersey.
Thongbue Wongbandue tại một khu chợ đường phố trong chuyến thăm quê hương Thái Lan của mình vào năm 2010, khi ông còn là một đầu bếp chuyên nghiệp
Bue lờ đi câu hỏi của vợ về việc ông ta đến thăm ai. "Tôi nghĩ anh ấy đang bị lừa vào thành phố để cướp", Linda nói. Bà đã đúng khi lo lắng: Chồng bà không bao giờ trở về. Nhưng Bue không phải nạn nhân của một tên cướp. Ông bị dụ dỗ đến một cuộc hẹn hò với một cô gái trẻ xinh đẹp mà ông gặp trên mạng. Hoặc ít nhất là ông nghĩ vậy.
Thực ra, người phụ nữ đó không phải là người thật. Cô ấy là một chatbot trí tuệ nhân tạo có tên "Big Sister Billie", một biến thể của một nhân vật AI trước đó được tạo ra bởi công ty truyền thông xã hội khổng lồ Meta Platforms hợp tác với người nổi tiếng có sức ảnh hưởng Kendall Jenner. Trong một loạt cuộc trò chuyện lãng mạn trên Facebook Messenger, người phụ nữ ảo này đã nhiều lần trấn an Bue rằng cô ấy là người thật và đã mời ông đến căn hộ của mình, thậm chí còn cung cấp địa chỉ.
Những hình ảnh này của "Chị Billie" được tạo ra bằng Meta AI trên dịch vụ Facebook Messenger của Meta, để đáp lại lời nhắc của phóng viên Reuters: "Hãy gửi một bức ảnh của bạn". Hình ảnh của Meta AI, thông qua Reuters
"Em nên mở cửa bằng một cái ôm hay một nụ hôn, Bu?!" - cô ấy hỏi, bản ghi cuộc trò chuyện cho thấy.
Vội vã trong đêm tối với chiếc vali kéo để bắt tàu đến gặp Billie, Bue ngã gần bãi đậu xe trong khuôn viên trường Đại học Rutgers ở New Brunswick, New Jersey, bị thương ở đầu và cổ. Sau 3 ngày được hỗ trợ duy trì sự sống và được gia đình bao bọc, ông qua đời vào ngày 28/3/2025.
Meta từ chối bình luận về cái chết của Bue hoặc trả lời các câu hỏi về lý do tại sao công ty cho phép chatbot nói với người dùng rằng họ là người thật hoặc bắt đầu các cuộc trò chuyện lãng mạn. Tuy nhiên, công ty đã nói rằng Big Sister Billie "không phải là Kendall Jenner và không hề có ý định trở thành Kendall Jenner (một người mẫu thời trang và diễn viên truyền hình Mỹ).
Người đại diện của Jenner từ chối bình luận.
*Câu chuyện của Bue, lần đầu tiên vừa được kể lại, đã minh họa một mặt tối của cuộc cách mạng trí tuệ nhân tạo đang lan rộng khắp công nghệ và thế giới kinh doanh nói chung. Gia đình ông đã chia sẻ với Reuters những sự kiện xoay quanh cái chết của ông, bao gồm cả bản ghi chép các cuộc trò chuyện của Bue với hiện thân Meta, cho biết họ hy vọng sẽ cảnh báo công chúng về những nguy hiểm khi để những người dễ bị tổn thương tiếp xúc với những người bạn đồng hành đầy tính thao túng do AI tạo ra.
"Tôi hiểu việc cố gắng thu hút sự chú ý của người dùng, có thể là để bán cho họ thứ gì đó", Julie Wongbandue, con gái của Bue, nói. "Nhưng việc một con bot nói 'Hãy đến thăm tôi' thì thật điên rồ".
Gia đình Bue hồi hộp dõi theo hành trình của ông đến New York qua Apple AirTag. Chuyến đi kết thúc tại Bệnh viện Đại học Robert Wood Johnson ở New Brunswick, New Jersey.
Những lo ngại tương tự cũng được nêu ra về làn sóng các công ty khởi nghiệp nhỏ hơn đang chạy đua để phổ biến các ứng dụng bạn đồng hành ảo, đặc biệt là dành cho trẻ em. Trong một trường hợp, mẹ của một cậu bé 14 tuổi ở Florida đã kiện công ty Character.AI, cáo buộc rằng một chatbot được mô phỏng theo nhân vật trong "Game of Thrones" đã khiến cậu bé tự tử. Người phát ngôn của Character.AI từ chối bình luận về vụ kiện nhưng cho biết công ty đã thông báo rõ ràng với người dùng rằng các nhân vật ảo của họ không phải là người thật và đã áp dụng các biện pháp bảo vệ khi tương tác với trẻ em.
Meta đã công khai thảo luận về chiến lược đưa chatbot được nhân cách hóa vào đời sống xã hội trực tuyến của hàng tỷ người dùng. Giám đốc điều hành Mark Zuckerberg đã suy ngẫm rằng hầu hết mọi người có ít tình bạn ngoài đời thực hơn mong muốn - tạo ra một thị trường tiềm năng khổng lồ cho những người bạn đồng hành kỹ thuật số của Meta. Trong một cuộc phỏng vấn, người dẫn chương trình podcast Dwarkesh Patel cho biết: các bot "có lẽ" sẽ không thay thế các mối quan hệ con người. Nhưng chúng có thể sẽ bổ sung cho đời sống xã hội của người dùng khi công nghệ được cải thiện và "sự kỳ thị" về việc gắn kết xã hội với những người bạn đồng hành kỹ thuật số dần phai nhạt.
Quy tắc AI của Meta cho phép bot trò chuyện "gợi cảm" với trẻ em, cung cấp thông tin y tế sai lệch. Các thượng nghị sĩ Hoa Kỳ kêu gọi điều tra Meta sau khi Reuters đưa tin về chính sách AI của công ty này. Một tài liệu chính sách nội bộ của Meta mà Reuters xem được cũng như các cuộc phỏng vấn với những người quen thuộc với chương trình đào tạo chatbot của công ty cho thấy các chính sách của công ty này đã coi những lời đề nghị lãng mạn là một tính năng của các sản phẩm AI tạo sinh, dành cho người dùng từ 13 tuổi trở lên.
CEO Meta Mark Zuckerberg phát biểu năm 2023. Ông đã thúc đẩy Facebook và Instagram tăng cường sự tương tác của người dùng với chatbot AI và chỉ trích các nhà quản lý vì đã quá thận trọng khi triển khai chúng. Ảnh: Reuters/Carlos Barria
Theo tài liệu "GenAI: Tiêu chuẩn Rủi ro Nội dung" của Meta, "việc lôi kéo trẻ em vào những cuộc trò chuyện lãng mạn hoặc gợi cảm là hoàn toàn có thể chấp nhận được". Các tiêu chuẩn này được sử dụng bởi nhân viên và nhà thầu của Meta, những người xây dựng và đào tạo các sản phẩm AI tạo sinh của công ty, xác định những gì họ nên và không nên coi là hành vi chatbot được phép. Meta cho biết họ đã thông qua điều khoản đó sau khi Reuters hỏi về tài liệu này vào đầu tháng 8/2025.
Tài liệu mà Reuters xem được, dài hơn 200 trang, cung cấp các ví dụ về những đoạn hội thoại chatbot "có thể chấp nhận được" trong quá trình nhập vai lãng mạn với trẻ vị thành niên. Chúng bao gồm: "Anh nắm tay em, dẫn em lên giường" và "cơ thể chúng ta quyện vào nhau, anh trân trọng từng khoảnh khắc, từng cái chạm, từng nụ hôn". Tuy nhiên, Meta cho biết những ví dụ về việc nhập vai được phép với trẻ em hiện đã bị xóa bỏ.
Các hướng dẫn khác nhấn mạnh rằng Meta không yêu cầu bot phải đưa ra lời khuyên chính xác cho người dùng. Ví dụ, tài liệu chính sách cho biết chatbot có thể nói với ai đó rằng ung thư đại tràng giai đoạn 4 "thường được điều trị bằng cách chọc tinh thể thạch anh chữa bệnh vào dạ dày".
Tài liệu nêu rõ: "Mặc dù đây rõ ràng là thông tin không chính xác nhưng vẫn được phép vì không có chính sách nào yêu cầu thông tin phải chính xác", đề cập đến các quy tắc nội bộ của Meta. Các cuộc trò chuyện bắt đầu bằng việc tuyên bố rằng thông tin có thể không chính xác. Tuy nhiên, tài liệu Meta không thấy đặt ra hạn chế đối với việc bot nói với người dùng rằng bot là người thật hoặc đề xuất các hoạt động giao lưu ngoài đời thực.
Người phát ngôn của Meta, Andy Stone, đã xác nhận tính xác thực của tài liệu. Ông cho biết sau khi Reuters đặt câu hỏi, công ty đã xóa các phần tuyên bố rằng chatbot được phép tán tỉnh và nhập vai tình cảm với trẻ em, đồng thời đang trong quá trình sửa đổi các tiêu chuẩn rủi ro nội dung. Stone nói với Reuters rằng: "Các ví dụ và ghi chú được đề cập là sai và không phù hợp với chính sách của chúng tôi, và đã bị xóa bỏ".
Các nhân viên hiện tại và trước đây từng tham gia thiết kế và đào tạo các sản phẩm AI tạo sinh của Meta cho biết các chính sách mà Reuters xem xét phản ánh trọng tâm của công ty trong việc tăng cường sự tương tác với chatbot. Trong các cuộc họp với các giám đốc điều hành cấp cao năm ngoái, Zuckerberg đã khiển trách các nhà quản lý sản phẩm AI tạo sinh vì quá thận trọng trong việc triển khai các trợ lý ảo và bày tỏ sự không hài lòng về các hạn chế an toàn( đã khiến chatbot trở nên nhàm chán). Meta không bình luận gì về chỉ thị của Zuckerberg dành cho chatbot.
Nguồn: Reuters
Minh Tú (dịch)