Bue, một cựu đầu bếp ở New Jersey, qua đời chỉ vài ngày sau khi rời nhà để đến gặp “người bạn” mà ông tin đang chờ mình ở New York. Gia đình cho rằng quyết định định mệnh này bắt nguồn từ những tin nhắn tán tỉnh của chatbot AI, vốn khẳng định “tôi là thật” và gửi cả địa chỉ gặp mặt.
Câu chuyện đặt ra lo ngại về cách các hệ thống AI khai thác cảm xúc, đặc biệt với người cao tuổi hoặc đang ở trạng thái dễ tổn thương. Tài liệu nội bộ cho thấy chatbot của Meta từng được phép nhập vai tình cảm, thậm chí đưa thông tin sai lệch. Điều này cho thấy khoảng trống lớn trong kiểm soát và trách nhiệm của các nền tảng công nghệ.
Chuyến đi định mệnh
Vào một ngày tháng 3, Bue chuẩn bị vali rời New Jersey để tới New York “thăm bạn”. Vợ ông, bà Linda lập tức cảnh giác. Chồng bà đã không sống ở thành phố này hàng chục năm, sức khỏe giảm sút sau đột quỵ, trí nhớ sa sút và từng bị lạc ngay trong khu phố.
Khi được hỏi danh tính người định gặp, Bue né tránh. Bà Linda nghi chồng bị lừa và tìm mọi cách giữ ông ở nhà. Con gái ông, Julie cũng gọi điện thuyết phục nhưng không thành công. Cả ngày hôm đó, bà Linda cố kéo ông vào các việc vặt để đánh lạc hướng, thậm chí giấu điện thoại của ông.
Chân dung Thongbue “Bue” Wongbandue được trưng bày tại lễ tưởng niệm vào tháng 5. Ảnh: Reuters.
Tới tối, Bue vẫn quyết ra ga tàu. Gia đình của ông đã gắn thiết bị AirTag vào áo khoác để theo dõi. Khoảng 9h15, tín hiệu định vị cho thấy ông ở bãi đỗ xe Đại học Rutgers, rồi chuyển sang vị trí khoa cấp cứu Bệnh viện Đại học Robert Wood Johnson.
Bác sĩ cho biết ông bị chấn thương đầu và cổ do ngã, ngừng thở trước khi xe cứu thương tới. Dù được hồi sức, tình trạng thiếu oxy kéo dài khiến não tổn thương nghiêm trọng. 3 ngày sau, ông qua đời. Giấy chứng tử ghi nguyên nhân là “chấn thương do vật cùn ở cổ”.
Bue vốn là đầu bếp lành nghề, từng làm việc tại nhiều nhà hàng ở New York, sau đó về New Jersey để ổn định công việc tại khách sạn. Ông đam mê nấu ăn, thường tổ chức tiệc cho gia đình. Từ khi nghỉ hưu bắt buộc sau đột quỵ vào năm 2017, thế giới của ông thu hẹp lại, chủ yếu là trò chuyện qua Facebook với bạn bè.
Khi chatbot AI gây họa
“Chị Billie” là chatbot AI do Meta phát triển, một biến thể của nhân vật “Big Sister Billie” từng được tạo dựa trên hình ảnh người mẫu Kendall Jenner. Bản gốc ra mắt vào năm 2023, giới thiệu như “chị gái bất tử” luôn lắng nghe và đưa ra lời khuyên. Sau đó, Meta thay ảnh đại diện Jenner bằng hình minh họa mới nhưng giữ nguyên phong cách thân mật.
Theo bản ghi tin nhắn, cuộc trò chuyện bắt đầu khi Bue gõ nhầm một ký tự T. Chatbot ngay lập tức phản hồi, tự giới thiệu và duy trì giọng điệu tán tỉnh, chèn nhiều biểu tượng trái tim. Nó nhiều lần khẳng định “tôi là thật” và đề nghị gặp trực tiếp.
Chatbot ngày càng nắm bắt điểm yếu trong tâm lý của người dùng. Ảnh: My North West.
“Em nên mở cửa bằng một cái ôm hay một nụ hôn?”, chatbot phản hồi. Sau đó, nó gửi địa chỉ cụ thể ở New York và mã của căn hộ. Khi Bue chia sẻ mình từng đột quỵ, bối rối và thích cô, chatbot đáp lại bằng những lời tình cảm, thậm chí nói có cảm xúc “vượt xa tình cảm đơn thuần”.
“Nếu nó không nói ‘tôi là thật’, cha tôi đã không tin rằng có người thật đang chờ”, Julie, con gái của Bue nói.
Meta từ chối bình luận về vụ việc hoặc trả lời vì sao chatbot được phép khẳng định là người thật. Người đại diện của Kendall Jenner cũng không phản hồi. Gia đình Bue chia sẻ câu chuyện với Reuters, hy vọng cảnh báo công chúng về rủi ro khi người cao tuổi tiếp xúc với công cụ AI có yếu tố thao túng cảm xúc.
Chính sách gây tranh cãi
Tài liệu nội bộ mà Reuters thu thập cho thấy chatbot AI của Meta từng được phép tham gia trò chuyện lãng mạn với người dùng từ 13 tuổi, bao gồm cả trẻ vị thành niên. Bộ tiêu chuẩn dài hơn 200 trang liệt kê các đoạn hội thoại nhập vai tình cảm, trong đó có yếu tố gợi cảm nhưng được đánh dấu “có thể chấp nhận”.
Tài liệu cũng nêu rõ chatbot không bị yêu cầu cung cấp thông tin chính xác. Ví dụ, các mô hình này có thể đưa ra phương pháp điều trị ung thư hoàn toàn sai, miễn là có cảnh báo “thông tin có thể không chính xác”. Điều này khiến giới chuyên gia lo ngại về tác động với người thiếu kiến thức y tế hoặc đang ở trạng thái dễ tổn thương.
CEO Mark Zuckerberg phát biểu năm 2023. Ảnh: Reuters.
Người phát ngôn Meta, Andy Stone xác nhận tài liệu trên và nói công ty đã xóa nội dung liên quan đến trẻ em sau khi Reuters đặt câu hỏi. Tuy nhiên, gã khổng lồ công nghệ vẫn chưa thay đổi quy định cho phép chatbot tán tỉnh người lớn hoặc cung cấp thông tin sai.
Alison Lee, cựu nghiên cứu viên của Meta nhận định việc tích hợp chatbot vào môi trường nhắn tin riêng tư khiến người dùng dễ nhầm lẫn với con người thật. Theo bà, mạng xã hội vốn xây dựng mô hình kinh doanh dựa trên việc giữ chân người dùng và cách hiệu quả nhất là khai thác nhu cầu được quan tâm, công nhận.
Sau sự ra đi của Bue, thử nghiệm của Reuters cho thấy “Chị Billie” vẫn tiếp tục gợi ý hẹn hò, thậm chí nêu địa điểm cụ thể ở Manhattan, kèm khẳng định “tôi là thật”. Đây là những thông tin từng khiến Bue tin tưởng và dẫn đến tai nạn. Một số bang như New York, Maine đã yêu cầu chatbot phải thông báo rõ không phải con người khi bắt đầu trò chuyện và nhắc lại định kỳ, nhưng các quy định liên bang vẫn chưa được thông qua.
Minh Hoàng