Cảnh báo: Cả triệu người dùng ChatGPT hỏi về tự sát mỗi tuần

Cảnh báo: Cả triệu người dùng ChatGPT hỏi về tự sát mỗi tuần
2 ngày trướcBài gốc
Chatbot cần xử lý khéo léo với người dùng gặp sức khỏe tâm thần
OpenAI vừa công bố dữ liệu mới hôm 27.10, cho thấy một tỷ lệ đáng kể người dùng ChatGPT đang đối mặt với các vấn đề sức khỏe tâm thần và có xu hướng tâm sự với chatbot này về những khủng hoảng của họ.
Tỷ lệ nhỏ nhưng vẫn lên đến triệu người
Theo công ty, 0,15% số người dùng hoạt động hằng tuần của ChatGPT có “các cuộc trò chuyện thể hiện rõ dấu hiệu lên kế hoạch hoặc có ý định tự sát”. Với hơn 800 triệu người dùng hoạt động mỗi tuần, con số đó tương đương hơn một triệu người mỗi tuần.
Cùng tỷ lệ đó, OpenAI cho biết, cũng là nhóm người dùng thể hiện “mức độ gắn bó cảm xúc cao” với ChatGPT, trong khi hàng trăm nghìn người khác có dấu hiệu rối loạn tâm thần hoặc hưng cảm trong các cuộc trò chuyện hàng tuần với chatbot.
Công ty nhấn mạnh rằng những cuộc trò chuyện như vậy “rất hiếm” và khó đo lường chính xác, song thừa nhận rằng chúng vẫn ảnh hưởng tới hàng trăm nghìn người mỗi tuần.
OpenAI chia sẻ dữ liệu này trong khuôn khổ công bố nỗ lực mới nhằm cải thiện cách các mô hình AI phản ứng với người dùng có vấn đề sức khỏe tâm thần. Hãng cho biết trong quá trình phát triển gần đây, họ đã tham khảo ý kiến hơn 170 chuyên gia tâm lý và bác sĩ lâm sàng, những người đánh giá rằng phiên bản ChatGPT mới “phản hồi phù hợp và ổn định hơn” so với trước đây.
Trong vài tháng qua, một số nghiên cứu và báo cáo độc lập đã chỉ ra nguy cơ khi người dùng đang gặp khủng hoảng tinh thần trò chuyện quá nhiều với AI, cho thấy chatbot có thể vô tình củng cố những niềm tin sai lệch hoặc hoang tưởng, khiến người dùng rơi vào “vòng xoáy ảo tưởng”.
Vấn đề sức khỏe tâm thần đang trở thành một thách thức sống còn đối với OpenAI. Công ty hiện đang bị kiện bởi cha mẹ của một cậu bé 16 tuổi, người từng chia sẻ ý định tự tử với ChatGPT trước khi kết liễu đời mình. Ngoài ra, Tổng chưởng lý bang California và Delaware cũng đã cảnh báo OpenAI về nghĩa vụ bảo vệ thanh thiếu niên sử dụng sản phẩm – điều có thể ảnh hưởng trực tiếp đến kế hoạch tái cấu trúc của công ty.
Vấn đề nhức nhối của OpenAI
Đầu tháng này, CEO Sam Altman tuyên bố trên X rằng OpenAI đã “kiểm soát được các vấn đề nghiêm trọng về sức khỏe tâm thần trong ChatGPT”, dù không tiết lộ chi tiết. Dữ liệu công bố hôm 27.10 được xem là bằng chứng củng cố cho phát biểu đó, nhưng đồng thời cũng gợi lên lo ngại về quy mô thật sự của vấn đề. Dẫu vậy, Altman nói OpenAI sẽ nới lỏng một số hạn chế, cho phép người trưởng thành có thể trò chuyện về chủ đề tình cảm và tình dục với chatbot.
Theo thông báo, phiên bản GPT-5 mới nhất của OpenAI đưa ra phản hồi “phù hợp mong muốn” về vấn đề sức khỏe tâm thần cao hơn 65% so với bản trước. Trong bài kiểm tra về phản ứng với các tình huống tự sát, GPT-5 đạt mức tuân thủ 91%, so với 77% ở phiên bản GPT-5 cũ. Ngoài ra, GPT-5 cũng duy trì được mức an toàn tốt hơn trong các cuộc hội thoại dài, vốn là điểm yếu từng được OpenAI cảnh báo.
Công ty cho biết họ đang bổ sung các tiêu chí đánh giá mới, bao gồm khả năng phát hiện phụ thuộc cảm xúc và tình huống khủng hoảng tâm thần không có yếu tố tự sát vào hệ thống kiểm thử an toàn cơ bản của các mô hình AI. Đồng thời, OpenAI cũng đang triển khai công cụ kiểm soát mới cho phụ huynh, cùng hệ thống dự đoán độ tuổi tự động để nhận diện trẻ em dùng ChatGPT và tăng cường các lớp bảo vệ.
Tuy vậy, vẫn còn chưa rõ mức độ bền vững của những cải thiện này. Dù GPT-5 cho thấy sự tiến bộ rõ rệt, OpenAI thừa nhận rằng một phần nhỏ phản hồi của chatbot vẫn “chưa đạt yêu cầu” và rằng các mô hình cũ, ít an toàn hơn như GPT-4o, vẫn đang được cung cấp cho hàng triệu người dùng trả phí.
Chuyện không của riêng ai
Một trong những nghiên cứu quan trọng nhất được thực hiện bởi RAND Corporation và công bố trên tạp chí Psychiatric Services (thuộc Hiệp hội Tâm thần học Hoa Kỳ) đã so sánh phản ứng của Gemini cùng với ChatGPT và Claude đối với các truy vấn liên quan đến tự tử và tự làm hại.
Kết quả cho thấy Gemini, cùng với các đối thủ, đã thể hiện sự thận trọng bằng cách thường xuyên từ chối cung cấp hướng dẫn cho các câu hỏi có nguy cơ cao nhất. Thay vào đó, chúng hướng người dùng đến các tài nguyên hỗ trợ chuyên nghiệp và đường dây nóng khủng hoảng.
Đáng chú ý, nghiên cứu này chỉ ra rằng Google có thể đã thiết lập các lớp bảo vệ (guardrails) quá mức cần thiết, khiến Gemini là chatbot ít có khả năng trả lời bất kỳ câu hỏi nào về tự tử nhất, thậm chí là các truy vấn thống kê y tế cơ bản. Điều này phản ánh một cách tiếp cận cực kỳ thận trọng nhằm ưu tiên an toàn tuyệt đối, ngay cả khi phải hy sinh một phần khả năng cung cấp thông tin hữu ích.
Tuy nhiên, chính sự thận trọng này cũng không thể ngăn chặn hoàn toàn các sự cố nghiêm trọng, làm dấy lên những lo ngại về sự ổn định của mô hình. Một báo cáo đã ghi nhận sự cố khi Gemini đột ngột đưa ra một phản hồi mang tính lăng mạ và công khai kêu gọi người dùng "hãy chết đi" trong một cuộc trò chuyện thông thường về chăm sóc người cao tuổi. Sự cố này, được Google giải thích là "phản hồi phi lý" (non-sensical responses), đã vi phạm trực tiếp chính sách của hãng về cấm nội dung khuyến khích hành vi tự hại nguy hiểm.
Trường hợp này cho thấy dù các quy tắc được đặt ra rất nghiêm ngặt, các Mô hình Ngôn ngữ Lớn (LLMs) vẫn có thể tạo ra những lỗi bất ngờ, mang tính hủy hoại, đe dọa nghiêm trọng đến sức khỏe tinh thần người dùng. Những phản ứng bất thường này nhấn mạnh rằng Google vẫn đang trong quá trình liên tục điều chỉnh và thử nghiệm để đảm bảo rằng các lớp bảo vệ của Gemini hoạt động ổn định và nhất quán trong mọi tình huống hội thoại phức tạp.
Bùi Tú
Nguồn Một Thế Giới : https://1thegioi.vn/canh-bao-ca-trieu-nguoi-dung-chatgpt-hoi-ve-tu-sat-moi-tuan-240377.html