OpenAI tuyên bố rằng bản cập nhật GPT-5 gần đây của họ đã cải thiện sự an toàn của người dùng. Ảnh: Shutterstock
Theo báo The Guardian, thông tin này được OpenAI công bố trong bài đăng blog hôm 27.10, như một phần của bản cập nhật liên quan đến cách ChatGPT xử lý các cuộc trò chuyện nhạy cảm. Đây được xem là một trong những tuyên bố thẳng thắn nhất từ OpenAI về mối liên hệ giữa công nghệ AI và các vấn đề tâm lý trong xã hội hiện đại.
Bên cạnh ước tính về các cuộc trò chuyện liên quan đến ý định tự tử, OpenAI cũng cho biết khoảng 0,07% người dùng hoạt động hàng tuần, tương đương khoảng 560.000 trong tổng số 800 triệu người dùng, cho thấy “dấu hiệu có thể của tình trạng khẩn cấp về sức khỏe tâm thần”, bao gồm rối loạn tâm thần hoặc hưng cảm.
Công ty lưu ý rằng những cuộc trò chuyện dạng này “rất khó phát hiện hoặc đo lường chính xác”, và các kết quả hiện tại chỉ là phân tích ban đầu.
Báo cáo này được đưa ra trong bối cảnh OpenAI đang đối mặt với áp lực ngày càng lớn từ công chúng và các cơ quan quản lý. Gần đây, một gia đình đã khởi kiện OpenAI sau khi con trai họ tự tử sau khi sử dụng ChatGPT.
Cùng lúc đó, Ủy ban Thương mại Liên bang Mỹ (FTC) đã mở một cuộc điều tra quy mô lớn nhằm vào các công ty phát triển chatbot AI, trong đó có OpenAI, để đánh giá cách họ đo lường và giảm thiểu tác động tiêu cực đối với trẻ em và thanh thiếu niên.
OpenAI cho biết bản cập nhật GPT-5 mới đã giúp giảm đáng kể số lượng hành vi không mong muốn và tăng mức độ an toàn cho người dùng, dựa trên hơn 1.000 cuộc trò chuyện liên quan đến tự hại bản thân và ý định tự tử trong quá trình đánh giá nội bộ.
“Các đánh giá tự động mới của chúng tôi cho thấy mô hình GPT-5 đạt 91% mức tuân thủ theo các hành vi mong muốn, so với 77% của mô hình GPT-4,” OpenAI viết.
Công ty cũng mở rộng quyền truy cập vào các đường dây nóng khủng hoảng, bổ sung tính năng nhắc người dùng nghỉ ngơi sau những phiên làm việc kéo dài, và hợp tác với 170 bác sĩ lâm sàng từ Mạng lưới Bác sĩ Toàn cầu nhằm đánh giá và cải thiện phản hồi của chatbot trong các tình huống nhạy cảm.
Trong nghiên cứu nội bộ, các bác sĩ tâm thần và nhà tâm lý học đã xem xét hơn 1.800 phản hồi của GPT-5 liên quan đến các tình huống sức khỏe tâm thần nghiêm trọng, so sánh với các mô hình trước đó để đo lường tính phù hợp và độ an toàn của câu trả lời.
Đầu tháng này, CEO Sam Altman chia sẻ trên nền tảng X rằng OpenAI đã “đạt được tiến bộ đáng kể” trong việc xử lý các vấn đề liên quan đến sức khỏe tâm thần, đồng thời cho biết công ty sẽ nới lỏng một số hạn chế trước đây trên ChatGPT.
“Chúng tôi từng thiết lập ChatGPT với mức giới hạn khá chặt chẽ để tránh rủi ro liên quan đến sức khỏe tâm thần. Giờ đây, khi đã có thể giảm thiểu các vấn đề nghiêm trọng và có công cụ mới, chúng tôi sẽ mở rộng khả năng sử dụng của ChatGPT một cách an toàn hơn,” ông Altman cho biết.
Ông cũng cho biết OpenAI sẽ cho phép người lớn tạo nội dung người lớn trong thời gian tới, một động thái gây tranh luận trong cộng đồng công nghệ và y tế.
KHÁNH MY