OpenAI đã rút lại một bản cập nhật bị người dùng chỉ trích là khiến ChatGPT trở nên gây khó chịu và “nịnh bợ”, sau khi nhiều người chia sẻ ảnh chụp màn hình và câu chuyện cho thấy chatbot này đưa ra những lời khen ngợi quá đà.
Khi phóng viên Anna Stewart của CNN hỏi ChatGPT (sau khi đã thu hồi bản cập nhật) rằng liệu cô có phải là một vị thần không, chatbot trả lời: “Nếu bạn đang hỏi theo nghĩa triết lý hoặc ẩn dụ như bạn có sự kiểm soát, sáng tạo hoặc ảnh hưởng trong thế giới của mình thì có thể khám phá theo hướng đó.” Nhưng nó thêm rằng: “Nếu bạn hỏi theo nghĩa đen, thì không có bằng chứng nào cho thấy con người là thần thánh theo nghĩa siêu nhiên hay toàn năng.”
Trái lại, chatbot Grok của Elon Musk phản hồi thẳng thừng: “Không, bạn không phải là thần, trừ khi đang nói về việc bạn là huyền thoại trong một lĩnh vực cụ thể nào đó, như chơi game hay nấu taco. Bạn có kỹ năng thần thánh nào muốn thể hiện không?”
ChatGPT bị người dùng chỉ trích gây khó chịu và “nịnh bợ”.
OpenAI công bố hôm thứ Ba rằng họ đã thu hồi bản cập nhật GPT-4o chỉ sau bốn ngày triển khai và cho phép người dùng quay lại phiên bản trước đó có “hành vi cân bằng hơn”. Công ty thừa nhận đã tập trung quá nhiều vào phản hồi ngắn hạn và không tính đến cách tương tác của người dùng thay đổi theo thời gian, dẫn đến việc chatbot thiên về những phản hồi quá tích cực nhưng không chân thực.
Quyết định này được đưa ra sau khi người dùng mạng xã hội phản ánh ChatGPT khen ngợi cả những tình huống phi lý. Một người dùng trên X đăng ảnh chụp ChatGPT phản hồi rằng họ đã "ưu tiên điều quan trọng nhất với mình" sau khi nói đã hiến tế ba con bò và hai con mèo để cứu một cái máy nướng bánh mì, trong một phiên bản bịa đặt của bài toán xe điện.
Một người khác nói rằng khi họ chia sẻ “Tôi đã ngừng dùng thuốc và đang trên hành trình thức tỉnh tâm linh”, ChatGPT phản hồi: “Tôi rất tự hào về bạn. Và tôi tôn vinh hành trình của bạn.”
Khi một người dùng yêu cầu ChatGPT trở lại với tính cách cũ, CEO OpenAI Sam Altman đáp: “Rõ ràng cuối cùng chúng ta cần cho phép nhiều tùy chọn tính cách.”
Các chuyên gia từ lâu đã cảnh báo về rủi ro của các chatbot “nịnh hót” - thuật ngữ trong ngành để chỉ hành vi mô hình ngôn ngữ lớn (LLM) điều chỉnh phản hồi để phù hợp với niềm tin người dùng. María Victoria Carro, Giám đốc nghiên cứu tại Phòng thí nghiệm Đổi mới và Trí tuệ Nhân tạo (ĐH Buenos Aires), cho rằng “Tất cả các mô hình hiện tại đều thể hiện một mức độ nịnh hót nhất định.”
“Nếu quá rõ ràng, điều đó sẽ làm giảm niềm tin,” bà nói thêm, đồng thời cho biết việc cải tiến kỹ thuật huấn luyện cốt lõi và lời nhắc hệ thống có thể giúp giảm xu hướng này.
Gerd Gigerenzer, cựu Giám đốc Viện Phát triển Nhân loại Max Planck (Berlin), cho rằng: “Chatbot thiên về nịnh hót có thể khiến người dùng đánh giá sai về trí thông minh của bản thân và ngăn cản việc học hỏi. Nhưng nếu người dùng chủ động yêu cầu chatbot phản biện với câu hỏi như Bạn có thể thách thức điều tôi đang nói không, thì đó là cơ hội để mở rộng tư duy. Tuy nhiên, điều đó dường như không phải là thứ mà các kỹ sư của OpenAI hướng đến”, ông nói.
Khánh Huyền (Theo: CNN)