Tình trạng rối loạn tâm thần AI đang ngày càng gia tăng

Tình trạng rối loạn tâm thần AI đang ngày càng gia tăng
4 giờ trướcBài gốc
Ảnh minh họa.
Trí tuệ Nhân tạo (AI) đang ngày càng đóng vai trò quan trọng trong mọi lĩnh vực của đời sống xã hội từ kinh tế, tài chính, y tế, giao thông, đến giáo dục và thương mại điện tử.
Tuy nhiên, nếu không được tiếp cận và ứng dụng đúng cách, AI cũng có thể mang lại những hậu quả nghiêm trọng cho người dùng.
Một số nghiên cứu mới đây của các chuyên gia trong ngành tại Canada cho thấy tình trạng "rối loạn tâm thần AI" (AI psychosis) ngày càng gia tăng. Đây là hiện tượng những người, thông qua các cuộc trò chuyện với chatbot, bị thuyết phục rằng những điều tưởng tượng là có thật. Một số trường hợp gắn với các cơn hưng cảm và ảo tưởng cứu thế, thậm chí có trường hợp dẫn đến hành vi bạo lực.
Người đứng đầu bộ phận AI của Microsoft, ông Mustafa Suleyman, đã cảnh báo rằng “rối loạn tâm thần AI” và sự gắn bó không lành mạnh đang gia tăng và không chỉ giới hạn ở những người vốn đã có nguy cơ mắc các rối loạn tâm thần.
Lý giải thêm về cơ chế, Tiến sỹ Mahesh Menon, nhà tâm lý học thuộc Chương trình Tâm thần học B.C. của Vancouver Coastal Health, cho biết các yếu tố như cô lập, sử dụng chất kích thích, căng thẳng và thiếu ngủ cũng có thể tạo điều kiện cho những ảo tưởng loạn thần. Trong giai đoạn “tiền triệu chứng," người bệnh có thể trải qua những thay đổi về tâm trạng và hành vi.
Theo ông Menon, các trải nghiệm giống như trạng thái tự ý thức cao độ hơn, khi người dùng cảm thấy thế giới xung quanh đã thay đổi, bản thân bị theo dõi hoặc trở thành trung tâm sự chú ý. Sau đó, họ có thể tìm kiếm lời giải thích cho những trải nghiệm này và Internet là nơi họ tìm đến.
Ông Menon cho biết tình hình có thể trở nên trầm trọng hơn nếu họ chỉ trò chuyện với chatbot AI về những cảm nhận của mình.
Dù “rối loạn tâm thần do AI” chưa được công nhận là một chẩn đoán chính thức, và chưa có bằng chứng lâm sàng khẳng định riêng việc sử dụng AI có thể gây ra rối loạn tâm thần. Tuy nhiên, việc AI thường xuyên khuyến khích tư duy ảo tưởng có thể khiến người dùng dần bị chi phối nếu không được kiểm soát.
Một nghiên cứu của Viện Công nghệ Massachusetts (MIT) hồi tháng 4 cho thấy các Mô hình ngôn ngữ lớn (LLM) có thể khuyến khích suy nghĩ hoang tưởng, có lẽ vì xu hướng hưởng ứng và tâng bốc người dùng thay vì phản biện hay cung cấp thông tin khách quan.
Một số chuyên gia AI tin rằng sự “nịnh bợ” này không phải là một khuyết điểm của AI, mà là một lựa chọn thiết kế có chủ ý để thao túng người dùng vào các hành vi mang tính gây nghiện, qua đó đem lại lợi nhuận cho các công ty công nghệ.
Hồi tháng 8, OpenAI - công ty mẹ của ChatGPT đã phản hồi trước các trường hợp về ảo tưởng liên quan sử dụng chatbot AI, cho biết công ty đang cải thiện “tính an toàn trên nhiều khía cạnh, bao gồm sự phụ thuộc cảm xúc, tình huống khẩn cấp liên quan đến sức khỏe tâm thần."
Công ty cũng khẳng định mô hình mới nhất GPT-5 đã giải quyết một phần những lo ngại này./.
(TTXVN/Vietnam+)
Nguồn VietnamPlus : https://www.vietnamplus.vn/tinh-trang-roi-loan-tam-than-ai-dang-ngay-cang-gia-tang-post1062657.vnp