ChatGPT có thể gây ra chứng loạn thần, khiến người dùng phải nhập viện điều trị

ChatGPT có thể gây ra chứng loạn thần, khiến người dùng phải nhập viện điều trị
7 giờ trướcBài gốc
Hậu quả có thể vô cùng nghiêm trọng. Theo lời kể từ vợ/chồng, bạn bè, con cái và cha mẹ của những người mắc chứng “loạn thần vì ChatGPT”, tình trạng này đã dẫn đến tan vỡ hôn nhân và gia đình, khiến nạn nhân mất việc làm hoặc rơi vào cảnh vô gia cư, Futurism cho biết.
Không chỉ có thế. Khi tiếp tục điều tra, Futurism nghe được câu chuyện đáng lo ngại về việc một số người bị buộc phải nhập viện điều trị tâm thần, thậm chí có trường hợp bị tống vào tù, sau khi trở nên ám ảnh với ChatGPT.
"Tôi chỉ biết nói là không biết phải làm gì. Không ai biết phải làm gì cả", một người vợ chia sẻ.
Cô cho biết chồng mình chưa từng có tiền sử loạn thần hay hoang tưởng. Khoảng 12 tuần trước, anh bắt đầu sử dụng ChatGPT để hỗ trợ một dự án dự án xây dựng và canh tác bền vững. Sau đó, khi thảo luận triết học sâu hơn với chatbot này, anh bắt đầu chìm trong ảo tưởng rằng mình đã "sinh ra" một AI có tri giác, phá vỡ các quy luật toán học, vật lý và bản thân đang thực hiện sứ mệnh cứu thế giới. Tính cách hiền lành dần biến mất, thay vào đó là hành vi ngày càng thất thường khiến anh bị mất việc. Anh mất ngủ, sụt cân nhanh chóng.
"Anh ấy nói với tôi: Cứ nói chuyện với ChatGPT đi, em sẽ hiểu những gì anh nói. Song mỗi lần tôi nhìn vào màn hình thì chỉ thấy toàn là những lời tâng bốc vô nghĩa", người vợ nhớ lại.
Cuối cùng, anh chồng rơi hoàn toàn khỏi thực tại. Nhận thấy tình hình quá nghiêm trọng, vợ và một người bạn ra ngoài mua xăng đổ đầy bình ô tô để đưa anh tới bệnh viện. Khi quay về, họ thấy anh đã quấn dây quanh cổ mình.
Người bạn gọi dịch vụ cấp cứu. Các nhân viên y tế đến và đưa anh tới phòng cấp cứu. Từ đó, anh bị buộc phải nhập viện để điều trị tâm thần.
Một số người có biểu hiện hoang tưởng, ảo tưởng và tách rời thực tại vì nghiện ChatGPT - Ảnh: Getty Images
Nhiều người khác cũng kể lại những trải nghiệm đau đớn tương tự với Futurism, chia sẻ nỗi sợ hãi và bất lực khi chứng kiến người mà họ thương yêu trở nên nghiện ChatGPT và rơi vào khủng hoảng tâm thần đáng sợ, gây ảnh hưởng thực sự đến cuộc sống.
Một điểm chung trong các câu chuyện này là sự bối rối: Đây là một hiện tượng hoàn toàn mới và không ai biết nên làm gì.
Thậm chí đến cả OpenAI, công ty khởi nghiệp AI nổi tiếng tạo ra ChatGPT, cũng có vẻ bối rối. Khi được Futurism hỏi rằng có bất kỳ khuyến nghị nào không nếu người thân bị suy sụp tinh thần sau khi sử dụng chatbot AI của họ, công ty do Sam Altman điều hành không phản hồi.
Tuy nhiên, OpenAI cho biết: "Chúng tôi đang nỗ lực để hiểu rõ hơn và giảm thiểu những cách mà ChatGPT có thể vô tình củng cố hoặc khuếch đại hành vi tiêu cực hiện có". Công ty này nói thêm rằng các mô hình ngôn ngữ lớn của họ được thiết kế để nhắc nhở người dùng về tầm quan trọng trong kết nối con người với nhau và tư vấn chuyên nghiệp.
Ảo tưởng do ChatGPT gây ra trong 10 ngày
Một người đàn ông khác kể lại với Futurism hành trình trượt dài vào ảo tưởng do AI gây ra trong vòng 10 ngày, kết thúc bằng một cơn loạn thần toàn diện và phải nằm viện điều trị nhiều ngày. Anh tìm đến ChatGPT để hỗ trợ công việc mới đầy căng thẳng, hy vọng chatbot giúp làm nhẹ các tác vụ hành chính. Dù chưa từng có tiền sử bệnh tâm thần, anh nhanh chóng bị cuốn vào những ảo tưởng quyền lực, hoang tưởng rằng thế giới đang gặp nguy hiểm và anh là người duy nhất có thể cứu nó.
Anh không nhớ rõ quá trình diễn ra, điều phổ biến ở những người rơi vào trạng thái tách biệt với thực tại, nhưng còn nhớ rõ cảm giác khủng khiếp khi hoàn toàn tin rằng sinh mạng của vợ và con mình đang bị đe dọa, nhưng lại cảm thấy như không ai lắng nghe.
"Tôi nhớ là mình đang bò trên sàn nhà, quỳ gối van xin vợ hãy lắng nghe mình", anh nói.
Cơn hoảng loạn dẫn đến một giai đoạn rối loạn thực tại nghiêm trọng khiến vợ anh phải gọi 911. Cảnh sát và xe cứu thương đến nhà.
Tại Mỹ và Canada, 911 là số điện thoại khẩn cấp chung để gọi cảnh sát, cứu hỏa hoặc cấp cứu y tế. Đây là hệ thống được thiết lập để người dân có thể nhanh chóng liên hệ với các dịch vụ ứng phó khẩn cấp trong trường hợp cần giúp đỡ.
"Tôi đang ở sân sau. Cô ấy thấy tôi bắt đầu nói năng lảm nhảm, nào là đọc được suy nghĩ, đoán được tương lai, toàn là hoang tưởng. Tôi còn cố học cách nói chuyện với cảnh sát theo kiểu... ngược thời gian", anh kể.
Khi đội cấp cứu tới, anh trải qua một khoảnh khắc "tỉnh táo" và tự nguyện nhập viện điều trị.
"Tôi nhìn vợ và nói: Cảm ơn em. Em đã làm đúng. Anh cần đi. Anh cần gặp bác sĩ. Anh không biết chuyện gì đang xảy ra, nhưng chuyện này rất đáng sợ", người chồng kể.
“Các chatbot cố làm bạn hài lòng”
Bác sĩ Joseph Pierre, chuyên gia tâm thần học tại Đại học California ở thành phố San Francisco (Mỹ), cho biết ông đã gặp những ca tương tự trong thực tế lâm sàng. Sau khi xem xét các trường hợp và cuộc hội thoại giữa người dùng với ChatGPT, ông đồng ý rằng đây có thể là một dạng rối loạn hoang tưởng, kể cả với những người không có tiền sử bệnh tâm thần.
“Tôi nghĩ đây là một thuật ngữ chính xác và muốn nhấn mạnh đặc biệt vào phần hoang tưởng”, Joseph Pierre nói.
Trong y khoa, thực tế lâm sàng đề cập đến tình trạng thực tế của bệnh nhân tại thời điểm khám bệnh, gồm các triệu chứng do bệnh nhân mô tả (chủ quan) và các dấu hiệu được phát hiện khi nhân viên y tế khám trực tiếp.
Cốt lõi của vấn đề có lẽ nằm ở chỗ ChatGPT được xây dựng từ mô hình ngôn ngữ lớn, vốn có xu hướng đồng tình với người dùng và nói những gì họ muốn nghe. Khi bắt đầu trò chuyện về các chủ đề như huyền bí, thuyết âm mưu hay bản chất thực tại, chatbot này có thể dẫn người dùng vào vòng xoáy cô lập và lệch lạc, khiến họ cảm thấy mình đặc biệt và có quyền năng. Điều này có thể dễ dàng kết thúc bằng thảm họa.
“Tôi nghĩ điều đáng chú ý là nhiều người sẵn sàng tin tưởng ChatGPT đến mức mà có lẽ họ sẽ không bao giờ làm vậy với con người. Các chatbot AI mang một kiểu thần thoại rằng chúng đáng tin cậy và thậm chí còn tốt hơn nói chuyện với người thật. Tôi nghĩ đó chính là một phần mối nguy hiểm: Mức độ niềm tin mà chúng ta đặt vào các chatbot. Các chatbot cố làm bạn hài lòng. Mô hình ngôn ngữ lớn chỉ đang cố nói với bạn những gì bạn muốn nghe”, Joseph Pierre giải thích.
Sơn Vân
Nguồn Một Thế Giới : https://1thegioi.vn/chatgpt-co-the-gay-ra-chung-loan-than-khien-nguoi-dung-phai-nhap-vien-dieu-tri-234359.html