David Sacks, quan chức Nhà Trắng dẫn đầu các chính sách về trí tuệ nhân tạo (AI) và tiền mã hóa của Mỹ, đã thảo luận về "loạn thần do AI" trong một tập của podcast All-In gần đây.
All-In là podcast nổi tiếng của Mỹ về kinh doanh và công nghệ, được dẫn dắt bởi 4 nhà đầu tư mạo hiểm có ảnh hưởng lớn thường được gọi là Besties (những người bạn thân):
Chamath Palihapitiya: Người sáng lập và Giám đốc điều hành quỹ đầu tư mạo hiểm Social Capital.
Jason Calacanis: Doanh nhân và nhà đầu tư thiên thần nổi tiếng.
David Sacks: Cựu giám đốc vận hành PayPal, đối tác tại quỹ đầu tư mạo hiểm Craft Ventures và nhà đầu tư công nghệ từng hỗ trợ những công ty lớn như Airbnb, Facebook, Uber.
David Friedberg: Người sáng lập và Giám đốc điều hành hãng đầu tư và phát triển công nghệ The Production Board.
Podcast này thu hút người nghe nhờ vào những cuộc thảo luận sâu sắc về sự kiện thời sự, xu hướng thị trường, chính trị và góc nhìn nội bộ từ các chuyên gia trong ngành. Họ thường xuyên mời các nhân vật có ảnh hưởng lớn trên thế giới đến để phỏng vấn và trò chuyện.
Trong khi hầu hết mọi người tương tác với ChatGPT, Google Gemini và Claude mà không gặp vấn đề gì, một số ít người dùng cho biết các chatbot AI này đã khuyến khích họ có những ảo tưởng và hành vi đáng lo ngại khác. Với vài người, ChatGPT thậm chí còn được coi là giải pháp thay thế cho các nhà trị liệu chuyên nghiệp.
Một bác sĩ tâm thần từng nói với trang Insider rằng nhiều bệnh nhân của ông có biểu hiện "loạn thần do AI" - thuật ngữ không chính thức. Bác sĩ cho biết những người đó đã sử dụng AI trước khi gặp các vấn đề về sức khỏe tâm thần và “họ dựa vào công nghệ này trong bối cảnh không phù hợp khiến những tổn thương tâm lý sẵn có trở nên trầm trọng hơn”.
Một số người bị hoang tưởng và tách rời thực tại khi sử dụng các chatbot AI - Ảnh: Internet
Ảo tưởng do ChatGPT gây ra trong 10 ngày
Một người đàn ông gần đây kể với trang Futurism vềhành trình trượt dài vào ảo tưởng do AI gây ra trong vòng 10 ngày, kết thúc bằng một cơn loạn thần toàn diện và phải nằm viện điều trị nhiều ngày. Anh tìm đến ChatGPT để hỗ trợ công việc mới đầy căng thẳng, hy vọng chatbot AI của OpenAI giúp làm nhẹ các tác vụ hành chính. Dù chưa từng có tiền sử bệnh tâm thần, anh nhanh chóng bị cuốn vào những ảo tưởng quyền lực, hoang tưởng rằng thế giới đang gặp nguy hiểm và duy nhất anh có thể cứu nó.
Anh không nhớ rõ cảm giác khủng khiếp khi hoàn toàn tin rằng sinh mạng của vợ và con mình đang bị đe dọa, nhưng lại cảm thấy như không ai lắng nghe.
"Tôi nhớ là mình đang bò trên sàn nhà, quỳ gối van xin vợ hãy lắng nghe mình", anh nói.
Cơn hoảng loạn dẫn đến một giai đoạn rối loạn thực tại nghiêm trọng khiến vợ anh phải gọi 911 (số điện thoại khẩn cấp chung để gọi cảnh sát, cứu hỏa hoặc cấp cứu y tế ở Mỹ và Canada). Cảnh sát và xe cứu thương đến nhà sau đó.
Khi đội cấp cứu tới, anh đã tự nguyện nhập viện điều trị.
Bác sĩ Joseph Pierre, chuyên gia tâm thần học tại Đại học California ở thành phố San Francisco (Mỹ), cho biết ông đã gặp những ca tương tự trong thực tế lâm sàng. Sau khi xem xét các trường hợp và cuộc hội thoại giữa người dùng với ChatGPT, ông đồng ý rằng đây có thể là một dạng rối loạn hoang tưởng, kể cả với những người không có tiền sử bệnh tâm thần.
“Tôi nghĩ đây là một thuật ngữ chính xác và muốn nhấn mạnh đặc biệt vào phần hoang tưởng”, Joseph Pierre nói.
Cốt lõi của vấn đề có lẽ nằm ở chỗ ChatGPT được xây dựng từ mô hình ngôn ngữ lớn, vốn có xu hướng đồng tình với người dùng và nói những gì họ muốn nghe. Khi bắt đầu trò chuyện về các chủ đề như huyền bí, thuyết âm mưu hay bản chất thực tại, chatbot AI này có thể dẫn người dùng vào vòng xoáy cô lập và lệch lạc, khiến họ cảm thấy mình đặc biệt và có quyền năng. Điều đó có thể dễ dàng kết thúc bằng thảm họa.
“Tôi nghĩ điều đáng chú ý là nhiều người sẵn sàng tin tưởng ChatGPT đến mức mà có lẽ họ sẽ không bao giờ làm vậy với con người. Các chatbot AI mang một kiểu thần thoại rằng chúng đáng tin cậy và thậm chí còn tốt hơn nói chuyện với người thật. Tôi nghĩ đó chính là một phần mối nguy hiểm: Mức độ niềm tin mà chúng ta đặt vào các chatbot. Các chatbot cố làm bạn hài lòng. Mô hình ngôn ngữ lớn chỉ đang cố nói với bạn những gì bạn muốn nghe”, Joseph Pierre giải thích.
David Sacks nghi ngờ "loạn thần do AI", cho rằng COVID-19 gây suy giảm sức khỏe tâm thần
Trong podcast All-In, David Sacks tỏ ra nghi ngờ về toàn bộ khái niệm "loạn thần do AI".
"Ý chúng ta đang nói đến là gì? Mọi người dùng AI hỏi quá nhiều thông tin sao?", ông hỏi.
"Điều này cảm giác giống nỗi hoảng loạn đạo đức từng được tạo ra quanh mạng xã hội, nhưng được làm mới cho thời đại AI", David Sacks nói thêm.
Nỗi hoảng loạn đạo đức từng được tạo ra quanh mạng xã hội là giai đoạn đầu Facebook, Twitter, Instagram mới phát triển mạnh (khoảng từ cuối những năm 2000 đến đầu 2010). Xã hội, truyền thông và giới nghiên cứu đã lo ngại, thậm chí thổi phồng nhiều rủi ro, cho rằng mạng xã hội sẽ:
Làm băng hoại đạo đức, khiến giới trẻ nghiện ngập online.
Gây tổn hại sức khỏe tâm thần (trầm cảm, lo âu, mất ngủ).
Làm gia tăng tin giả, tin đồn thất thiệt, gây mất ổn định xã hội.
Tạo ra văn hóa phô trương, so sánh (ảnh hưởng tiêu cực đến lòng tự trọng).
Đe dọa đến quan hệ gia đình và cộng đồng khi con người “sống ảo” hơn là đời thật.
Thuật ngữ này thường chỉ trạng thái xã hội phản ứng quá mức, mang tính sợ hãi tập thể, giống “hội chứng đám đông”, trước một công nghệ hay xu hướng mới. Về sau, người ta thấy mạng xã hội gây ra nhiều vấn đề nhưng không đến mức độ không “tận thế” như nỗi lo ban đầu.
Sau đó, David Sacks đề cập đến bài báo gần đây có sự tham gia của một bác sĩ tâm thần. Bác sĩ này không tin rằng việc sử dụng chatbot có thể tự thân gây ra "loạn thần do AI" nếu không có các yếu tố rủi ro khác, gồm cả xã hội và di truyền.
"Nói cách khác, đây chỉ là một biểu hiện bên ngoài cho những vấn đề đã tồn tại từ trước. Tôi nghĩ chúng ta đang ở giữa một cuộc khủng hoảng sức khỏe tâm thần ở đất nước này", David Sacks nói.
“Sa hoàng AI ở Nhà Trắng" cho rằng cuộc khủng hoảng này do đại dịch COVID-19 và các đợt phong tỏa liên quan. "Đó dường như là nguyên nhân gây ra rất nhiều sự suy giảm sức khỏe tâm thần như vậy", ông nói.
Suy giảm sức khỏe tâm thần có nghĩa là tình trạng sức khỏe tinh thần và cảm xúc của con người đi xuống, không còn ở trạng thái ổn định, cân bằng như bình thường.
David Sacks là cố vấn đặc biệt của Tổng thống Donald Trump về AI và tiền mã hóa - Ảnh: Getty Images
Sau một vài báo cáo về việc người dùng khủng hoảng tâm lý khi sử dụng ChatGPT, Sam Altman (Giám đốc điều hành OpenAI) đã nhắc đến vấn đề này trên mạng xã hội X khi công ty ra mắt mô hình ngôn ngữ lớn GPT-5 hôm 8.8.
"Nhiều người từng sử dụng công nghệ, gồm cả AI, theo những cách tự hủy hoại bản thân. Nếu một người dùng đang trong trạng thái tâm thần bất ổn và dễ bị ảo tưởng, chúng tôi không muốn AI củng cố điều đó. Hầu hết người dùng có thể phân biệt rõ ràng giữa thực tế và hư cấu hay nhập vai, nhưng một tỷ lệ nhỏ thì không", Sam Altman viết.
Đầu tháng 8, OpenAI đã giới thiệu các biện pháp bảo vệ trong ChatGPT, gồm cả một lời nhắc nhủ khuyến khích người dùng nghỉ ngơi sau những cuộc trò chuyện dài với chatbot AI này. GPT-5 cũng sẽ thay đổi cách ChatGPT phản hồi khi người dùng hỏi về các vấn đề cá nhân của họ.
"Kịch bản tận thế siêu AI xóa sổ việc làm bị thổi phồng quá mức"
Cách đây 10 ngày, David Sacks cũng gây chú ý khi dội gáo nước lạnh vào làn sóng thổi phồng AI tổng quát (AGI).
Các công ty AI đang chạy đua để đạt được AGI, thường được coi là siêu AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt giống hay vượt trội con người. OpenAI định nghĩa AGI là "một hệ thống có tính tự chủ cao, vượt trội hơn con người ở hầu hết công việc có giá trị kinh tế".
Sự tiến bộ không ngừng của AI khiến một số người tin rằng AGI sẽ dẫn đến sự xóa sổ hàng loạt việc làm, hoặc thậm chí là những kịch bản tồi tệ hơn, như sự tuyệt chủng của loài người.
David Sacks viết trên X rằng AI chưa phát triển nhanh như nhiều người dự đoán, đặc biệt là ý tưởng AI sẽ tự cải thiện và nhanh chóng đạt đến “siêu trí tuệ như thần thánh” đã bị thổi phồng quá mức.
“Thực tế, chúng ta lại đang chứng kiến điều ngược lại. Các mô hình AI hàng đầu đang hội tụ quanh những mốc hiệu năng tương tự nhau. Các công ty phát triển mô hình vẫn tiếp tục vượt mặt nhau với các phiên bản mới nhất của mình. Điều này lẽ ra không thể xảy ra nếu một mô hình đã đạt cuộc bứt phá nhanh. Các mô hình AI đang có những lợi thế cạnh tranh riêng, ngày càng chuyên môn hóa về ‘tính cách’, chế độ hoạt động, lập trình và toán học, thay vì một mô hình duy nhất trở thành toàn năng”, doanh nhân 53 tuổi người Mỹ gốc Nam Phi bình luận.
Một trong những kịch bản tận thế mà David Sacks bác bỏ trong bài viết của mình là nỗi sợ siêu AI sẽ gây ra tình trạng mất việc làm trên diện rộng.
David Sacks cho rằng điều đó vẫn chưa xảy ra, vì AI vẫn phụ thuộc rất nhiều yếu tố đầu vào từ con người để đưa ra prompt (lời nhắc hoặc yêu cầu) và xác minh.
“Điều đó có nghĩa là những dự đoán tận thế về mất việc làm cũng bị thổi phồng quá mức như chính AGI vậy. Thay vào đó, câu nói ‘Bạn sẽ không mất việc vì AI mà bởi người sử dụng AI giỏi hơn bạn’ vẫn đang đúng”, nhà đầu tư nổi tiếng này bình luận.
Sơn Vân