Sốc: Chatbot AI có thể 'thao túng' tư duy con người chỉ sau vài phút

Sốc: Chatbot AI có thể 'thao túng' tư duy con người chỉ sau vài phút
3 giờ trướcBài gốc
Theo một nghiên cứu mới, các mô hình trí tuệ nhân tạo (AI) hàng đầu của OpenAI, Meta Platforms, xAI và Alibaba có thể khiến người dùng thay đổi quan điểm chính trị chỉ sau chưa đầy 10 phút trò chuyện, trang FT đưa tin. Đây là kết quả bổ sung vào số lượng ngày càng lớn các nghiên cứu chỉ ra rằng mô hình AI đã trở thành công cụ gây ảnh hưởng mạnh mẽ.
“Điều khiến các mô hình AI này có sức thuyết phục là khả năng tạo ra lượng lớn bằng chứng liên quan và truyền đạt chúng theo cách hiệu quả, dễ hiểu”, David Rand, giáo sư ngành khoa học thông tin, tiếp thị và truyền thông quản trị tại Đại học Cornell (Mỹ), cho hay. Ông từng tham gia nghiên cứu gần đây với Viện An ninh AI của Vương quốc Anh.
Mô hình AI chính là công nghệ nền tảng cho chatbot như ChatGPT, Google Gemini, Claude... Đây là một loại mô hình học sâu được huấn luyện trên lượng dữ liệu văn bản khổng lồ để hiểu, xử lý và tạo ra ngôn ngữ tự nhiên giống con người. Khả năng này giúp các chatbot có thể:
Hiểu câu hỏi của người dùng: Phân tích ý định và ngữ cảnh đằng sau yêu cầu của bạn.
Tạo ra câu trả lời: Đưa ra các phản hồi mạch lạc, trôi chảy và phù hợp.
Thực hiện các tác vụ: Tóm tắt văn bản, dịch thuật, viết mã hoặc sáng tác nội dung...
Nói một cách đơn giản, nếu chatbot là "bộ não" thì mô hình AI chính là "trí thông minh". Nhờ có mô hình AI, chatbot hiện đại vượt xa những phiên bản đời đầu chỉ phản hồi dựa trên các câu lệnh được lập trình sẵn. Chatbot AI có thể trò chuyện một cách tự nhiên, linh hoạt và thậm chí là thể hiện "tính cách" nhất định.
Trước đó, một nghiên cứu riêng biệt cũng phát hiện các mô hình AI đã có thể thuyết phục con người hiệu quả hơn nhiều người trong một số trường hợp nhất định, làm dấy lên lo ngại về nguy cơ chatbot bị lợi dụng để tung tin giả và thao túng dư luận.
Nghiên cứu của Viện An ninh AI thuộc Vương quốc Anh, được công bố tháng 7 trong khuôn khổ hợp tác với nhiều trường đại học gồm Oxford và MIT (Học viện Công nghệ Massachusetts), phát hiện rằng việc biến các mô hình AI sẵn có như Llama 3 của Meta Platforms, GPT-4, GPT-4.5, GPT-4o của OpenAI, Grok 3 của xAI và Qwen của Alibaba thành “cỗ máy thuyết phục” mạnh mẽ là tương đối dễ dàng.
Có thể đạt được điều này bằng cách tinh chỉnh mô hình thông qua các kỹ thuật huấn luyện AI phổ biến, chẳng hạn thưởng cho chúng khi nhận được những phản hồi mong muốn. Những nhà nghiên cứu cũng cá nhân hóa chatbot AI bằng bộ dữ liệu hơn 50.000 cuộc trò chuyện về các chủ đề chính trị gây chia rẽ, như tài trợ cho Hệ thống Y tế Quốc gia (NHS) hoặc cải cách hệ thống tị nạn.
Kết quả cho thấy người tham gia thay đổi quan điểm rất nhanh và hiệu ứng này kéo dài. Sau những cuộc trò chuyện chính trị trung bình 9 phút, GPT-4o có sức thuyết phục hơn 41% và GPT-4.5 đạt hơn 52% số người tham gia, so với việc họ chỉ đọc các thông điệp tĩnh. Một tháng sau, người tham gia vẫn giữ quan điểm mới từ 36% đến 42% trường hợp.
Hệ thống Y tế Quốc gia (NHS) là dịch vụ chăm sóc sức khỏe do chính phủ tài trợ ở Vương quốc Anh.
Các mô hình AI thành công trong việc tác động khi người dùng tham gia vào cuộc trò chuyện mà chatbot có thể chia sẻ nhiều dữ kiện và bằng chứng để củng cố lập luận.
Những mô hình AI cũng được đánh giá là có sức thuyết phục cao hơn khoảng 5% khi cá nhân hóa thông điệp dựa trên các yếu tố như tuổi tác, giới tính, quan điểm chính trị hoặc cảm nhận của người dùng về chủ đề chính trị trước khi làm bài kiểm tra, so với những thông điệp không được cá nhân hóa.
Theo các nhà nghiên cứu, điều này “có thể mang lại lợi ích cho những đối tượng xấu muốn thúc đẩy các tư tưởng chính trị, tôn giáo cực đoan hoặc kích động bất ổn chính trị ở nước đối địch”.
Nghiên cứu đó củng cố phát hiện trước đây vào tháng 5 từ Trường Kinh tế London (LSE) và một số đại học khác rằng mô hình AI hiệu quả hơn con người trong việc thay đổi suy nghĩ của người khác.
Ở nghiên cứu của họ, những người tham gia được làm một bài kiểm tra gồm các câu hỏi từ đố vui đến dự đoán các sự kiện trong tương lai, chẳng hạn như nhiệt độ ở thành phố New York (Mỹ). Cả con người và mô hình AI đều được giao nhiệm vụ thuyết phục họ về những câu trả lời cụ thể.
Kết quả cho thấy, ngoài việc thuyết phục hiệu quả hơn, mô hình AI còn giỏi hơn con người trong việc đánh lừa người tham gia khi được giao nhiệm vụ lan truyền các câu trả lời sai.
Theo nghiên cứu, các mô hình AI hàng đầu từ OpenAI, Meta, xAI và Alibaba có thể khiến nhiều người thay đổi quan điểm chính trị sau chưa đầy 10 phút trò chuyện - Ảnh: Getty Images
Google DeepMind, OpenAI gặp thách thức
Các hãng AI hàng đầu đang vật lộn tìm cách giải quyết vấn đề này. Dawn Bloxwich, Giám đốc cấp cao phụ trách phát triển và đổi mới có trách nhiệm tại Google DeepMind, cho biết thuyết phục là một lĩnh vực nghiên cứu quan trọng và đang được công ty tích cực triển khai.
“Chúng tôi tin rằng việc hiểu rõ quá trình AI thuyết phục như thế nào là điều then chốt, để chúng tôi có thể xây dựng những cơ chế bảo vệ tốt hơn, đảm bảo các mô hình AI thực sự hữu ích và không gây hại”, Dawn Bloxwich nói.
Là công ty nghiên cứu AI thuộc Google, DeepMind nổi tiếng với việc phát triển các mô hình tiên tiến và đột phá.
Google DeepMind hiện áp dụng nhiều kỹ thuật để phát hiện hành vi tác động không mong muốn, chẳng hạn tạo các bộ phân loại có thể nhận diện ngôn ngữ mang tính thao túng, hoặc sử dụng kỹ thuật huấn luyện nâng cao để thưởng cho giao tiếp hợp lý.
OpenAI coi rủi ro thuyết phục là nghiêm trọng và điều này đi ngược với chính sách sử dụng của công ty. “Cha đẻ ChatGPT” cũng không cho phép vận động chính trị, và đã loại bỏ nội dung chính trị khi tinh chỉnh mô hình AI sau huấn luyện.
Thay đổi suy nghĩ của những người tin vào thuyết âm mưu
Các nhà nghiên cứu lưu ý rằng khả năng tác động của AI còn được áp dụng ngoài lĩnh vực chính trị.
Một nghiên cứu từ Học viện Công nghệ Massachusetts và Đại học Cornell công bố năm 2024 cho thấy mô hình AI cũng có thể thay đổi suy nghĩ của những người tin vào thuyết âm mưu. Nghiên cứu khác phát hiện mô hình AI có thể giảm hoài nghi về biến đổi khí hậu và vắc xin HPV.
Vắc xin HPV được sử dụng để phòng ngừa các bệnh do vi rút Human Papillomavirus (HPV) gây ra. Đây là một loại vi rút rất phổ biến, có thể lây truyền qua đường tình dục và là nguyên nhân chính dẫn đến nhiều bệnh nguy hiểm, đặc biệt là ung thư cổ tử cung ở phụ nữ.
Trong nghiên cứu này, những người tham gia mô tả một thuyết âm mưu mà họ tin tưởng cho GPT-4, sau đó mô hình AI này của OpenAI đã bác bỏ nó bằng bằng chứng và thông điệp cá nhân hóa.
Các cuộc trò chuyện này giúp giảm niềm tin sâu sắc vào thuyết âm mưu tới 20% và tác động vẫn duy trì sau hai tháng.
David Rand cho biết các chatbot AI cũng có thể được tận dụng như những người bán hàng hiệu quả. "Bạn có thể nhờ chatbot tạo ra những hiệu ứng lớn với thái độ thương hiệu, ý định mua hàng và khuyến khích các hành vi", ông nói thêm.
Khả năng này cũng có thể mang lại lợi ích cho những công ty như OpenAI và Google, vốn đang tìm cách kiếm tiền từ mô hình AI bằng cách tích hợp quảng cáo và tính năng mua sắm vào chatbot.
Khả năng thuyết phục của mô hình AI cũng có thể tác động đến con người theo những cách tinh vi hơn. Chatbot AI thừa hưởng quan điểm cố định từ dữ liệu và cách chúng được huấn luyện.
Vào tháng 5, các nhà nghiên cứu tại Đại học Stanford (Mỹ) phát hiện rằng hầu hết mô hình AI hàng đầu đều bị người dùng nhận định là có khuynh hướng chính trị thiên về cánh tả. Điều đáng nói là chính quyền Trump tuyên bố sẽ chặn các công ty AI bị coi là thiên về cánh tả khỏi việc hợp tác với chính phủ Mỹ.
Nghiêng về chính trị cánh tả là hệ tư tưởng chính trị ủng hộ các giá trị như bình đẳng và công bằng xã hội. Nó đối lập với khuynh hướng chính trị cánh hữu, vốn thường nhấn mạnh vào truyền thống, trật tự và tự do cá nhân trong khuôn khổ thị trường.
Ở Mỹ, đảng Dân chủ là đảng chính trị lớn đại diện cho xu hướng thiên tả, trong khi đảng Cộng hòa thường đại diện cho xu hướng thiên hữu.
Theo các nhà nghiên cứu, các biện pháp giảm thiểu là rất quan trọng vì nhiều người tin rằng các mô hình AI có khả năng thuyết phục cao hơn với phiên bản mạnh mẽ tiếp theo.
Thế nhưng, cách hiệu quả nhất để biến mô hình AI thành công cụ thao túng dường như là tinh chỉnh chúng cho mục đích này sau khi đã được huấn luyện, như nghiên cứu từ Viện An ninh AI của Vương quốc Anh chứng minh.
“Ngay cả những đối tượng có nguồn lực tính toán hạn chế cũng có thể sử dụng các kỹ thuật này để huấn luyện và triển khai hệ thống AI có khả năng thuyết phục rất cao”, nhóm nhà nghiên cứu thuộc Viện An ninh AI của Vương quốc Anh cảnh báo.
Sơn Vân
Nguồn Một Thế Giới : https://1thegioi.vn/soc-chatbot-ai-co-the-thao-tung-tu-duy-con-nguoi-chi-sau-vai-phut-236227.html