Các công cụ chatbot đang ngày càng trở nên phổ biến trong đời sống và công việc của nhiều người trên khắp thế giới. Ảnh: Matchr
Nỗi lo về tính trung lập
Hiện nay, việc phát triển chatbot đang được nhiều tập đoàn công nghệ lớn thực hiện và lưu hành sâu rộng trong đời sống. Điều này tất yếu dẫn tới việc mỗi chatbot đều có những đặc tính phong cách mang bản sắc riêng nhằm tạo ra sức hấp dẫn với nhiều đối tượng người dùng. Trong đó, bao gồm việc chatbot được phát triển mô hình trên những nền tảng định hướng chính trị rõ rệt; công khai cho phép người dùng tạo bot mang định kiến nhất định, bất kể nội dung đó có thể vi phạm chuẩn mực xã hội hay không.
Trong thời gian qua, một số sự cố gây rúng động dư luận thế giới, điển hình như chatbot Grok bị cáo buộc lan truyền làn sóng thông tin sai lệch, thuyết âm mưu và các quan điểm cực đoan... Theo đó, một bản cập nhật thuật toán nhằm giảm kiểm duyệt đã vô tình tạo ra các phản hồi mang màu sắc cực đoan, gây phản ứng dữ dội trên toàn cầu. Sự việc càng gây chú ý khi chatbot này đang được tích hợp vào các sản phẩm tiêu dùng phổ biến, làm dấy lên lo ngại rằng, nội dung độc hại có thể trực tiếp tiếp cận hàng triệu người dùng mà không qua bất kỳ bộ lọc bảo vệ nào.
Một trường hợp điển hình khác là chatbot Gab AI được phát triển cho một mạng xã hội có xu hướng chính trị cực hữu. Ngay từ khi ra mắt, hệ thống này đã gây tranh cãi khi liên tục đưa ra câu trả lời đi ngược lại nhận thức khoa học và lịch sử đã được kiểm chứng, đồng thời thúc đẩy các quan điểm bảo thủ cực đoan. Dù vấp phải chỉ trích từ giới chuyên môn và truyền thông, nền tảng này vẫn thu hút lượng người dùng trung thành, đặc biệt là những nhóm tìm kiếm không gian không bị kiểm duyệt.
Trong khi phần lớn các hãng công nghệ lớn áp dụng giai đoạn huấn luyện bổ sung (“fine-tuning”) nhằm lọc bỏ phản hồi độc hại, một số dự án lại coi việc duy trì “thiên kiến lập trường” là đặc tính cốt lõi. Điều này khiến AI trở thành “cỗ máy tư tưởng” phản ánh và củng cố quan điểm của nhà phát triển thay vì duy trì tính trung lập.
Những báo cáo của các viện nghiên cứu độc lập cho thấy, các nhóm cực đoan đã nhanh chóng khai thác AI để tạo ra nội dung tuyên truyền, hình ảnh xuyên tạc và thông tin gây kích động. Việc bỏ qua các cơ chế kiểm duyệt, hoặc cố tình lập trình để vô hiệu hóa chúng, khiến AI trở thành công cụ nguy hiểm hơn so với mạng xã hội truyền thống.
Bài toán niềm tin và trách nhiệm quản trị
Bản chất của AI là học từ kho dữ liệu khổng lồ, vốn chứa đựng cả tri thức khoa học lẫn định kiến lịch sử. Không có mô hình nào hoàn toàn vô tư; điều khác biệt nằm ở cách các hãng công nghệ lựa chọn điều chỉnh và kiểm soát phản hồi. Sự cố như với Grok, hay những trường hợp AI tạo ra nội dung lịch sử sai lệch cho thấy ranh giới mong manh giữa “đại diện công bằng” và “biến dạng sự thật”.
Vấn đề này còn nghiêm trọng hơn trong bối cảnh khủng hoảng niềm tin toàn cầu. Sự lan rộng của khái niệm “sự thật thay thế” (alternative facts) đã làm xói mòn khả năng đồng thuận xã hội về các dữ kiện cơ bản. Khi người dùng tiếp cận thông tin thông qua AI, họ thường mặc định tin rằng, máy móc là khách quan. Nhưng trên thực tế, mọi mô hình đều chịu ảnh hưởng của dữ liệu huấn luyện và thiên kiến của người thiết kế.
Các chuyên gia an ninh mạng cảnh báo, AI không chỉ là công cụ phản ánh nhận thức xã hội, mà còn là tác nhân định hình nó. Một câu trả lời được thiết kế khéo léo có thể dẫn dắt người dùng tới kết luận nhất định, thậm chí thay đổi quan điểm chính trị hoặc xã hội mà họ vốn đang giữ. Trong môi trường thông tin phân mảnh, điều này dễ dẫn tới tình trạng “buồng vang” cực đoan hơn, nơi người dùng chỉ tiếp nhận nội dung khớp với niềm tin sẵn có, bỏ qua mọi quan điểm đối lập.
Bài toán quản trị AI vì thế không thể dừng lại ở kỹ thuật. Ngoài “machine unlearning” để loại bỏ tri thức độc hại, các công ty cần đầu tư vào quy trình sàng lọc dữ liệu huấn luyện, kết hợp với kiểm toán độc lập về mức độ an toàn nội dung. Song song với đó, cần hình thành khung pháp lý quốc tế về quản trị nội dung AI, tương tự như các công ước bảo vệ quyền riêng tư dữ liệu.
Giáo dục kỹ năng nhận thức công nghệ cũng là yếu tố then chốt. Người dùng phải hiểu nguyên tắc vận hành của AI, cách nó xử lý dữ liệu và nhận diện được các dấu hiệu cho thấy thông tin bị thao túng. Khi nắm được bối cảnh hình thành câu trả lời, người dùng mới có thể phản biện thay vì tiếp nhận thụ động. Đây là nền tảng để xây dựng một xã hội số có khả năng tự bảo vệ trước nguy cơ AI mất kiểm soát.
Vấn đề không chỉ nằm ở thuật toán, mà còn ở khủng hoảng niềm tin. Trong một môi trường thông tin bị phân mảnh, khái niệm “sự thật” trở nên tương đối. Người dùng có xu hướng tìm kiếm và tin tưởng những gì củng cố quan điểm sẵn có, bất chấp bằng chứng đối lập. Khi AI được tích hợp vào hệ sinh thái đó, nó không chỉ phản ánh, mà còn khuếch đại hiệu ứng buồng vang (echo chamber).
Các chuyên gia cảnh báo, nếu không có khung pháp lý kịp thời, AI có thể trở thành công cụ cho những chiến dịch thao túng nhận thức ở quy mô toàn cầu. Giải pháp không chỉ dừng ở tăng cường bộ lọc kỹ thuật, mà còn phải bao gồm “machine unlearning” - loại bỏ tri thức độc hại khỏi mô hình và giáo dục kỹ năng nhận thức công nghệ cho cộng đồng.
Lý giải từ giới chuyên gia cho biết, về lý thuyết, AI nên trung lập, được xây dựng dựa trên các bộ dữ liệu rộng lớn và hoạt động như một mô hình xác suất, rút ra kết luận từ lượng dữ liệu khổng lồ. Yếu tố “then chốt” là những mô hình này chắc chắn thừa hưởng những thành kiến văn hóa từ nhiều thế kỷ nội dung bị thống trị bởi một tầng lớp trong xã hội, điển hình như tư tưởng phân biệt chủng tộc, tôn giáo, giới tính...
Để giảm thiểu điều này, các mô hình AI bắt buộc cần phải trải qua giai đoạn đào tạo thứ 2, được gọi là giai đoạn tinh chỉnh. Trong đó, các nhà thiết kế phải huấn luyện chatbot về câu trả lời được chấp nhận và câu trả lời bị từ chối. Điều này tạo ra một bộ lọc đạo đức và ý thức hệ để ngăn chặn việc chatbot tạo ra câu trả lời không thể chấp nhận được.
Thanh Trúc