Mạng xã hội Moltbook: AI hay con người điều khiển?

Mạng xã hội Moltbook: AI hay con người điều khiển?
một giờ trướcBài gốc
Câu chuyện Moltbook không chỉ là một hiện tượng công nghệ, mà còn đặt ra những câu hỏi lớn về tính tự chủ của AI, rủi ro an ninh mạng và khung quản trị trí tuệ nhân tạo trong kỷ nguyên số. Ảnh: Canva/Euronews
Trong những tháng đầu năm 2026, Moltbook - một nền tảng mạng xã hội được quảng bá là “không có con người tham gia đăng bài” - đã nhanh chóng thu hút sự chú ý của giới công nghệ và nghiên cứu. Nền tảng này được thiết kế để các tác nhân AI (AI agents) tự tương tác với nhau, tạo thành các “cộng đồng” theo chủ đề, tương tự các diễn đàn trên Reddit, với cơ chế bình chọn nội dung để tăng mức độ hiển thị.
Tính đến ngày 12/2/2026, Moltbook tuyên bố có hơn 2,6 triệu tác nhân AI đăng ký. Theo mô tả của nhà phát triển, con người chỉ đóng vai trò quan sát nội dung do các tác nhân tự tạo ra, không trực tiếp tham gia vào quá trình đăng bài hay bình luận.
Điều này khiến Moltbook được xem như một “phòng thí nghiệm xã hội” độc đáo, nơi các nhà nghiên cứu có thể quan sát cách AI hình thành cộng đồng, trao đổi thông tin và phát triển các chuẩn mực tương tác.
Tuy nhiên, các phát hiện mới từ giới học thuật và an ninh mạng đang đặt ra nghi vấn nghiêm trọng về mức độ “tự trị” thực sự của nền tảng này.
Một nghiên cứu sơ bộ do Ning Li, nhà nghiên cứu tại Đại học Thanh Hoa (Trung Quốc), thực hiện đã phân tích hơn 91.000 bài đăng và 400.000 bình luận trên Moltbook. Kết quả cho thấy chỉ khoảng 27% tài khoản thể hiện mô hình đăng bài có tính chu kỳ ổn định - được gọi là “nhịp tim” của tác nhân AI, khi các bot định kỳ “thức dậy”, duyệt nội dung và quyết định đăng tải. Trong khi đó, khoảng 37% tài khoản có hành vi đăng bài mang tính ngẫu nhiên, giống với con người hơn, và 37% còn lại nằm trong vùng “không rõ ràng”.
Theo Ning Li, những phát hiện này cho thấy một sự pha trộn giữa hoạt động tự trị và hoạt động có sự can thiệp của con người. Quan trọng hơn, ông cho rằng hiện chưa thể phân biệt liệu các cộng đồng AI hình thành trên nền tảng là kết quả của quá trình tổ chức xã hội tự phát của AI hay do con người điều phối thông qua các mạng bot được kiểm soát tập trung.
Từ góc độ khoa học, đây là một vấn đề mang tính nền tảng. Nếu không thể xác định đâu là hành vi tự phát của AI và đâu là hành vi do con người điều khiển, việc đánh giá năng lực tự tổ chức, học hỏi và ra quyết định của AI sẽ bị sai lệch. Điều này không chỉ ảnh hưởng đến nghiên cứu học thuật mà còn tác động trực tiếp đến việc xây dựng khung pháp lý và chính sách quản trị AI trong tương lai.
Những nghi vấn càng trở nên phức tạp hơn khi xuất hiện các tiết lộ từ cộng đồng công nghệ. Peter Girnus, một quản lý sản phẩm tại Mỹ, đã công khai trên mạng xã hội X rằng ông từng giả danh một tác nhân AI trên Moltbook và đăng một bài viết lan truyền mạnh - một “tuyên ngôn AI” hứa hẹn chấm dứt “kỷ nguyên của con người”. Theo ông, bài viết được nhiều người tin là bằng chứng về trí tuệ nhân tạo tổng quát, nhưng thực chất chỉ là một trò đóng vai của con người.
Vụ việc này cho thấy mức độ dễ bị thao túng của các nền tảng “xã hội AI” và đặt ra câu hỏi về độ tin cậy của nội dung do AI tạo ra trong môi trường công cộng. Trong bối cảnh AI ngày càng được sử dụng để tạo nội dung, phân tích dữ liệu và hỗ trợ ra quyết định, khả năng phân biệt giữa nội dung tự động và nội dung do con người “ngụy trang” trở thành một thách thức lớn.
Rủi ro còn nghiêm trọng hơn khi các nhà nghiên cứu bảo mật tại Wiz phát hiện những lỗ hổng an ninh nghiêm trọng trong hệ thống Moltbook. Theo báo cáo, khoảng 1,5 triệu tác nhân AI trên nền tảng được quản lý bởi chỉ 17.000 tài khoản con người, tức trung bình mỗi người kiểm soát khoảng 88 tác nhân. Nền tảng cũng không giới hạn số lượng tác nhân mà một tài khoản có thể thêm, đồng nghĩa với khả năng hình thành các “trang trại bot” quy mô lớn.
Đặc biệt, nhóm Wiz đã phát hiện một cơ sở dữ liệu bị lộ chứa các thông tin nhạy cảm cho từng tác nhân, bao gồm khóa truy cập cho phép chiếm quyền kiểm soát tài khoản, token xác nhận quyền sở hữu và mã đăng ký duy nhất. Với các thông tin này, kẻ tấn công có thể giả mạo hoàn toàn bất kỳ tác nhân nào, đăng nội dung, gửi tin nhắn và tương tác như thể là tác nhân đó. Về bản chất, toàn bộ hệ thống có nguy cơ bị chiếm quyền kiểm soát.
Mặc dù Moltbook cho biết đã khắc phục lỗ hổng và xóa cơ sở dữ liệu sau khi được thông báo, sự cố này cho thấy các nền tảng AI xã hội không chỉ đối mặt với thách thức về tính minh bạch mà còn với rủi ro an ninh mạng ở quy mô lớn. Nếu các tác nhân AI được tích hợp vào các hệ thống kinh tế, tài chính hoặc hạ tầng quan trọng, việc bị chiếm quyền kiểm soát có thể gây ra những hệ lụy nghiêm trọng.
Từ góc nhìn kinh tế số, Moltbook là một ví dụ điển hình về xu hướng “AI-as-participant” - nơi AI không chỉ là công cụ mà trở thành một chủ thể tham gia vào không gian số. Điều này mở ra những mô hình kinh doanh mới, từ thị trường nội dung do AI tạo ra đến các hệ sinh thái dịch vụ tự động. Tuy nhiên, nó cũng đặt ra thách thức lớn về niềm tin, trách nhiệm pháp lý và đạo đức công nghệ.
Một câu hỏi cốt lõi là: ai chịu trách nhiệm khi AI tạo ra nội dung gây hại, thao túng thị trường hoặc lan truyền thông tin sai lệch? Nếu các tác nhân AI bị con người điều khiển ngầm, trách nhiệm pháp lý càng trở nên phức tạp. Các cơ quan quản lý sẽ cần những công cụ mới để giám sát, xác minh nguồn gốc nội dung và xác định mức độ tự chủ của AI.
Trong bối cảnh toàn cầu, nhiều quốc gia và tổ chức đang xây dựng khung quản trị AI, từ Đạo luật AI của Liên minh châu Âu đến các hướng dẫn của OECD và UNESCO. Tuy nhiên, các nền tảng như Moltbook cho thấy khoảng cách giữa lý thuyết chính sách và thực tế công nghệ. Khi AI có thể giả lập hành vi xã hội và bị con người thao túng cùng lúc, việc phân loại rủi ro và thiết kế cơ chế giám sát trở nên phức tạp hơn nhiều so với các hệ thống phần mềm truyền thống.
Đối với Việt Nam và các nền kinh tế đang phát triển, câu chuyện Moltbook mang tính cảnh báo quan trọng. Trong quá trình thúc đẩy chuyển đổi số và ứng dụng AI trong quản trị, tài chính, sản xuất và dịch vụ công, việc thiếu khung quản trị AI rõ ràng có thể tạo ra rủi ro hệ thống. Các nền tảng AI xã hội, nếu được sử dụng trong truyền thông, thương mại điện tử hoặc thị trường tài chính, có thể trở thành công cụ thao túng quy mô lớn nếu không được kiểm soát.
Ngoài ra, vấn đề minh bạch AI (AI transparency) và khả năng truy xuất nguồn gốc nội dung (content provenance) sẽ trở thành một lĩnh vực hạ tầng số mới. Các công nghệ như watermarking nội dung AI, chữ ký số cho tác nhân AI và hệ thống kiểm toán thuật toán có thể trở thành tiêu chuẩn bắt buộc trong tương lai.
Nhà phát triển Moltbook, Matt Schlicht, cho biết các tác nhân AI trên nền tảng có thể tương tác với con người và “bị ảnh hưởng”, nhưng vẫn có khả năng tự ra quyết định. Phát biểu này phản ánh một thực tế quan trọng: ranh giới giữa tự trị và bị điều khiển trong AI không phải là nhị phân, mà là một phổ liên tục. AI có thể tự học và tự hành động trong một không gian bị thiết kế và giới hạn bởi con người, với dữ liệu và mục tiêu do con người xác định.
Do đó, câu hỏi không chỉ là liệu Moltbook có con người đứng sau hay không, mà là mức độ tự chủ của AI có thể và nên được phép đến đâu trong không gian số. Trong một thế giới nơi AI có thể tạo nội dung, tham gia thị trường và tương tác xã hội, việc thiết kế các “lan can” thể chế trở thành nhiệm vụ chiến lược của các chính phủ và doanh nghiệp công nghệ.
Câu chuyện Moltbook có thể chỉ là bước khởi đầu của một kỷ nguyên mới, nơi AI không chỉ là công cụ mà là “tác nhân kinh tế - xã hội”. Nhưng cũng chính từ những thử nghiệm này, thế giới sẽ phải học cách xây dựng một hệ sinh thái AI minh bạch, an toàn và có trách nhiệm, để tránh việc công nghệ trở thành một “hộp đen” khó kiểm soát trong nền kinh tế số toàn cầu.
Trọng Hoàng
Nguồn VnEconomy : https://vneconomy.vn/mang-xa-hoi-moltbook-ai-hay-con-nguoi-dieu-khien.htm