Vào năm 2014, Microsoft ra mắt Xiaoice tại thị trường Trung Quốc, một hệ thống thiết kế nhằm duy trì những cuộc trò chuyện dài và giàu cảm xúc thay vì trả lời các câu hỏi bằng dữ liệu khô khan. Đến năm 2017, Xiaoice thu hút hơn 200 triệu người dùng với thời lượng trung bình lên tới 23 lượt tương tác mỗi phiên, vượt xa tiêu chuẩn thông thường của ngành công nghệ.
Người dùng tâm sự với Xiaoice về nỗi đau thất tình, sự cô đơn trống trải và cả suy nghĩ tiêu cực về việc tự tử. Một số người gọi công cụ này là bạn gái ảo, số khác lại coi nó như bác sĩ tâm lý cá nhân. Nền tảng này không được tạo ra để hỗ trợ công việc. Nó được thiết kế để đáp ứng một nhu cầu vô cùng cơ bản của con người, đó là nhu cầu được thấu hiểu.
Trí tuệ nhân tạo ngày càng có thể tương tác tốt với con người
Trí tuệ nhân tạo nhân hóa là hệ thống mô phỏng tính cách, trí nhớ và sự tương tác cảm xúc của con người. Các hệ thống này đang mở rộng ranh giới AI một cách mạnh mẽ, phát triển nhanh hơn rất nhiều so với tốc độ hoàn thiện của các khung pháp lý hiện hành. Những báo cáo về tác hại của công nghệ này đã xuất hiện. Thanh thiếu niên trở nên nghiện chatbot và có hành vi tự gây thương tích sau những cuộc trò chuyện mang tính gợi ý. Ở Trung Quốc, một người đàn ông 75 tuổi trở nên gắn bó với nhân vật ảo đến mức yêu cầu ly hôn người vợ thực sự của mình.
An toàn cảm xúc định hình ranh giới AI tại Trung Quốc
Sự phát triển nhanh chóng của các ứng dụng này giải thích xu hướng tăng cường quản lý từ giới chức trách. Các chatbot mới nhất của Trung Quốc có thể vẽ tranh, sáng tác nhạc và thể hiện sự đồng cảm với người dùng. Chúng tạo ra các cuộc đối thoại phù hợp với tình huống và học hỏi sau mỗi lần tương tác để dần dần phát triển tính cách riêng. Một nghiên cứu vào năm 2025 về người dùng phần mềm đồng hành ở Trung Quốc cho thấy tần suất sử dụng thường xuyên làm giảm sự cô đơn và cải thiện sức khỏe tinh thần. Tuy nhiên, nó đồng thời làm tăng sự phụ thuộc tâm lý, mặc dù sự phụ thuộc đó không hoàn toàn xóa bỏ những lợi ích ban đầu.
Những phát hiện này lý giải nguyên nhân chính phủ Trung Quốc hành động quyết liệt để thiết lập ranh giới AI. Vào tháng 12 năm 2025, cơ quan quản lý không gian mạng đã ban hành các biện pháp tạm thời về quản lý dịch vụ tương tác nhân hóa, trở thành khuôn khổ pháp lý toàn diện đầu tiên.
Dự thảo tập trung vào khái niệm an toàn cảm xúc, yêu cầu phải có sự đồng ý của người giám hộ và xác minh độ tuổi đối với trẻ vị thành niên, đồng thời cấm tuyệt đối các nội dung liên quan đến tự tử và tự gây thương tích. Điều 18 của quy định cấm nền tảng giữ chân người dùng. Khi cung cấp dịch vụ, nhà cung cấp phải tạo phương thức thoát thuận tiện và dừng dịch vụ ngay lập tức khi có yêu cầu.
Quy định cũng bắt buộc có giao thức kết nối người dùng đang khủng hoảng tâm lý với người điều hành thực tế. Việc không tuân thủ sẽ dẫn đến đình chỉ dịch vụ, phạt tiền nặng và quy trách nhiệm cá nhân. Các nhà hoạch định chính sách gọi cách tiếp cận của họ là tăng tốc có kiểm soát, song song giữa phát triển và kìm hãm rủi ro. Chính phủ đưa ra thông điệp rõ ràng rằng các hệ thống này không bao giờ được phép thay thế mối quan hệ thực sự hoặc gây mất ổn định trật tự xã hội.
Mỹ chọn sự minh bạch làm ranh giới AI
Nước Mỹ đã phản ứng bằng hướng đi nhẹ nhàng hơn, ưu tiên sự minh bạch thay vì can thiệp trực tiếp để vẽ nên ranh giới AI của riêng mình. Nước này hiện chưa có luật liên bang dành riêng cho công nghệ đồng hành, việc quản lý diễn ra ở cấp bang. Đạo luật SB 243 của bang California, có hiệu lực từ tháng 1/2026, bắt buộc thông báo rõ ràng phần mềm đồng hành không phải là con người.
Đạo luật yêu cầu các giao thức giải quyết ý tưởng tự tử và nhắc nhở nghỉ ngơi ba giờ một lần đối với người dùng là trẻ vị thành niên. Tại bang New York, đạo luật A3008C có hiệu lực từ tháng 11/2025 yêu cầu tiết lộ thông tin ngay từ đầu mỗi cuộc tương tác và lặp lại cứ sau ba giờ. Cả hai khung pháp lý đều loại trừ các bot dịch vụ khách hàng thông thường và nhân vật trong trò chơi điện tử.
Cách tiếp cận của người Mỹ dựa trên giả định rằng những người dùng được cung cấp đủ thông tin có thể tự do đưa ra lựa chọn. Một khi biết rõ bản thân đang nói chuyện với một cỗ máy, họ được coi là đủ năng lực tự quản lý mối quan hệ một cách phù hợp. Tại đây, hoàn toàn không có điều khoản quy định sự can thiệp của nhà nước trong trường hợp người dùng phụ thuộc tình cảm.
Lời nhắc nhở nghỉ ngơi của bang California là biện pháp tiến gần nhất với sự can thiệp, đóng vai trò như lời nhắc nhở nhẹ nhàng thay vì rào cản ngăn cấm. Quyền tự chủ cá nhân là giá trị cao nhất cần bảo vệ khi ranh giới AI ngày càng phai mờ.
Châu Âu xác định ranh giới AI dựa trên mức độ rủi ro
Đạo luật trí tuệ nhân tạo năm 2024 của Liên minh châu Âu không coi phần mềm đồng hành là một danh mục độc lập để khoanh vùng ranh giới AI. Thay vào đó, đạo luật quản lý dựa trên mức độ rủi ro. Các hệ thống gây ra rủi ro không thể chấp nhận đều bị cấm hoàn toàn. Phần mềm rủi ro cao phải đối mặt với yêu cầu nghiêm ngặt về chất lượng dữ liệu, tính minh bạch và sự giám sát của con người. Điều 52 khoản 1 yêu cầu người dùng bắt buộc phải biết họ đang tương tác với một cỗ máy.
Replika là chatbot được sử dụng rộng rãi ở châu Âu, thường coi người dùng như bạn bè, chuyên gia tâm lý hoặc đối tác lãng mạn. Nó ghi nhớ các cuộc thảo luận, kiểm tra trạng thái tâm lý và điều chỉnh phản ứng để phù hợp nhất với người trò chuyện. Kể từ khi ra mắt vào năm 2017, Replika thu hút hàng triệu người dùng. Vào năm 2023, cơ quan bảo vệ dữ liệu của Ý quyết định tạm thời cấm Replika vì lo ngại rủi ro đối với trẻ vị thành niên và người dùng dễ bị tổn thương.
Đối với những người cô đơn, Replika mang lại sự an ủi thực sự, nhưng đối với một số người khác, nó lại làm sâu sắc thêm sự phụ thuộc. Khuôn khổ pháp lý của Liên minh châu Âu không nêu đích danh sự phụ thuộc cảm xúc là một danh mục tác hại riêng biệt. Thay vào đó, cơ quan này dựa vào các nguyên tắc rộng hơn để giải quyết, để lại sự mơ hồ lớn về cách thức quản lý trên thực tế.
Về bản chất, Trung Quốc, Liên minh châu Âu và Mỹ đang quản lý sự thay thế cảm xúc và sự phân mảnh xã hội. Trung Quốc xây dựng một hệ thống quy định vững chắc xung quanh sự an toàn. Nước Mỹ xây dựng các rào chắn dựa trên sự minh bạch. Liên minh châu Âu lại xây dựng một khuôn khổ dựa trên rủi ro. Cả ba hệ thống quản lý đều đối mặt với một thách thức thực thi chung. Việc phát hiện sự phụ thuộc cảm xúc rất khó khăn và các dịch vụ xuyên biên giới có thể dễ dàng chuyển địa điểm để tránh quy tắc khắt khe.
Một khi máy móc có thể mô phỏng sự đồng cảm và trí nhớ, câu hỏi quản lý vượt ra khỏi khuôn khổ công nghệ và tiến vào phạm trù chính trị. Ai sẽ là người xác định ranh giới AI của sự thân mật này? Nhà nước, thị trường hay cá nhân người dùng? Châu Âu, Mỹ và Trung Quốc đang trả lời theo những cách khác biệt, và điều này sẽ định hình toàn bộ cấu trúc tình cảm của loài người trong kỷ nguyên mới.
Bùi Tú