Điểm đáng chú ý trong thông tin công bố không nằm ở “cái bắt tay”, mà ở hướng công nghệ: đưa các hệ thống AI vốn hoạt động trong môi trường số (avatar CG, AI đàm thoại) sang phần cứng robot có thể di chuyển và tương tác trong không gian thực.
Trong bối cảnh nhiều ngành đối mặt tình trạng thiếu hụt lao động và nhu cầu nâng hiệu quả vận hành, các mô hình “hình đại diện” trên màn hình đang được kỳ vọng tiến thêm một bước trở thành tác nhân hiện diện vật lý, có khả năng quan sát, di chuyển và hỗ trợ công việc tại chỗ.
Đó là lý do cụm từ “trí tuệ nhân tạo vật lý” (physical AI) xuất hiện dày hơn trong các thông báo liên quan robot thế hệ mới: AI không chỉ trả lời câu hỏi, mà còn phải gắn với cảm biến, cơ cấu chấp hành và điều khiển để thực hiện hành động trong thế giới thật.
Từ avatar đến AI có thể đi lại trong không gian thực
Theo mô tả, AVITA theo đuổi tầm nhìn “phát triển nhân loại bằng hình đại diện” và đã triển khai các giải pháp chuyển đổi số (DX) dựa trên avatar đồ họa máy tính (CG) kết hợp AI cho nhiều lĩnh vực như bán lẻ, du lịch, chăm sóc người cao tuổi. Doanh nghiệp này cũng nêu hai dịch vụ đã cung cấp: dịch vụ chăm sóc khách hàng bằng hình đại diện “AVACOM” và dịch vụ hỗ trợ nhập vai bằng AI hình đại diện “Avatore”.
Về mặt kỹ thuật, avatar CG thường giải quyết tốt phần giao tiếp: hiển thị hình ảnh nhân vật số, tạo cảm giác hiện diện, kết hợp AI đàm thoại để trả lời và hướng dẫn. Tuy nhiên, nó vẫn “bị giới hạn bởi màn hình” như không thể tự di chuyển, không thể trực tiếp thao tác với đồ vật, và khó thay thế các công việc cần hiện diện tại địa điểm.
Khi chuyển sang robot hình người hoặc robot có thân thể vật lý, bài toán mở rộng từ “nói chuyện đúng” sang “hành động an toàn”: định vị, tránh vật cản, điều khiển chuyển động, phối hợp tay–mắt, và phản hồi theo thời gian thực.
Chính vì vậy, thông tin AVITA muốn tích hợp công nghệ vận hành avatar và công nghệ AI đàm thoại vào phần cứng robot cho thấy một hướng đi quen thuộc của robot dịch vụ: lấy năng lực hội thoại làm lớp tương tác, còn lớp điều khiển–di chuyển do robot đảm nhiệm, từ đó tạo ra các ứng dụng có thể dùng ở nhiều bối cảnh khác nhau.
Từ robot bốn chân đến hình người và bước tiến “ứng dụng xã hội”
Ở phía phần cứng, Unitree được giới thiệu là đã phát triển các robot đi bộ bốn chân như Go2, B2, A2; và robot hình người H1, G1. Theo thông tin công bố, các sản phẩm này đang được giới thiệu trên toàn thế giới, chủ yếu trong lĩnh vực nghiên cứu, giáo dục và công nghiệp, với thế mạnh về hiệu suất động cơ cao và công nghệ điều khiển.
Nếu robot bốn chân thường được quan tâm vì tính cơ động trên địa hình phức tạp, khả năng mang tải và tính ổn định, thì robot hình người lại nhắm đến các không gian được thiết kế “chuẩn người”: hành lang, cầu thang, kệ, tay nắm cửa, công cụ cầm tay. Vì vậy, khi Unitree cho biết tập trung vào robot hình người và hướng tới “ứng dụng xã hội” cho các robot thế hệ tiếp theo trong không gian thực, trọng tâm công nghệ sẽ nằm ở độ tin cậy vận hành, an toàn khi tương tác với người, cùng khả năng làm việc lặp lại trong môi trường đời sống hoặc sản xuất.
Theo nội dung hợp tác chính được nêu, hai bên hướng tới ba mảng: phát triển phần cứng chung cho người máy/robot thế hệ tiếp theo có trang bị trí tuệ nhân tạo vật lý; phát triển ứng dụng bằng cách tích hợp công nghệ vận hành avatar và AI đàm thoại của AVITA vào phần cứng; và thúc đẩy ứng dụng xã hội toàn cầu, bắt đầu từ thị trường Nhật Bản và Trung Quốc.
Tóm lại, thông tin MOU lần này cho thấy một mảnh ghép quan trọng của robot thế hệ mới: kết hợp “giao tiếp tự nhiên” (AI đàm thoại - avatar) với “hành động trong thế giới thật” (robot hình người/robot di chuyển). Khi hai lớp này ghép lại trơn tru và an toàn, robot dịch vụ mới có cơ hội rời phòng thí nghiệm để bước vào các kịch bản vận hành hàng ngày.
Thủy Long