Đây là động thái có thể thúc đẩy việc triển khai sản phẩm mà Manus gọi là tác tử AI tổng quát đầu tiên trên thế giới.
Tác tử AI tổng quát là một hệ thống AI được thiết kế để thực hiện nhiều loại nhiệm vụ khác nhau trong nhiều môi trường khác nhau, giống con người. Khác với các hệ thống AI chuyên dụng chỉ có thể thực hiện một nhiệm vụ cụ thể, tác tử AI tổng quát có khả năng thích ứng và học hỏi để giải quyết các vấn đề mới mà nó chưa từng gặp trước đây.
Dưới đây là một số đặc điểm chính của tác tử AI tổng quát
Khả năng thích ứng
Tác tử có thể điều chỉnh hành vi của mình để phù hợp với các tình huống mới. Nó có thể học hỏi từ kinh nghiệm và cải thiện hiệu suất theo thời gian.
Khả năng suy luận
Tác tử có thể suy luận và đưa ra quyết định dựa trên thông tin không đầy đủ hoặc không chắc chắn. Nó có thể giải quyết các vấn đề phức tạp bằng cách chia chúng thành các bước nhỏ hơn.
Khả năng tương tác
Tác tử có thể tương tác với môi trường của nó, thu thập thông tin và thực hiện các hành động. Nó có thể giao tiếp với con người và các tác tử khác.
Mục tiêu định hướng
Tác tử sử dụng mục tiêu để lập kế hoạch các tác vụ nhằm cho ra kết quả cuối cùng phù hợp và hữu ích cho người dùng. Sau đó, tác tử chia mục tiêu thành nhiều tác vụ nhỏ hơn có thể hành động. Để đạt được mục tiêu, tác tử thực hiện các tác vụ đó dựa trên các lệnh hoặc điều kiện cụ thể.
Tác tử AI tổng quát được coi là một bước tiến quan trọng trong lĩnh vực AI và có tiềm năng cách mạng hóa nhiều ngành công nghiệp.
Không giống chatbot, tác tử AI có thể hoạt động như một nhân viên kỹ thuật số, thực hiện các nhiệm vụ độc lập với rất ít lời nhắc.
Manus ra mắt vào tuần trước với lời quảng cáo rằng hiệu suất vượt trội Deep Research, tác tử AI của OpenAI.
Manus trở thành chủ đề nóng trên mạng xã hội Trung Quốc và được nhiều người đã so sánh với DeepSeek, công ty khởi nghiệp gây sốc cho Thung lũng Silicon khi giới thiệu mô hình AI nguồn mở V3 và R1 có hiệu suất ngang bằng sản phẩm của OpenAI, Google với chi phí đào tạo chỉ bằng một phần nhỏ.
Quan hệ đối tác giữa Manus và Qwen có thể gây xôn xao ngành công nghiệp AI vốn vẫn đang chao đảo vì sự xuất hiện của DeepSeek.
Có văn phòng tại Bắc Kinh, Vũ Hán và là một phần của hãng Butterfly Effect Technology Ltd Co, Manus đã tiếp thị sản phẩm của mình bằng cách hoàn thành hàng chục nhiệm vụ cho người dùng X miễn phí.
Tuy nhiên, Manus đã thừa nhận trên X rằng tác tử AI của mình vẫn chỉ có thể truy cập khi được mời và trang web công ty đang gặp khó khăn với các sự cố ngày càng tăng.
Quan hệ đối tác với Qwen có thể giúp Manus giải quyết tình trạng lưu lượng truy cập tăng đột biến và mở rộng cơ sở người dùng. Trong khi Alibaba tìm cách giành lợi thế so với các đối thủ cạnh tranh như DeepSeek.
Hai bên sẽ hợp tác dựa trên các mô hình AI nguồn mở của Qwen và hướng đến mục tiêu tích hợp các chức năng của Manus như một tác tử AI vào các mô hình cùng nền tảng điện toán tại Trung Quốc. Manus tiết lộ điều này trên mạng xã hội Weibo.
Một phát ngôn viên của Alibaba đã xác nhận quan hệ đối tác đó. Người này cho biết: "Chúng tôi mong muốn được hợp tác với nhiều nhà đổi mới AI toàn cầu hơn".
Quan hệ đối tác giữa Manus và Qwen có thể gây chấn động ngành công nghiệp AI vốn vẫn đang chao đảo vì sự xuất hiện của DeepSeek - Ảnh: SCMP
Đội ngũ nghiên cứu đứng sau các mô hình AI Qwen là một trong những nhóm đầu tiên phản ứng với thành công toàn cầu của DeepSeek vào tháng 1.
Cuối tháng 1, Alibaba đã phát hành Qwen 2.5-Max, phiên bản mới của mô hình Qwen 2.5, mà họ tuyên bố vượt trội DeepSeek-V3.
V3 của DeepSeek là mô hình AI nguồn mở, mạnh mẽ với chi phí đào tạo thấp.
Thời điểm phát hành Qwen 2.5-Max vào mùng 1 Tết Nguyên đán, khi hầu hết người dân Trung Quốc nghỉ làm và quây quần bên gia đình, cho thấy áp lực từ sự trỗi dậy mạnh mẽ của DeepSeek không chỉ đè nặng lên các các công ty nước ngoài mà còn lên cả những đối thủ trong nước.
"Qwen 2.5-Max vượt trội gần như trên mọi phương diện so với GPT-4o, DeepSeek-V3 và Llama-3.1-405B", Alibaba Cloud (đơn vị điện toán đám mây của Alibaba) thông báo trên tài khoản WeChat chính thức.
GPT-4o và Llama-3.1-405B lần lượt là mô hình AI tiên tiến của OpenAI ("cha đẻ" ChatGPT) và Meta Platforms (chủ sở hữu Facebook).
Hôm 5.3, Alibaba đã giới thiệu mô hình suy luận AI nguồn mở QwQ-32B mà họ cho biết vượt qua hiệu suất của DeepSeek-R1. Điều này làm nổi bật khả năng AI mạnh mẽ của gã khổng lồ thương mại điện tử Trung Quốc trên nhiều mô hình và cơ sở hạ tầng trung tâm dữ liệu.
Sau khi mô hình QwQ-32B ra mắt, cổ phiếu của Alibaba niêm yết tại Hồng Kông đã tăng gần 8,4%.
Theo bài đăng trên blog nhóm mô hình AI Qwen của Alibaba, dù chỉ có 32 tỉ tham số, QwQ-32B đã ngang bằng hoặc vượt trội R1, với 671 tỉ tham số, trong các lĩnh vực như toán học, lập trình và giải quyết vấn đề chung.
Theo nhóm nghiên cứu của Alibaba, số lượng tham số nhỏ hơn cho phép mô hình AI hoạt động với yêu cầu về tài nguyên tính toán ít hơn, tạo điều kiện thuận lợi cho việc áp dụng rộng rãi hơn.
Thiết kế tinh gọn của mô hình Alibaba phù hợp với quan điểm mà Chủ tịch Joe Tsai bày tỏ gần đây trên tờ SCMP, trong đó ông nhấn mạnh rằng các ứng dụng thực tế là chìa khóa để tối ưu hóa trí thông minh về phát triển mô hình AI.
Việc Alibaba phát hành mô hình lý luận mới nhất, loại hệ thống AI được thiết kế để suy nghĩ, phản ánh và tự phê bình để giải quyết các vấn đề phức tạp, diễn ra chưa đầy hai tháng sau khi DeepSeek-R1 làm chấn động ngành công nghệ toàn cầu và thị trường chứng khoán vào tháng 1.
Sự kiện này cũng trùng với đợt tăng đột biến việc áp dụng AI trên khắp Trung Quốc và Alibaba hồi tháng 2 công bố kế hoạch đầu tư 52 tỉ USD vào cơ sở hạ tầng điện toán đám mây cùng AI trong ba năm tới. Động thái đó đánh dấu dự án điện toán lớn nhất từ trước đến nay được tài trợ bởi một doanh nghiệp tư nhân tại Trung Quốc.
Alibaba cũng cho biết QwQ-32B vượt trội hơn o1-mini của OpenAI, được xây dựng với 100 tỉ tham số. QwQ-32B có sẵn trên Hugging Face, cộng đồng mô hình AI nguồn mở lớn nhất thế giới.
Nhóm Qwen cho rằng hiệu suất cải thiện của QwQ-32B là nhờ các kỹ thuật học tăng cường, tương tự những gì DeepSeek sử dụng khi phát triển mô hình R1.
Học tăng cường là phương pháp học máy, trong đó một tác nhân học cách đưa ra quyết định bằng cách tương tác với môi trường và nhận phản hồi dưới dạng phần thưởng hoặc hình phạt. Mục tiêu của học tăng cường là giúp tác nhân tối đa hóa phần thưởng dài hạn thông qua các hành động mà nó thực hiện trong môi trường.
Ứng dụng của học tăng cường
Chơi game: Học tăng cường đã được sử dụng để huấn luyện các hệ thống AI chơi game, chẳng hạn AlphaGo của Google DeepMind.
Robot: Điều khiển robot để học cách thực hiện các tác vụ phức tạp như di chuyển hoặc thu thập vật phẩm.
Tối ưu hóa: Ứng dụng trong các lĩnh vực như quảng cáo, tài chính và quản lý tài nguyên để tối đa hóa lợi nhuận hoặc hiệu quả.
Ô tô tự lái: Học tăng cường giúp ô tô tự lái học cách điều khiển an toàn trong môi trường giao thông phức tạp.
Các thuật toán phổ biến trong học tăng cường
Q-learning: Một cơ sở toán học thuật toán giúp nhân viên học giá trị của từng hành động trong một trạng thái cụ thể.
Deep Q-Networks (DQN): Kết hợp học tăng cường với mạng nơ-ron sâu để xử lý môi trường phức tạp hơn.
Policy gradient: Tác nhân học trực tiếp chiến lược tối ưu thay vì giá trị của từng trạng thái.
Diễn viên-nhà phê bình: Kết hợp hai phương pháp trên để tối ưu hóa công việc học chiến lược.
Học tăng cường đã giúp phát triển nhiều công nghệ tiên tiến như AI, tài chính, y tế, robot và xe tự lái.
Nhóm nghiên cứu thuộc Alibaba cho biết những tiến bộ này “không chỉ chứng minh tiềm năng biến đổi của phương pháp học tăng cường mà còn mở đường cho những đổi mới hơn nữa trong việc theo đuổi trí tuệ nhân tạo tổng quát (AGI)”.
AGI là dạng AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt, giống hay vượt trội con người. Không giống AI hẹp, vốn chỉ giỏi trong một lĩnh vực cụ thể (như nhận dạng giọng nói hoặc hình ảnh), AGI có khả năng áp dụng kiến thức và kỹ năng trong nhiều lĩnh vực khác nhau, từ đó giải quyết các vấn đề phức tạp một cách tự chủ và sáng tạo. OpenAI định nghĩa AGI là "một hệ thống có tính tự chủ cao, vượt trội hơn con người ở hầu hết công việc có giá trị kinh tế".
Việc ra mắt QwQ-32B diễn ra sau phát biểu của Eddie Wu Yongming (Giám đốc điều hành Alibaba) ở buổi báo cáo kết quả tài chính gần đây. Trong đó, Eddie Wu Yongming cho biết trọng tâm chính của Alibaba là phát triển AGI, được ông định nghĩa là thời điểm mà AI có thể đạt được 80% khả năng của con người.
Eddie Wu Yongming nói Alibaba sẽ tăng chi tiêu vào AI và cơ sở hạ tầng đám mây nhiều hơn cả thập kỷ qua chỉ trong 3 năm tới.
Alibaba đã tích cực đầu tư vào các công ty khởi nghiệp AI Trung Quốc như Moonshot và 01.ai nhằm tận dụng chuyên môn của họ để phát triển các công nghệ tiên tiến. Ngoài ra, tập đoàn này cũng đã mở mã nguồn nhiều mô hình ngôn ngữ lớn trong 18 tháng qua để thu hút các nhà phát triển về nền tảng đám mây của mình.
Tổng chi tiêu vốn của Alibaba trong năm 2024 đạt 72,5 tỉ nhân dân tệ (10 tỉ USD), tăng mạnh so với 24 tỉ nhân dân tệ của năm 2023. Phần lớn số tiền này sẽ được sử dụng để mua bộ xử lý và phát triển cơ sở hạ tầng, giúp đào tạo các mô hình ngôn ngữ lớn phục vụ AI.
Cùng với khoản đầu tư lớn vào AI, Alibaba cũng ghi nhận mức tăng trưởng doanh thu ấn tượng. Trong quý 4/2024, doanh thu của Alibaba tăng 8% lên 280 tỉ nhân dân tệ (gần 40 tỉ USD), mức tăng trưởng nhanh nhất hơn một năm qua. Đặc biệt, mảng kinh doanh đám mây, một trong những trọng tâm chiến lược của Alibaba, đạt mức tăng trưởng 13% lên 31,7 tỉ nhân dân tệ (4,3 tỉ USD).
Trong lĩnh vực thương mại điện tử, doanh số từ hoạt động thương mại quốc tế của Alibaba tăng 32% lên 37,8 tỉ nhân dân tệ (5,2 tỉ USD), chủ yếu nhờ vào sự phát triển mạnh mẽ của nền tảng AliExpress, đối thủ cạnh tranh trực tiếp với Temu. Mảng thương mại nội địa, vốn gặp khó khăn trong thời gian qua, cũng bắt đầu phục hồi với mức tăng 5%, đạt 136 tỉ nhân dân tệ (20 tỉ USD), nhờ vào các khoản phí trên nền tảng Taobao và Tmall.
Sơn Vân