Khi trí tuệ nhân tạo (AI) tiếp tục phát triển với tốc độ chóng mặt, một câu hỏi lớn đặt ra cho cả giới nghiên cứu lẫn người sử dụng là: Tương lai của AI sẽ đi theo hướng nào? Liệu nó sẽ tập trung vào một số ít mô hình tổng quát, toàn năng có khả năng thay con người giải quyết mọi nhiệm vụ - như các thế hệ kế tiếp của ChatGPT, Claude hay Grok? Hay AI sẽ được phân mảnh thành hàng loạt tác tử chuyên biệt, mỗi mô hình chỉ phục vụ một chức năng cụ thể, được kích hoạt đúng lúc, đúng nhu cầu?
Sự thật là, không ai có thể trả lời dứt khoát. Ngay cả các nhà lãnh đạo công nghệ hàng đầu cũng thừa nhận rằng tương lai của AI trong một đến hai năm tới vẫn là ẩn số. Tuy nhiên, theo Finacial Times, những gì đang diễn ra trên thị trường cho thấy cả hai xu hướng đều đang phát triển song song - và có thể cùng tồn tại, tùy theo mục đích sử dụng và nhu cầu của người dùng.
AI đang phân hóa giữa mô hình toàn năng như ChatGPT và các tác tử chuyên biệt, rẻ, hiệu quả, dễ tùy chỉnh - Ảnh: Reuters
Tác tử AI (AI agent) là một hệ thống trí tuệ nhân tạo có khả năng tự động thực hiện các hành động để đạt mục tiêu cụ thể, dựa trên thông tin thu thập được từ môi trường. Khác với chatbot đơn thuần chỉ phản hồi văn bản, tác tử AI có thể lên kế hoạch, ra quyết định và tương tác chủ động trong nhiều tình huống, ví dụ như đặt lịch, tìm kiếm dữ liệu, mua hàng trực tuyến hoặc hỗ trợ kỹ thuật. Chúng ngày càng được tích hợp vào quy trình làm việc trong doanh nghiệp nhằm tăng hiệu quả, tiết kiệm chi phí và giảm phụ thuộc vào con người.
"Một AI thống trị tất cả": Cuộc chơi của các đại gia công nghệ
Mô hình "AI toàn năng" đang được hiện thực hóa bởi các công ty như OpenAI, Google và Anthropic. Tuần qua, OpenAI vừa bổ sung tính năng mua sắm trực tuyến vào ChatGPT, cho phép người dùng chỉ cần nhập một yêu cầu, hệ thống sẽ tự nghiên cứu sản phẩm và đưa ra đề xuất mua hàng - một bước tiến có thể thay đổi hoàn toàn hành vi tiêu dùng trực tuyến.
Thay vì người dùng phải tìm kiếm, so sánh rồi chọn lựa, một chatbot duy nhất có thể tự xử lý toàn bộ quy trình. Điều này không chỉ tạo thuận lợi cho người dùng mà còn đặt các hệ thống AI toàn năng vào trung tâm chuỗi giá trị thương mại điện tử, làm lung lay chiến lược tiếp cận khách hàng mà các thương hiệu đã xây dựng trong suốt thập kỷ qua.
Những tính năng toàn diện như vậy giúp AI toàn năng trở nên hấp dẫn và nhận được nhiều sự quan tâm. Tuy nhiên, chúng cũng đi kèm với chi phí phát triển và vận hành rất cao - điều mà không phải doanh nghiệp nào cũng có thể gánh vác.
Tác tử chuyên biệt: Giải pháp linh hoạt, chi phí thấp
Song song với các siêu mô hình, một làn sóng AI chuyên biệt đang âm thầm trỗi dậy. Đây là các mô hình nhỏ hơn, được thiết kế để thực hiện một nhiệm vụ duy nhất hoặc giới hạn, như đặt lịch họp, quản lý email, dịch thuật kỹ thuật, phân tích pháp lý hay hỗ trợ bán hàng theo ngữ cảnh.
Tại hội nghị LlamaCon do Meta tổ chức mới đây, tập đoàn này đã giới thiệu cách họ phát triển hệ sinh thái AI mở thông qua loạt mô hình Llama. Dù không công khai toàn bộ dữ liệu huấn luyện, Meta cho phép cộng đồng tiếp cận và tùy chỉnh các trọng số mô hình - một cách tiếp cận "mở có giới hạn" nhưng đủ để kích hoạt sự sáng tạo của các nhà phát triển.
Tính đến nay, các mô hình Llama đã được tải về hơn 1,2 tỉ lần, phần lớn bởi các tổ chức và nhà phát triển cá nhân điều chỉnh lại mô hình cho các ứng dụng cụ thể rồi chia sẻ lại cho cộng đồng.
Học tăng cường và hậu huấn luyện: Giai đoạn "tạo khác biệt"
Trong thế hệ mô hình AI hiện nay, chiến lược tối ưu hóa không còn tập trung vào giai đoạn huấn luyện ban đầu vốn tốn kém, mà đang chuyển trọng tâm sang các bước hậu kỳ như học tăng cường (reinforcement learning) và tối ưu trong thời gian thử nghiệm (inference-time optimization).
Ông Ali Ghodsi, CEO của Databricks, cho rằng dữ liệu nội bộ độc quyền của doanh nghiệp có thể được dùng để điều chỉnh mô hình AI thông qua các kỹ thuật học tăng cường, giúp mô hình phù hợp hơn với quy trình thực tế và ra quyết định chính xác hơn. Điều này chỉ thực sự khả thi với mô hình mở, nơi doanh nghiệp được toàn quyền can thiệp và kiểm soát.
Một kỹ thuật ngày càng phổ biến là kết hợp các phần mạnh nhất từ nhiều mô hình khác nhau để tạo ra một công cụ hiệu quả hơn. Ví dụ, sau khi mô hình DeepSeek R1 gây tiếng vang nhờ khả năng lý luận vượt trội với chi phí thấp, nhiều nhà phát triển đã "sao chép" cách suy nghĩ từng bước của nó và áp dụng lên các mô hình Llama để cải thiện hiệu suất trong giải bài toán hoặc xử lý logic.
Tương lai có thể chứng kiến sự bùng nổ của hàng loạt tác nhân thông minh giá rẻ, chạy trên phần cứng phổ thông, tiết kiệm điện năng và có thể tích hợp trực tiếp vào phần mềm doanh nghiệp. Các công ty sở hữu công cụ tạo tác nhân hoặc nền tảng triển khai AI sẽ hưởng lợi lớn từ xu hướng này.
Cạnh tranh giá và nguy cơ "hàng hóa hóa" AI
Sự trỗi dậy của mô hình chuyên biệt giá rẻ tạo ra thách thức cho các công ty đang vận hành mô hình lớn, đắt đỏ. Nếu các mô hình mở có thể tiếp cận được chất lượng tương đương với mức giá rẻ hơn, nguy cơ "hàng hóa hóa" AI là hoàn toàn có thật - nơi mô hình AI trở nên dễ thay thế và bị cạnh tranh về giá hơn là chất lượng.
Đó là lý do các công ty như OpenAI hay Google đang cố gắng tạo ra hệ sinh thái khép kín, nơi AI không chỉ là công cụ, mà còn là trợ lý trung tâm của cả hệ thống - từ tìm kiếm, mua sắm đến quản lý cá nhân.
Dù đi theo hướng nào, điểm chung là AI đang trở nên rẻ hơn, dễ tiếp cận hơn và đa dạng hơn về chức năng. Điều này mở ra cơ hội cho các doanh nghiệp vừa và nhỏ ứng dụng AI vào quy trình làm việc mà trước đây chỉ có các tập đoàn lớn mới đủ nguồn lực thực hiện.
Các tác tử AI chuyên biệt có thể được "gắn" vào quy trình vận hành, hỗ trợ từng bộ phận cụ thể như chăm sóc khách hàng, kế toán, hậu cần, hoặc thậm chí là sáng tạo nội dung. Trong thế giới mà chi phí AI giảm xuống từng ngày, người dùng cuối - cá nhân và doanh nghiệp - chính là những người chiến thắng lớn nhất.
Hoàng Vũ