Hội nghị về AI tạo sinh của Bloomberg Intelligence tại New York Ảnh: Bloomberg
Mặc dù sự sụt giảm thị trường chứng khoán tháng 1 do cơn sốt DeepSeek AI và phương pháp điện toán rẻ hơn của công ty này có thể khiến nhiều người nghĩ chi tiêu cho AI giảm, hội nghị về AI tạo sinh của Bloomberg Intelligence tại New York cho thấy nhu cầu mở rộng AI tạo sinh vẫn rất lớn, thúc đẩy đầu tư mạnh mẽ. Chủ đề "AI tạo sinh: Luật mở rộng quy mô sau DeepSeek" nhấn mạnh rằng nhu cầu sẽ tiếp tục thúc đẩy chi tiêu tăng cao.
DeepSeek tái định hình về quan điểm về hiệu quả AI
Anurag Rana, nhà phân tích phần mềm và dịch vụ CNTT cao cấp đề cập rằng mối quan tâm hàng đầu hiện nay là xây dựng cơ sở hạ tầng AI và vị trí của chúng ta trong chu kỳ đó. DeepSeek AI đang mở ra hy vọng thực hiện nhiều công việc hơn với chi phí thấp hơn so với trước đây.
DeepSeek đã gây ấn tượng mạnh mẽ, khi đặt ra câu hỏi về tính cần thiết của dự án Stargate trị giá 500 tỷ đô la (do SoftBank, OpenAI và Oracle điều hành) nếu các mô hình AI không yêu cầu một số lượng lớn GPU. Ông kỳ vọng rằng chi phí của AI sẽ giảm mạnh tương tự như đã xảy ra với điện toán đám mây, cho rằng sự sụt giảm trong chi phí lưu trữ dữ liệu trên AWS trong quá khứ đã thúc đẩy sự phát triển của nền kinh tế. Khi chi phí luận lý AI giảm, điều này sẽ tạo ra động lực cho việc áp dụng AI rộng rãi hơn.
Mandeep Singh, nhà phân tích công nghệ cao cấp của Bloomberg Intelligence, cũng đồng ý rằng DeepSeek đã thay đổi cách nhìn nhận về hiệu quả AI. Hiện tại, các dự án AI trong doanh nghiệp đang được triển khai tích cực, nhưng cần phải giảm chi phí vận hành để tăng khả năng tiếp cận.
Nhu cầu về các mô hình AI tùy chỉnh
Shawn Edwards - Chuyên gia công nghệ trưởng của Bloomberg nhấn mạnh tầm quan trọng của việc các mô hình AI hoạt động hiệu quả. Ông cho rằng đầu tư vào cơ sở hạ tầng AI sẽ liên tục gia tăng do sự phát triển của các mô hình này.
Quan điểm chung hiện nay là không có mô hình AI nào có thể đáp ứng mọi nhu cầu. Ví dụ, Bloomberg đang sử dụng nhiều mô hình khác nhau vì không có một mô hình nào là tốt nhất tuyệt đối.
Các chuyên gia cũng cho rằng trong tương lai, bên cạnh sự phát triển của các mô hình ngôn ngữ lớn "nền tảng", các doanh nghiệp sẽ sử dụng hàng trăm, thậm chí hàng nghìn mô hình AI được tinh chỉnh dựa trên dữ liệu độc quyền của họ.
Jed Dougherty - Giám đốc chiến lược nền tảng của Dataiku nhấn mạnh sự cần thiết của việc trao quyền cho các doanh nghiệp tự lựa chọn, kiểm soát và kiểm toán các mô hình AI mà họ sử dụng. Ông tin rằng cần phải mở rộng quyền xây dựng các mô hình này cho nhiều cá nhân hơn, thay vì chỉ tập trung vào một số ít chuyên gia.
Adobe cũng dự đoán rằng các mô hình tùy chỉnh sẽ đóng vai trò quan trọng trong quá trình sáng tạo, với khả năng tạo ra các phần mở rộng cho thương hiệu và hỗ trợ chiến dịch quảng cáo, như Hannah Elsakr đã chỉ ra.
Ảnh hưởng của tác nhân AI trong các doanh nghiệp
Giống như các mô hình AI, sự gia tăng của các tác nhân AI trong doanh nghiệp đang thúc đẩy nhu cầu xử lý. Ray Smith - đại diện Microsoft lưu ý rằng việc phân chia quy trình thành nhiều tác nhân riêng biệt thay vì gộp lại thành một tác nhân duy nhất sẽ trở nên phổ biến.
Theo dự đoán, người dùng sẽ tương tác với hàng trăm tác nhân qua một giao diện như Copilot, xem chúng như những ứng dụng mới.
Ông Smith cho biết người dùng sẽ chỉ định quy trình kinh doanh và mục tiêu cho tác nhân, sau đó tác nhân sẽ tự động thực hiện các nhiệm vụ. Theo đó, ứng dụng tác nhân là một phương thức làm việc hoàn toàn mới.
James McNiven - đại diện ARM Holdings cũng nhấn mạnh sự cần thiết phải giảm chi phí để phổ biến tác nhân AI trong các tổ chức/doanh nghiệp, ví dụ như các tác nhân này có thể hoạt động như trợ lý cá nhân, tương tự như sự phát triển của thanh toán qua điện thoại di động tại các nước đang phát triển.
Chi phí năng lượng là vấn đề cấp bách
Thomas Graham - đồng sáng lập công ty khởi nghiệp chip Lightmatter (bên phải) đang trao đổi với Mandeep Singh của Bloomberg Intelligence rằng các trung tâm dữ liệu tương đương với tám lần lượng điện tiêu thụ của thành phố New York sẽ được xây dựng vào năm 2026 để phục vụ cho việc triển khai AI.
Dave Brown, đại diện Amazon AWS cho biết họ hiện có tới 1.800 mô hình AI và đang nỗ lực để giảm chi phí vận hành, bao gồm phát triển chip AI tùy chỉnh như Trainium và sử dụng nhiều bộ xử lý riêng. Theo Brown, AWS đang hợp tác chặt chẽ với Anthropic, nhà cung cấp mô hình ngôn ngữ Claude.
Michael Gerstenhaber từ Anthropic cho hay các mô hình suy luận tiêu tốn rất nhiều năng lượng và họ đang làm việc với AWS để giảm chi phí tính toán, ví dụ như thông qua "lưu trữ tạm thời". Tuy nhiên, vẫn cần hàng trăm nghìn bộ tăng tốc AI ở nhiều trung tâm dữ liệu.
Brown cũng nhấn mạnh rằng chi phí năng lượng đang gia tăng nhanh chóng cho AI, với mức tiêu thụ năng lượng của các trung tâm dữ liệu hiện tại đã đạt tới hàng trăm megawatt và có thể cần lên tới hàng gigawatt trong tương lai.
Rana - người đại diện của Bloomberg cảnh báo rằng các lĩnh vực đầu tư công nghệ truyền thống, như máy chủ và lưu trữ, có thể bị ảnh hưởng nặng nề do sự nổi lên của AI, đặc biệt trong bối cảnh suy thoái kinh tế. Ông cho biết các giám đốc tài chính có thể ưu tiên chi cho AI và chuyển ngân sách ngay cả khi phải cắt giảm các khoản chi khác.
Tuy nhiên, viễn cảnh này vẫn còn nhiều bất ổn và nỗi lo ngại về việc các công ty lớn có thể tiếp tục duy trì mục tiêu chi tiêu cho AI hay không, đặc biệt trong bối cảnh kinh tế hiện nay vẫn là một câu hỏi bỏ ngỏ.
Minh Phú