AI có khả năng lý luận sẽ phá vỡ sự thống trị chip AI của Nvidia?

AI có khả năng lý luận sẽ phá vỡ sự thống trị chip AI của Nvidia?
8 giờ trướcBài gốc
Sự trỗi dậy của các mô hình AI lý luận đang mở ra không gian cạnh tranh mới để các statup sản xuất chip như Cerebras và Groq (Mỹ) phá vỡ sự thống trị chip AI của Nvidia mà CEO Jensen Huang đang nỗ lực củng cố. Ảnh: FT/Bloomberg
Nhu cầu suy luận sẽ điều khiển cuộc chơi chip AI
Các mô hình AI lý luận (reasoning models) như R1 của DeepSeek (Trung Quốc), o3 của OpenAI và Claude 3.7 của Anthropic (Mỹ) tiêu thụ tài nguyên điện toán nhiều hơn các hệ thống AI trước đây. Điều này là do khi trả lời yêu cầu (prompt) của người dùng, mô hình cần sử dụng một quá trình gọi là suy luận (inference) để giải quyết vấn đề theo từng bước hoặc hiểu mối quan hệ phức tạp giữa các yếu tố.
Quy trình suy luận dự kiến sẽ trở thành một phần lớn hơn trong nhu cầu về công nghệ AI khi các cá nhân và doanh nghiệp tăng cường sử dụng với các ứng dụng AI vượt ra ngoài các chatbot phổ biến hiện nay, chẳng hạn như ChatGPT của OpenAI hoặc Grok của xAI.
Đây chính là không gian mới để các đối thủ cạnh tranh tìm cách phá vỡ sự thống trị chip AI của Nvidia, từ các công ty khởi nghiệp (startup) sản xuất chip AI của Mỹ như Cerebras và Groq đến các bộ xử lý tăng tốc tùy chỉnh của các tập đoàn công nghệ lớn như Google, Amazon, Microsoft và Meta.
“Đào tạo dữ liệu giúp xây dựng các mô hình AI còn suy luận sử dụng các mô hình có sẵn này. Hiện nay, việc sử dụng AI đang tăng vọt. Vì vậy, cơ hội hiện để tạo ra một con chip tối ưu hơn cho mục đích suy luận so với mục đích đào tạo là lớn hơn nhiều so với trước đây”, Andrew Feldman, CEO Cerebras nói.
Chip AI của Cerebras đang được Mistral, startup AI của Pháp sử dụng để tăng tốc hiệu suất của chatbot Le Chat. Tháng 9 năm ngoái, Cerebras đã nộp hồ sơ chào bán cổ phần lần đầu ra công chúng (IPO) lên Sở chứng khoán và sàn giao dịch Mỹ. Các nguồn tin cho biết, công ty đặt mục tiêu huy động đến 1 tỉ đô la Mỹ dựa trên mức định giá từ 7-8 tỉ đô la.
Cũng trong năm ngoái, Cerebras ra mắt dịch vụ Cerebras Inference, cung cấp khả năng suy luận AI “nhanh nhất thế giới”. Cerebras Inference sử dụng kiến trúc phần cứng độc đáo, cụ thể là Wafer Scale Engine (WSE), loại chip kích thước lớn hơn nhiều so với các bộ xử lý đồ họa (GPU) truyền thống.
Trong khi đó, startup Groq chuyên phát triển các chip tăng tốc AI, được thiết kế để tối ưu hóa hiệu suất suy luận AI.
Chip AI của Nvidia đang thống trị thị trường trung tâm dữ liệu AI. Thế nhưng, nhà đầu tư đang tự hỏi liệu Nvidia có thể tiếp tục bán chạy chip AI hơn các đối thủ cạnh tranh tại các trung tâm dữ liệu nhỏ hơn nhiều đang được xây dựng và sẽ tập trung vào suy luận.
Vipul Ved Prakash, CEO kiêm đồng sáng lập Together AI, một nhà cung cấp dịch vụ đám mây tập trung vào AI, cho biết suy luận là “trọng tâm lớn” đối với doanh nghiệp của ông. Tháng trước, Together AI chốt thành công vòng gọi vốn dựa trên mức định giá 3,3 tỉ đô la.
“Tôi tin rằng, việc vận hành trung tâm dữ liệu suy luận AI ở quy mô lớn sẽ là khối lượng công việc lớn nhất trên Internet tại một thời điểm nào đó trong tương lai”, ông nói.
Các nhà phân tích của ngân hàng Morgan Stanley ước tính, hơn 75% nhu cầu về điện năng và tính toán ở các trung tâm dữ liệu tại Mỹ dành cho suy luận trong những năm tới.
Điều đó có nghĩa là hàng trăm tỉ đô la tiền đầu tư có thể chảy vào các trung tâm dữ liệu suy luận AI trong vài năm tới, nếu nhu cầu sử dụng AI tiếp tục tăng trưởng với tốc độ hiện tại.
Trong khi đó, theo ước tính của các nhà phân tích ở ngân hàng Barclays, chi phí đầu tư vốn cho suy luận trong các hệ thống AI lớn nhất và tiên tiến nhất sẽ vượt quá chi phí đào tạo AI trong 2 năm tới, tăng từ 122,6 tỉ đô la trong năm 2025 lên 208,2 tỉ đô la vào năm 2026.
200 tỉ đô la doanh thu mở ra cho các đối thủ của Nvidia
Nvidia gần như độc chiếm 100% thị phần chip AI phục vụ mục đích đào tạo các hệ thống AI tiên tiến. Tuy nhiên, Barclays dự đoán, công ty này chỉ phục vụ 50% thị phần điện toán suy luận trong dài hạn. Điều đó sẽ mở ra nguồn doanh thu chip tiềm năng 200 tỉ đô la cho các đối thủ của Nvidia vào năm 2028.
“Có một sức hút lớn đối với những con chip tốt hơn, nhanh hơn và hiệu quả hơn” Walter Goodwin, người sáng lập startup sản xuất chip Fractile (Anh) nói và lưu ý thêm, các nhà cung cấp dịch vụ điện toán đám mây đang mong muốn loại bỏ sự phụ thuộc quá mức vào chip AI của Nvidia.
CEO Nvidia, Jensen Huang khẳng định, chip của công ty này có khả năng suy luận cũng mạnh mẽ như khả năng đào tạo AI.
Chip Blackwell mới nhất của Nvidia được thiết kế để xử lý suy luận tốt hơn. Nhiều khách hàng đang sử dụng chip Blackwell để phục vụ các ứng dụng AI thay vì đào tạo các hệ thống AI. Sản phẩm này đang là rào cản lớn cho các đối thủ cạnh tranh.
Chi phí cung cấp phản hồi từ các mô hình ngôn ngữ lớn (LLM) giảm nhanh chóng trong 2 năm qua, nhờ sự kết hợp của các chip mạnh hơn, hệ thống AI hiệu quả hơn và sự cạnh tranh gay gắt giữa các nhà phát triển AI như Google, OpenAI và Anthropic.
Theo Sam Altman, CEO OpenAI, chi phí sử dụng một cấp độ AI nhất định giảm khoảng 10 lần sau mỗi 12 tháng.
Sự xuất hiện các mô hình V3 và R1 của DeepSeek gây ra sự hoảng loạn trên thị trường chứng khoán Mỹ hồi tháng 1. Các đổi mới về kiến trúc và hiệu quả mã lập trình của công ty khởi nghiệp Trung Quốc này đã giúp giảm chi phí đào tạo các mô hình này, giúp giảm chi phí suy luận.
Trong khi đó, kiểu xử lý dữ liệu mà các tác vụ suy luận yêu cầu, có thể cần bộ nhớ lớn hơn nhiều để trả lời các truy vấn dài hơn và phức tạp hơn, mở ra cánh cửa cho các giải pháp thay thế cho GPU của Nvidia, vốn có điểm mạnh là xử lý khối lượng lớn các phép tính tương tự nhau.
Nvidia khẳng định, hiệu suất suy luận của các GPU đã cải thiện gấp 200 lần trong 2 năm qua. Hiện nay, có hàng trăm triệu người dùng truy cập các sản phẩm AI thông qua hàng triệu GPU của công ty.
“Kiến trúc GPU của chúng tôi có thể thay thế và dễ sử dụng theo nhiều cách khác nhau, cho cả việc xây dựng các mô hình lớn hoặc cung cấp các ứng dụng AI theo những cách mới”, Jensen Huang, CEO Nvidia nói trong cuộc họp báo hồi tháng trước.
Theo Financial Times
Chánh Tài
Nguồn Saigon Times : https://thesaigontimes.vn/ai-co-kha-nang-ly-luan-se-pha-vo-su-thong-tri-chip-ai-cua-nvidia/