Dữ liệu này xuất hiện trong bối cảnh thế giới AI (trí tuệ nhân tạo) đã chuyển trọng tâm từ huấn luyện mô hình, lĩnh vực mà Nvidia thống trị thị trường, sang triển khai mô hình cho hàng triệu người dùng. Ở giai đoạn triển khai này, Nvidia phải đối mặt với cạnh tranh gay gắt hơn từ các đối thủ như AMD và Cerebras.
Dữ liệu của Nvidia tập trung vào các mô hình AI dùng kỹ thuật MoE (hỗn hợp các chuyên gia). MoE là phương pháp học máy phân chia một mô hình AI thành các mạng con riêng biệt, hay còn gọi là các chuyên gia (expert), mỗi chuyên gia tập trung vào một tập hợp con dữ liệu đầu vào, để cùng nhau thực hiện nhiệm vụ. Cách tiếp cận này giúp giảm đáng kể chi phí điện toán trong quá trình tiền huấn luyện mô hình AI và tăng tốc độ xử lý ở giai đoạn suy luận.
MoE bùng nổ trong năm nay sau khi công ty khởi nghiệp DeepSeek (Trung Quốc) gây chấn động thế giới đầu năm nay với mô hình suy luận mã nguồn mở R1 hiệu năng cao, cần ít thời gian huấn luyện trên GPU (bộ xử lý đồ họa) Nvidia hơn so với các đối thủ.
Kể từ đó, kỹ thuật này đã được OpenAI (Mỹ), Mistral (Pháp) và Moonshot AI (Trung Quốc) áp dụng.
Đầu tháng 11, Moonshot AI đã nâng cao vị thế trong hệ sinh thái AI của Trung Quốc với việc ra mắt mô hình suy luận mã nguồn mở Kimi K2 Thinking.
Trên một số tiêu chuẩn đánh giá, Kimi K2 Thinking vượt trội hơn GPT-5 của OpenAI và Claude Sonnet 4.5 của Anthropic, hai trong số những mô hình AI nguồn đóng tiên tiến nhất thế giới thời điểm đó trước khi GPT-5.1 và Google Gemini 3 trình làng.
Deedy Das, chuyên gia làm việc tại quỹ đầu tư mạo hiểm Menlo Ventures (Mỹ), mô tả sự ra mắt Kimi K2 Thinking là bước ngoặt trong lĩnh vực AI, nhấn mạnh rằng mô hình mã nguồn mở này của Trung Quốc đã giành vị trí số 1.
Nathan Lambert, nhà nghiên cứu tại Viện AI Allen (Mỹ), cũng ca ngợi Kimi K2 Thinking vì đã thu hẹp khoảng cách giữa các mô hình AI mã nguồn mở và hệ thống nguồn đóng hàng đầu thế giới.
Độ phổ biến của Kimi K2 Thinking, biến thể thuộc dòng Kimi K2, càng tăng mạnh sau khi kênh CNBC (Mỹ) đưa tin chi phí huấn luyện nó chỉ khoảng 4,6 triệu USD. Moonshot AI từ chối bình luận về con số này.
Ngay cả khi không xét đến chi phí, Kimi K2 Thinking vẫn khiến cộng đồng AI ấn tượng. Thomas Wolf, đồng sáng lập công ty Hugging Face (Mỹ), viết trên X rằng Kimi K2 Thinking là một ví dụ khác cho thấy mô hình AI mã nguồn mở có thể vượt qua mô hình mã nguồn đóng.
“Đây có phải là một khoảnh khắc DeepSeek khác không? Liệu chúng ta có nên mong đợi một mô hình như vậy cứ sau vài tháng không?”, Thomas Wolf đặt câu hỏi. Ông ám chỉ đến việc DeepSeek từng ra mắt R1 làm lung lay nhận định rằng Mỹ nắm giữ vị thế thống trị tuyệt đối trong lĩnh vực AI.
Hồi tháng 9, DeepSeek gây sốc khi tiết lộ chỉ mất 294.000 USD để huấn luyện R1, con số thấp hơn nhiều so với mức được các đối thủ Mỹ bỏ ra. Đây là ước tính đầu tiên mà DeepSeek công bố về chi phí huấn luyện R1, được nêu trong một bài nghiên cứu đăng trên tạp chí khoa học Nature.
Có tên Lương Văn Phong (Giám đốc điều hành DeepSeek) nằm trong nhóm đồng tác giả, bài viết này cho biết R1 có chi phí huấn luyện chỉ 294.000 USD và sử dụng 512 GPU Nvidia H800. Đây không phải là loại chip AI hàng đầu của Nvidia, ban đầu được Nvidia phát triển như một sản phẩm giảm hiệu năng để vượt qua các hạn chế từ chính quyền Biden với mục đích bán cho thị trường Trung Quốc, song sau đó bị cấm theo lệnh trừng phạt của Mỹ.
Trong hai tháng cuối năm 2024 và đầu 2025, DeepSeek phát hành V3 và R1, hai mô hình AI nguồn mở có hiệu suất ngang sản phẩm Mỹ với chi phí huấn luyện thấp hơn rất nhiều. Điều này khiến giới đầu tư toàn cầu bán tháo cổ phiếu công nghệ vì lo ngại DeepSeek có thể đe dọa vị thế thống trị của những hãng AI lớn như OpenAI, Google, Microsoft và ảnh hưởng đến doanh số chip AI của Nvidia. Chỉ trong ngày 17.1, cổ phiếu của Nvidia giảm 17%, tương đương gần 600 tỉ USD vốn hóa bị mất đi, mức thiệt hại lớn nhất một ngày trong lịch sử doanh nghiệp Mỹ.
Nvidia là hãng hưởng lợi lớn nhất trong cuộc đua AI vì đang giữ vị thế thống trị về chip huấn luyện các mô hình AI. GPU của Nvidia có khả năng xử lý song song cực mạnh, phù hợp cho việc chạy khối lượng dữ liệu khổng lồ mà các mô hình AI cần để học và suy luận. Nvidia không chỉ bán GPU mà còn cung cấp toàn bộ hệ sinh thái phần mềm (CUDA, cuDNN, TensorRT) giúp các nhà phát triển tối ưu hóa hiệu suất AI trên phần cứng của họ.
Trong một bài viết đầu năm nay, DeepSeek tiết lộ huấn luyện mô hình nền tảng V3 chỉ bằng 2.048 GPU Nvidia H800 khoảng hai tháng với chi phí 5,6 triệu USD, bằng một phần nhỏ thời gian và tiền bạc mà các công ty Mỹ bỏ ra cho các mô hình AI của họ.
Nvidia vừa công bố dữ liệu cho thấy máy chủ AI mới nhất của mình có thể cải thiện hiệu năng mô hình Moonshot AI và DeepSeek lên tới 10 lần - Ảnh: SV
Cải thiện hiệu năng Kimi K2 Thinking gấp 10 lần
Hôm 3.12, Nvidia lập luận rằng dù những mô hình AI này có thể cần ít tài nguyên huấn luyện hơn trên GPU của hãng. Thế nhưng, các GPU Nvidia vẫn rất phù hợp để vận hành chúng cho người dùng cuối.
Nvidia cho biết máy chủ AI mới nhất của hãng, tích hợp 72 GPU hàng đầu vào một máy tính duy nhất với các kết nối tốc độ cao giữa chúng, đã cải thiện hiệu năng Kimi K2 Thinking lên gấp 10 lần so với thế hệ máy chủ Nvidia trước đó. Mức tăng hiệu năng này tương đương với kết quả mà Nvidia quan sát được từ các mô hình của DeepSeek.
Nvidia thông báo mức cải thiện đến chủ yếu từ số lượng GPU lớn mà hãng có thể tích hợp vào mỗi máy chủ và từ tốc độ kết nối giữa chúng. Đây vẫn là lĩnh vực Nvidia có lợi thế hơn so với các đối thủ.
AMD đang phát triển một máy chủ tương tự với nhiều chip mạnh mẽ và công ty cho biết sản phẩm này sẽ ra mắt vào năm 2026.
Sơn Vân