Những hạn chế xuất khẩu mới nhất từ chính phủ Mỹ với chip AI H20 của Nvidia được cho là sẽ làm gián đoạn kế hoạch của các hãng công nghệ lớn Trung Quốc, buộc ByteDance (chủ sở hữu TikTok) và gã khổng lồ mạng xã hội Tencent Holdings phải đẩy nhanh quá trình chuyển đổi sang các giải pháp bán dẫn trong nước, theo nhà phân tích.
Hôm 15.4, Nvidia (hãng chip AI số 1 thế giới) tiết lộ chính phủ Mỹ hiện sẽ yêu cầu giấy phép để xuất khẩu H20 sang Trung Quốc, động thái mà công ty dự đoán sẽ khiến họ thiệt hại 5,5 tỉ USD.
Cổ phiếu Nvidia giảm hơn 6% trong phiên giao dịch ngoài giờ hôm 15.4 sau thông tin này.
Nhà Trắng khẳng định lệnh hạn chế sẽ có hiệu lực "vô thời hạn" vì lo ngại an ninh quốc phòng. Trước đó, các mức thuế quan dưới thời ông Trump đã khiến cổ phiếu Nvidia giảm hơn 16% từ đầu năm. Các hãng chip Mỹ khác như AMD và Broadcom cũng bị ảnh hưởng mạnh.
Nvidia hiện lên kế hoạch xây dựng hệ thống máy chủ AI trị giá 500 tỉ USD tại Mỹ để thích ứng với yêu cầu thúc đẩy sản xuất trong nước.
H20 là bộ xử lý đồ họa (GPU) được thiết kế riêng cho thị trường Trung Quốc sau những lệnh kiểm soát xuất khẩu trước đó của Mỹ. Dù các hạn chế từ Mỹ ngày càng siết chặt, các công ty Trung Quốc vẫn phụ thuộc nhiều vào chip Nvidia để huấn luyện và vận hành mô hình ngôn ngữ lớn, các nhà phân tích cho biết.
Mô hình ngôn ngữ lớn là một loại AI được huấn luyện trên lượng dữ liệu văn bản khổng lồ để hiểu, tạo ra và xử lý ngôn ngữ tự nhiên thông minh và linh hoạt.
Nhà phân tích Brian Colello thuộc hãng dịch vụ tài chính Morningstar (Mỹ) nhận định hoạt động kinh doanh của Nvidia tại Trung Quốc có khả năng “giảm gần như bằng 0”, từ mức chiếm khoảng 10% tổng doanh thu vào năm 2024, vốn đã giảm đáng kể so với các năm trước đó.
“Chúng tôi không thấy triển vọng Nvidia phục hồi trong tương lai gần”, Brian Colello viết trong một ghi chú nghiên cứu hôm 15.4.
Nvidia bắt đầu bán H20 cho thị trường Trung Quốc từ đầu năm 2024, sau khi các dòng chip AI tiên tiến của hãng như A100, H100, A800 và H800 bị Mỹ đưa vào danh sách hạn chế xuất khẩu do lo ngại về an ninh quốc gia.
“Với hiệu suất điện toán mạnh mẽ và lợi thế về tiết kiệm năng lượng, H20 đã trở thành phần cứng then chốt để huấn luyện mô hình ngôn ngữ lớn”, Gao Chengfei, Giám đốc công ty tư vấn Tiaoyuan (Trung Quốc), bình luận.
ByteDance và Tencent Holdings đều đã dựa vào H20 trong các nỗ lực phát triển AI của mình. Mỗi công ty đã đặt mua khoảng 230.000 chip thuộc dòng Hopper của Nvidia vào năm ngoái, chỉ đứng sau Microsoft (đặt mua 485.000 chip), trang Financial Times đưa tin hồi tháng 12.2024, trích dẫn dữ liệu từ hãng nghiên cứu Omdia.
Các công ty này giờ đây sẽ “gặp khó khăn trong việc đảm bảo đủ tài nguyên điện toán trong tương lai, có thể làm chậm tiến độ huấn luyện mô hình AI và ảnh hưởng đến tốc độ phát triển sản phẩm”, Gao Chengfei nói.
Nhu cầu với H20 đã tăng mạnh trong năm 2025, được thúc đẩy bởi nhu cầu điện toán ngày càng tăng để vận hành V3 và R1 - hai mô hình AI mã nguồn mở có hiệu suất cao với chi phí đào tạo thấp do DeepSeek (công ty khởi nghiệp Trung Quốc có trụ sở ở thành phố Hàng Châu) phát triển. Hai mô hình AI này được sử dụng rộng rãi trong vài tháng qua.
ByteDance, Tencent Holdings và gã khổng lồ thương mại điện tử Alibaba đều tăng mạnh đơn đặt hàng H20 sau sự trỗi dậy của DeepSeek, Reuters đưa tin hồi tháng 2, trích dẫn các nguồn tin am hiểu vấn đề.
ByteDance và Tencent Holdings phải chuyển hướng sang Huawei sau khi Mỹ hạn chế xuất khẩu chip H20 của Nvidia - Ảnh: Internet
Việc Mỹ hạn chế xuất khẩu H20 có thể sẽ thúc đẩy mạnh mẽ nỗ lực tự chủ bán dẫn của Trung Quốc. Đây là chiến lược mà nước này đã theo đuổi nhằm nội địa hóa chuỗi cung ứng bán dẫn.
Gao Chengfei chỉ ra các chip do Huawei, Cambricon Technologies và Hygon Information Technology phát triển là những lựa chọn thay thế tiềm năng cho H20 của Nvidia. Ông cho biết dòng chip AI Ascend của Huawei có hiệu năng mạnh và hệ sinh thái hỗ trợ tốt ở lĩnh vực điện toán AI, trong khi các sản phẩm của Cambricon Technologies nổi bật về tiết kiệm năng lượng.
Tăng tốc đổi mới
Các hãng công nghệ Trung Quốc đã tăng tốc đổi mới trong mô hình AI và cơ sở hạ tầng nhằm cải thiện hiệu quả huấn luyện cũng như giảm phụ thuộc vào Nvidia.
Chẳng hạn, Alibaba dự kiến sẽ giới thiệu sản phẩm mới mang tên AIStack (thiết bị tích hợp nhẹ, chi phí thấp dành cho điện toán AI doanh nghiệp) tại hội nghị số tổ chức tại thành phố Phúc Châu, Trung Quốc cuối tháng 4 này. Các sản phẩm khác từ bộ phận điện toán đám mây Alibaba Cloud và đơn vị thiết kế chip T-Head của Alibaba cũng trình làng tại hội nghị này.
Ant Group, hãng công nghệ tài chính liên kết với Alibaba, hiện đã có khả năng huấn luyện các mô hình ngôn ngữ lớn bằng GPU sản xuất trong nước, gồm phần cứng từ Huawei và Alibaba, đồng thời cắt giảm chi phí huấn luyện tới 20%, theo một báo cáo nghiên cứu gần đây và các phương tiện truyền thông Trung Quốc.
Huawei vừa ra mắt kiến trúc hạ tầng AI mới mang tên CloudMatrix 384 Supernode, được cho là có thể cạnh tranh với sản phẩm của Nvidia trong việc giải quyết tình trạng tắc nghẽn sức mạnh điện toán.
CloudMatrix 384 Supernode được mô tả là một “sản phẩm cấp độ hạt nhân” có khả năng tương đương hệ thống NVL72 của Nvidia trong việc giảm thiểu tình trạng tắc nghẽn điện toán cho các trung tâm dữ liệu AI, trang STAR Market Daily đưa tin, trích dẫn các nguồn tin giấu tên từ Huawei.
Ra mắt vào tháng 3.2024, NVL72 gồm 72 GPU kết nối trong một miền NVLink, hoạt động như GPU mạnh mẽ duy nhất, hỗ trợ suy luận thời gian thực cho các mô hình ngôn ngữ lớn có hàng nghìn tỉ tham số với tốc độ nhanh hơn 30 lần so với các thế hệ trước.
NVLink là công nghệ kết nối tốc độ cao do Nvidia phát triển, cho phép nhiều GPU giao tiếp và chia sẻ dữ liệu hiệu quả hơn.
CloudMatrix 384 Supernode, đang được triển khai tại các trung tâm dữ liệu của Huawei ở thành phố Vu Hồ (tỉnh An Huy, Trung Quốc), đạt công suất tính toán 300 petaflops, so với 180 petaflops của NVL72, theo dữ liệu từ gã khổng lồ công nghệ Trung Quốc được STAR Market Daily trích dẫn.
Petaflops là đơn vị đo hiệu năng tính toán của hệ thống máy tính, đặc biệt thường được dùng để đánh giá sức mạnh của siêu máy tính hoặc các hệ thống phục vụ AI.
Flops (Floating Point Operations Per Second) là số lượng phép toán dấu phẩy động mà hệ thống có thể thực hiện mỗi giây.
1 petaflop = 1 triệu tỉ phép toán/giây.
Khi nói một hệ thống AI đạt công suất tính toán 300 petaflops nghĩa là có thể thực hiện 300 triệu tỉ phép toán dấu phẩy động trong mỗi giây.
Huawei chưa đưa ra bình luận ngay lập tức khi trang SCMP liên hệ.
Supernode là kiến trúc hạ tầng AI được trang bị nhiều tài nguyên hơn, chẳng hạn bộ xử lý trung tâm (CPU), bộ xử lý thần kinh (NPU), băng thông mạng, lưu trữ và bộ nhớ, so với các hệ thống tiêu chuẩn. Điều này cho phép chúng hoạt động như các máy chủ trung gian, nâng cao hiệu suất tính toán tổng thể của các cụm máy chủ và đẩy nhanh quá trình huấn luyện những mô hình AI nền tảng.
Nếu được xác nhận, bước tiến này của Huawei cho thấy công ty đang đạt được tiến bộ trong việc tự chủ sức mạnh tính toán giữa bối cảnh căng thẳng công nghệ leo thang giữa Mỹ và Trung Quốc.
Công ty có trụ sở tại Thâm Quyến đã ra mắt hạ tầng CloudMatrix vào tháng 9.2024 nhằm đáp ứng nhu cầu ngày càng tăng về năng lực điện toán trong làn sóng AI toàn cầu, được thúc đẩy bởi GPT của OpenAI và các mô hình AI khác.
Huawei được cho đang hợp tác với công ty khởi nghiệp hạ tầng AI SiliconFlow (Trung Quốc) để sử dụng CloudMatrix 384 Supernode nhằm hỗ trợ R1 - mô hình suy luận của DeepSeek thu hút sự chú ý toàn cầu khi ra mắt vào tháng 1.
Theo STAR Market Daily, CloudMatrix 384 Supernode, sử dụng chip Huawei thay vì Nvidia, có khả năng xử lý đến 1.920 token mỗi giây mà vẫn duy trì độ chính xác cao. Token là đơn vị cơ bản của văn bản được mô hình AI sử dụng để xử lý ngôn ngữ tự nhiên.
Sơn Vân