Theo chuyên gia hàng đầu trong ngành, Trung Quốc đang đẩy mạnh nỗ lực tự chủ chip bằng cách kết hợp các chip tương đối trưởng thành với các kiến trúc điện toán mới trong nỗ lực đạt được mức hiệu năng của GPU (bộ xử lý đồ họa) Nvidia.
Ông Wei Shaojun, Phó chủ tịch Hiệp hội Công nghiệp Bán dẫn Trung Quốc, cho biết các chip logic sản xuất trên tiến trình 14 nanomet, vốn thường bị coi là thua kém các chip AI tiên tiến, có thể đạt hiệu năng tương đương với các GPU 4 nanomet của Nvidia nếu được tích hợp với bộ nhớ hiệu năng cao và kiến trúc điện toán đổi mới.
Ông đã đưa ra nhận định này tại một sự kiện công nghiệp gần đây ở thành phố Thâm Quyến, trung tâm công nghệ phía nam Trung Quốc, theo hãng tin công nghệ ESM China.
Wei Shaojun, giáo sư tại Trường Mạch Tích hợp của Đại học Thanh Hoa, đã phác thảo một giải pháp dựa trên "điện toán gần bộ nhớ bằng phần mềm" sử dụng công nghệ liên kết lai 3D để xếp chồng các chip logic 14 nanomet với DRAM 18 nanomet.
Ông cho biết cấu hình này có thể cạnh tranh với GPU 4 nanomet của Nvidia, hiện là tiêu chuẩn ngành cho huấn luyện mô hình AI, đồng thời giảm đáng kể chi phí và mức tiêu thụ điện năng.
Đề xuất của Wei Shaojun phản ánh con đường công nghệ mà Huawei theo đuổi.
Do Trung Quốc chưa thể sản xuất chip 5 nanomet và chip tiên tiến hơn với quy mô lớn vì các biện pháp kiểm soát xuất khẩu của Mỹ, Nhậm Chính Phi (nhà sáng lập kiêm Giám đốc điều hành Huawei) lập luận rằng nước này vẫn có thể đạt hiệu năng tiên tiến bằng cách “xếp chồng và gom cụm” các chip thay vì cạnh tranh từng nút một.
Trung Quốc hy vọng sẽ vượt mặt Nvidia bằng cách kết hợp các chip tương đối trưởng thành với kiến trúc điện toán mới - Ảnh: Shutterstock
Điện toán gần bộ nhớ đề cập đến phương pháp thiết kế phần cứng - phần mềm kết hợp, đặt các chip AI gần bộ nhớ để giảm việc di chuyển dữ liệu và giúp cải thiện hiệu suất. Liên kết lai 3D là kỹ thuật đóng gói chip tiên tiến cho phép xếp chồng các chip với nhau theo chiều dọc và tạo kết nối điện tử trực tiếp giữa các bề mặt chip.
Wei Shaojun nhấn mạnh rằng kế hoạch của ông dựa trên "chuỗi cung ứng hoàn toàn nội địa", thể hiện nỗ lực từ Trung Quốc nhằm đảm bảo các nguồn lực điện toán AI trong nước khi cuộc chiến công nghệ Mỹ - Trung tiếp diễn.
Các biện pháp kiểm soát xuất khẩu từ Mỹ với chip AI tiên tiến và công cụ sản xuất chip, được ban hành lần đầu vào tháng 10.2022 và sau đó mở rộng, gồm giới hạn sản xuất chip logic từ 14 nanomet trở xuống và DRAM từ 18 nanomet trở xuống, khiến Trung Quốc khó tiếp cận với năng lực sản xuất chip hàng đầu.
Giảm phụ thuộc vào phần cứng Nvidia
Trong sự kiện ở Thâm Quyến, Wei Shaojun cũng nhấn mạnh Trung Quốc cần nhanh chóng giảm phụ thuộc vào phần cứng Nvidia.
Wei Shaojun nói rằng sự phát triển AI toàn cầu vẫn phụ thuộc rất nhiều vào kiến trúc GPU Nvidia và nền tảng điện toán CUDA của công ty hàng đầu Mỹ, mà ông mô tả là "sự phụ thuộc ba lớp" trải rộng trên mô hình, kiến trúc và hệ sinh thái.
GPU là bộ xử lý đồ họa mà các nhà nghiên cứu sử dụng để xây dựng, huấn luyện và vận hành các mô hình AI cùng các sản phẩm liên quan. Ban đầu, GPU được thiết kế để xử lý các tác vụ đồ họa phức tạp, như kết xuất hình ảnh 3D trong game hoặc phần mềm thiết kế. Tuy nhiên ngày nay, GPU được sử dụng rộng rãi trong nhiều lĩnh vực vượt xa đồ họa, đặc biệt là AI và học máy.
Lý do là vì GPU có kiến trúc xử lý song song với hàng nghìn lõi tính toán nhỏ, cho phép thực hiện đồng thời rất nhiều phép tính ma trận và vector - những thứ mà AI và mô hình ngôn ngữ cần để huấn luyện và suy luận. Trong khi đó, CPU (bộ xử lý trung tâm) thường chỉ có ít lõi hơn và tối ưu cho các tác vụ tuần tự.
Các GPU của Nvidia là thành phần then chốt để huấn luyện mô hình AI cũng như dùng trong quá trình suy luận.
CUDA (Compute Unified Device Architecture) là nền tảng và môi trường lập trình do Nvidia phát triển, cho phép lập trình viên sử dụng GPU không chỉ để xử lý đồ họa mà còn để thực hiện các tác vụ tính toán tổng quát, đặc biệt trong các lĩnh vực như AI, mô phỏng khoa học, xử lý ảnh và dữ liệu lớn.
Nếu coi GPU là một cỗ máy tính mini với hàng nghìn lõi xử lý, CUDA chính là ngôn ngữ và bộ công cụ cho phép bạn điều khiển cỗ máy đó. Trước đây, GPU chỉ xử lý đồ họa và game. Nhờ CUDA, GPU có thể thực hiện các phép tính “phi đồ họa”, ví dụ huấn luyện AI hay giải phương trình khoa học.
Các công ty Trung Quốc cũng đang đầu tư vào các loại bộ tăng tốc khác, như NPU và TPU, để giảm sự thống trị của Nvidia trên thị trường điện toán AI.
Một ví dụ là Zhonghao Xinying, công ty khởi nghiệp chip AI có trụ sở tại thành phố Hàng Châu, gần đây đã thu hút sự chú ý như giải pháp nội địa thay thế Nvidia. Zhonghao Xinying tuyên bố TPU của họ có thể cung cấp hiệu suất điện toán "gấp 1,5 lần" so với GPU Nvidia A100 (ra mắt tháng 5.2020).
Cần lưu ý là Blackwell, dòng GPU mới nhất của Nvidia trên thị trường, có hiệu năng nhanh gấp hàng chục lần so với A100. Thế nên, việc theo kịp Nvidia vẫn là thách thức cực đại với các hãng chip AI Trung Quốc.
Sơn Vân