MLCommons là một tổ chức phi lợi nhuận chuyên công bố kết quả hiệu suất chuẩn cho các hệ thống AI. Tổ chức này đã công bố dữ liệu về hiệu suất huấn luyện từ các chip của Nvidia và Advanced Micro Devices, trong đó Nvidia và các đối tác là những đơn vị duy nhất cung cấp dữ liệu về huấn luyện mô hình AI mã nguồn mở Llama 3.1 405B của Meta Platforms.
Mô hình này có số lượng tham số lớn, lên đến hàng trăm tỉ, thậm chí hàng nghìn tỉ tham số. Nó là một bài kiểm tra quan trọng để đánh giá hiệu suất chip trong các nhiệm vụ huấn luyện phức tạp nhất. Kết quả cho thấy chip Blackwell mới của Nvidia nhanh hơn gấp đôi so với chip Hopper thế hệ trước trên cơ sở mỗi chip.
Cụ thể, 2.496 chip Blackwell đã hoàn thành bài kiểm tra huấn luyện trong 27 phút, trong khi thế hệ chip trước của Nvidia cần hơn gấp ba số lượng chip để đạt thời gian nhanh hơn.
Chetan Kapoor, Giám đốc Sản phẩm của CoreWeave (đối tác của Nvidia trong việc thực hiện các thử nghiệm), chia sẻ rằng ngành AI đang có xu hướng chuyển sang sử dụng các nhóm chip nhỏ hơn. Chúng được kết nối thành các hệ thống phụ để thực hiện các nhiệm vụ huấn luyện AI riêng biệt, thay vì tạo ra các nhóm đồng nhất với 100.000 chip trở lên.
Kapoor nhấn mạnh: “Sử dụng phương pháp này, họ có thể tiếp tục tăng tốc hoặc giảm thời gian huấn luyện một số mô hình có kích thước hàng nghìn tỉ tham số”. Điều này cho thấy sự đổi mới trong cách tổ chức và sử dụng chip để đáp ứng nhu cầu huấn luyện AI ngày càng phức tạp.
Với chip Blackwell, Nvidia tiếp tục củng cố vị thế dẫn đầu trong thị trường huấn luyện AI. Đây vốn là nền tảng để phát triển các mô hình AI tiên tiến phục vụ nhiều ngành, từ công nghệ tiêu dùng đến nghiên cứu khoa học.
Sự ra mắt của chip Blackwell không chỉ đánh dấu một bước tiến về công nghệ mà còn cho thấy khả năng của Nvidia trong việc đáp ứng nhu cầu ngày càng tăng về huấn luyện AI. Điều này rất quan trọng trong bối cảnh cạnh tranh toàn cầu và áp lực đổi mới không ngừng trong ngành công nghệ AI.
Anh Tú