Amazon thách thức Nvidia bằng chip AI mới, sẽ được Apple sử dụng

Amazon thách thức Nvidia bằng chip AI mới, sẽ được Apple sử dụng
11 giờ trướcBài gốc
Hôm 3.12, Amazon Web Services, đơn vị dịch vụ đám mây của Amazon, đã giới thiệu các máy chủ trung tâm dữ liệu mới chứa các chip trí tuệ nhân tạo (AI) do chính họ sản xuất, nhằm cạnh tranh với Nvidia. Điểm đáng chú ý là việc Apple xác nhận sử dụng các chip này.
Các máy chủ mới, sử dụng 64 chip Trainium2 của Amazon Web Services (AWS), sẽ được kết nối thành một siêu máy tính khổng lồ với hàng trăm ngàn chip, với sự hợp tác của công ty khởi nghiệp AI Anthropic – khách hàng đầu tiên sử dụng. Benoit Dupin, một lãnh đạo Apple, xác nhận công ty này đang sử dụng các chip Trainium2.
Với hơn 70% thị phần, Nvidia hiện thống trị lĩnh vực chip AI, trong khi các đối thủ truyền thống, gồm cả AMD, đang nỗ lực chạy theo.
Tuy nhiên, một số đối thủ mạnh nhất với Nvidia cũng là khách hàng của họ gồm Meta Platforms, Microsoft và Google – cả ba đều có chip AI tùy chỉnh riêng. Trong khi chip Meta Platforms phục vụ cho các hoạt động nội bộ, Amazon và Google vừa sử dụng chip của mình cho mục đích nội bộ vừa cung cấp cho khách hàng trả phí.
Matt Garman, Giám đốc điều hành Amazon Web Services, cho biết thế hệ chip AI tiếp theo của công ty là Trainium3 sẽ ra mắt vào năm 2025. Sản phẩm mới này “được thiết kế riêng cho các khối lượng công việc khắt khe về đào tạo và suy luận AI tạo sinh”, Matt Garman phát biểu tại sự kiện ở thành phố Las Vegas (Mỹ) hôm 3.12.
Các máy chủ mới, được Amazon Web Services gọi là Trn2 UltraServers, sẽ cạnh tranh với máy chủ hàng đầu của Nvidia chứa 72 chip AI Blackwell mới nhất. Cả hai công ty đều cung cấp công nghệ độc quyền để kết nối các chip, nhưng Gadi Hutt (người đứng đầu mảng phát triển kinh doanh chip AI tại Amazon Web Services) cho biết họ có thể kết nối nhiều chip hơn Nvidia.
“Chúng tôi tin rằng với Trainium2, khách hàng có thể đạt được hiệu suất tính toán cao hơn so với Nvidia hiện nay, và cũng có thể tiết kiệm chi phí”, Gadi Hutt chia sẻ với hãng tin Reuters, đồng thời nói một số mô hình AI có thể được đào tạo với chi phí thấp hơn 40% so với khi sử dụng chip Nvidia.
Lãnh đạo Amazon Web Services cho biết các máy chủ mới và siêu máy tính khổng lồ sẽ bắt đầu hoạt động vào năm 2025, nhưng không cung cấp ngày cụ thể.
Cả Amazon Web Services và Nvidia đều đang gấp rút đưa các sản phẩm hàng đầu của mình ra thị trường trong bối cảnh nhu cầu tăng vọt, song việc giao hàng của Nvidia đang bị hạn chế bởi các vấn đề chuỗi cung ứng.
Cả Nvidia và Amazon Web Services đều dựa vào TSMC (Đài Loan) để sản xuất chip AI cho họ. TSMC là hãng sản xuất chip theo hợp đồng số 1 thế giới.
“Về nguồn cung, chúng tôi đang ở trạng thái khá tốt trên toàn bộ chuỗi cung ứng. Khi chúng tôi sản xuất các hệ thống, thành phần duy nhất mà chúng tôi không thể lấy nguồn cung từ hai nhà cung cấp khác nhau là các chip Trainium”, Gadi Hutt nói với Reuters.
Amazon Web Services tin rằng với Trainium2, khách hàng có thể đạt được hiệu suất tính toán cao hơn so với Nvidia hiện nay, và cũng có thể tiết kiệm chi phí - Ảnh: Internet
Amazon đầu tư thêm khoản tiền lớn vào Anthropic với tham vọng lật đổ Nvidia
Cách đây hơn 10 ngày, hai công ty đã công bố thỏa thuận mới, nâng tổng số tiền đầu tư của Amazon vào Anthropic lên 8 tỉ USD. Mục tiêu khi Amazon chi số tiền này là mong chip AI của mình được sử dụng nhiều hơn để đào tạo và vận hành các mô hình ngôn ngữ lớn.
Để đổi lấy khoản tiền đầu tư đó, Anthropic cho biết sẽ sử dụng Amazon Web Services làm "đối tác chính về đào tạo AI và đám mây".
Ngoài ra, Anthropic (đối thủ cạnh tranh với OpenAI) cũng tuyên bố sẽ giúp Amazon thiết kế chip Trainium trong tương lai và đóng góp vào việc xây dựng Neuron - nền tảng phát triển mô hình AI của Amazon.
Đây được xem là đòn tấn công trực diện vào Nvidia, công ty thống trị thị trường chip AI với GPU (bộ xử lý đồ họa), máy chủ và nền tảng CUDA.
Thách thức với Amazon là thuyết phục Anthropic thực sự sử dụng chip Trainium trên quy mô lớn. Chuyển đổi từ GPU Nvidia là phức tạp, tốn thời gian và rủi ro với các nhà phát triển mô hình AI. Amazon từng gặp khó khăn với điều đó.
Dario Amodei (Giám đốc điều hành Anthropic) tỏ ra không hoàn toàn tin tưởng chip Trainium của Amazon dù công ty sẽ nhận được thêm 4 tỉ USD.
"Chúng tôi sử dụng GPU Nvidia, nhưng cũng dùng chip tùy chỉnh từ cả Google và Amazon. Mỗi loại chip đều có những ưu và nhược điểm khác nhau. Tôi nghĩ chúng tôi đang nhận được giá trị từ tất cả chúng", Dario Amodei phát biểu tại hội nghị công nghệ Cerebral Valley ở thành phố San Francisco (Mỹ).
Năm 2023, Amazon đã đầu tư lần đầu vào Anthropic với số tiền 4 tỉ USD. Thỏa thuận này đi kèm với các điều kiện tương tự.
Thời điểm đó, Anthropic cho biết sẽ sử dụng chip Trainium và Inferentia của Amazon để xây dựng, đào tạo và triển khai các mô hình AI trong tương lai và hai công ty sẽ hợp tác phát triển công nghệ chip.
Song không rõ Anthropic đã thực hiện các cam kết này đến đâu. Gần đây, trang The Information đưa tin Anthropic vẫn ưu tiên sử dụng GPU Nvidia hơn các chip AI Amazon.
The Information cho biết các cuộc thảo luận về khoản đầu tư mới nhất tập trung vào việc khiến Anthropic cam kết hơn sử dụng các dịch vụ của Amazon. Vài dấu hiệu cho thấy Anthropic có thể làm điều này sau khi nhận thêm 4 tỉ USD từ Amazon.
Trong thông báo hôm 22.11, Anthropic nói đang làm việc với Amazon trên Neuron, phần mềm giúp kết nối chip với các mô hình AI, tương tự vai trò của CUDA với Nvidia. Điều đó sẽ tạo ra sự cạnh tranh với nền tảng phần mềm Nvidia CUDA, thứ thực sự làm cho GPU của hãng trở nên hữu dụng và rất khó bị thay thế bởi các loại chip khác. Nvidia có lợi thế đi trước hơn một thập kỷ với CUDA và các đối thủ cạnh tranh gặp nhiều khó khăn để vượt qua điều đó.
"Sự hợp tác kỹ thuật sâu sắc" của Anthropic cho thấy một cấp độ cam kết mới trong việc dùng và cải thiện chip Trainium của Amazon.
Dù một số hãng sản xuất chip cạnh tranh hoặc thậm chí đánh bại Nvidia về một số yếu tố hiệu suất điện toán, không chip nào khác có thể sánh được với công ty Mỹ này về thị phần.
Amazon nằm trong danh sách ngắn các nhà cung cấp dịch vụ đám mây đang cố gắng trang bị cho các trung tâm dữ liệu của họ chip AI riêng và tránh chi tiêu quá nhiều vào GPU Nvidia, vốn có biên lợi nhuận thường vượt quá 70%.
Amazon đã ra mắt chip Trainium và Inferentia, được đặt tên theo tác vụ đào tạo và suy luận mà chúng được chế tạo, vào năm 2020. Mục tiêu là ít phụ thuộc hơn vào Nvidia và giảm chi phí cho điện toán đám mây trong kỷ nguyên AI.
"Khi mở rộng quy mô, khách hàng nhanh chóng nhận ra rằng AI có thể gây tốn kém. Đó là lý do tại sao chúng tôi đã đầu tư vào chip tùy chỉnh của riêng mình trong Trainium để đào tạo và Inferentia để suy luận", Giám đốc điều hành Amazon - Andy Jassy nói trong cuộc báo cáo kết quả kinh doanh của công ty vào tháng 10.
Song giống nhiều đối thủ khác, Amazon nhận thấy rằng việc phá vỡ sự ưu ái của ngành dành cho Nvidia là rất khó khăn. Một số người nói rằng đó là do CUDA, cung cấp bộ phần mềm phong phú với các thư viện, công cụ và trợ giúp khắc phục sự cố. Những người khác nói rằng đó là thói quen lâu năm.
Hồi tháng 5, nhà phân tích Stacy Rasgon của hãng Bernstein nói với trang Insider rằng ông không biết bất kỳ công ty nào sử dụng chip AI Amazon trên quy mô lớn.
Với thông báo mới đây, Amazon hy vọng tình hình sẽ thay đổi. Vào tháng 10, Andy Jass tiết lộ chip Trainium 2 đã sẵn sàng và nhận được sự quan tâm đáng kể từ thị trường.
"Chúng tôi thấy sự quan tâm đáng kể đến những chip này và đã quay lại với các đối tác của mình nhiều lần để sản xuất nhiều hơn so với kế hoạch ban đầu", ông cho hay.
Tuy nhiên, Dario Amodei lại tỏ ra thận trọng. "Chúng tôi tin rằng sứ mệnh của mình sẽ được phục vụ tốt nhất khi trở thành một công ty độc lập. Nếu bạn nhìn vào vị thế của chúng tôi trên thị trường và những gì công ty có thể làm, các quan hệ đối tác độc lập mà chúng tôi có với Google, Amazon và những bên khác, tôi nghĩ điều này rất khả thi", Giám đốc điều hành Anthropic nói.
Sơn Vân
Nguồn Một Thế Giới : https://1thegioi.vn/amazon-thach-thuc-nvidia-bang-chip-ai-moi-se-duoc-apple-su-dung-226717.html