Ngoài ra, Broadcom còn ký một thỏa thuận bom tấn mở rộng với Anthropic, qua đó cho phép công ty khởi nghiệp AI này tiếp cận khoảng 3,5 gigawatt năng lực tính toán dựa trên các chip AI của Google.
Thông tin này được công bố trong một hồ sơ gửi cơ quan quản lý chứng khoán hôm 6.4, cho thấy nhu cầu bùng nổ với hạ tầng có thể vận hành các mô hình AI tạo sinh. Mức độ phổ biến của Anthropic đã tăng mạnh năm nay, với Claude từng trở thành ứng dụng miễn phí tại Mỹ trên Apple App Store vào tháng 2, sau khi tranh chấp giữa công ty và Lầu Năm Góc được công khai.
Trong buổi công bố báo cáo tài chính tháng trước, ông Hock Tan (Giám đốc điều hành Broadcom) cho biết: “Với Anthropic, chúng tôi đã có một khởi đầu rất tốt trong năm 2026 khi cung cấp 1 gigawatt năng lực tính toán từ các TPU do Google tự phát triển”. Broadcom hỗ trợ Google sản xuất các TPU.
“Đến năm 2027, nhu cầu này được dự báo sẽ tăng vọt vượt quá 3 gigawatt năng lực tính toán”, ông nói thêm.
Broadcom vừa ký thỏa thuận mở rộng, cho phép Anthropic tiếp cận khoảng 3,5 gigawatt năng lực tính toán dựa trên GPU của Google - Ảnh: SV
TPU là loại chip do Google phát triển từ năm 2015, được thiết kế chuyên phục vụ các tác vụ liên quan đến AI. Nhờ được tối ưu cho một nhiệm vụ, TPU có thể huấn luyện và vận hành các mô hình AI lớn nhanh hơn, hiệu quả hơn và tiết kiệm điện hơn so với nhiều loại chip truyền thống.
Điểm đáng chú ý là Google không còn giữ TPU cho riêng mình. Thông qua dịch vụ đám mây Google Cloud, gã khổng lồ công nghệ Mỹ cho phép các công ty, tổ chức bên ngoài thuê và sử dụng sức mạnh của TPU để phát triển sản phẩm AI. Chính điều này giúp TPU đang trở thành một trong những công nghệ quan trọng cho hạ tầng AI thế hệ mới, có thể cạnh tranh với GPU (bộ xử lý đồ họa) Nvidia.
Trong báo cáo sau cuộc gọi tài chính, các nhà phân tích tại hãng Mizuho ước tính rằng Broadcom sẽ thu về 21 tỉ USD doanh thu AI từ Anthropic năm 2026 và 42 tỉ USD vào năm 2027. Hồ sơ công bố hôm 6.4 không nêu giá trị cụ thể.
Anthropic ký thỏa thuận hàng chục tỉ USD với Google
Hồi tháng 10.2025, Anthropic ký thỏa thuận trị giá hàng chục tỉ USD với Google. Theo đó, Anthropic sẽ được tiếp cận tới 1 triệu TPU của gã khổng lồ công nghệ Mỹ.
Thỏa thuận này dự kiến mang lại hơn 1 gigawatt năng lực tính toán vào năm 2026, để vận hành và huấn luyện mô hình AI Claude. Việc mở rộng quy mô TPU giúp Anthropic tăng tốc đáng kể cả hai khâu quan trọng là huấn luyện và suy luận, trong bối cảnh nhu cầu sử dụng AI doanh nghiệp đang bùng nổ.
Không đơn thuần là hợp đồng mua chip, đây còn là bước đi chiến lược giúp Anthropic xây dựng nền tảng hạ tầng dài hạn. Google nhấn mạnh rằng TPU có lợi thế về hiệu năng và chi phí, cho phép xử lý các tác vụ học máy ở quy mô lớn hiệu quả hơn so với nhiều giải pháp truyền thống. Điều này đặc biệt quan trọng khi chi phí tính toán đang trở thành yếu tố quyết định trong cuộc đua AI.
Thỏa thuận đó cũng củng cố vị thế của Google như đối thủ đáng gờm của Nvidia trong lĩnh vực phần cứng AI, đồng thời đưa Anthropic trở thành một trong những khách hàng sử dụng TPU lớn nhất thế giới. Về phía Anthropic, việc đặt trước lượng lớn năng lực tính toán giúp công ty đảm bảo đủ tài nguyên để phát triển các mô hình AI thế hệ mới khi nguồn cung chip toàn cầu vẫn còn hạn chế.
OpenAI và hợp tác Broadcom sản xuất chip AI tùy chỉnh
Trong khi đó, OpenAI hợp tác cùng Broadcom để sản xuất các chip AI đầu tiên do hãng thiết kế, trong nỗ lực đảm bảo sức mạnh điện toán nhằm đáp ứng nhu cầu ngày càng tăng với các dịch vụ của mình.
Hồi tháng 10.2025, hai công ty thông báo OpenAI sẽ chịu trách nhiệm thiết kế chip AI, còn Broadcom sẽ phát triển và triển khai chúng bắt đầu từ nửa sau năm 2026. Họ dự kiến tung ra số chip AI tùy chỉnh có tổng công suất 10 gigawatt, tương đương mức tiêu thụ điện của hơn 8 triệu hộ gia đình Mỹ, hoặc gấp 5 lần lượng điện do đập Hoover sản xuất.
Đập Hoover là con đập khổng lồ nằm trên sông Colorado, tại ranh giới giữa hai bang Nevada và Arizona của Mỹ.
Hiện tại, Anthropic và OpenAI đều phụ thuộc nhiều vào các GPU từ Nvidia thông qua các nhà cung cấp đám mây như Amazon, Google và Microsoft.
OpenAI cũng cam kết sử dụng 6 gigawatt GPU của AMD, trong đó 1 gigawatt đầu tiên dự kiến sẽ được triển khai vào nửa cuối năm nay.
Trong thông báo về vòng gọi vốn kỷ lục 122 tỉ USD gần đây, OpenAI cho biết Amazon đã đầu tư 50 tỉ USD. Đáng chú ý là OpenAI đồng ý sử dụng khoảng 2 gigawatt công suất Trainium thông qua cơ sở hạ tầng của Amazon Web Services. Trainium là chip AI tùy chỉnh của Amazon Web Services, với phiên bản mới nhất là Trainium3 trình làng vào tháng 12.2025.
Nvidia đóng góp vào vòng gọi vốn mới của OpenAI, khi đầu tư 30 tỉ USD. OpenAI cho biết đã mở rộng hợp tác với Nvidia như một phần của thỏa thuận và đồng ý sử dụng 3 gigawatt công suất suy luận chuyên dụng cùng 2 gigawatt công suất huấn luyện trên hệ thống Vera Rubin sắp ra mắt của Nvidia.
Sơn Vân