Chip Maia 200 của Microsoft. Ảnh: Microsoft
Được đặt tên là Maia 200, con chip này sẽ vận hành tại các trung tâm dữ liệu của chính Microsoft trước khi công ty cung cấp rộng rãi cho khách hàng.
Theo Microsoft, Maia 200 sẽ được sản xuất dựa trên quy trình 3 nanomet của TSMC và được thiết kế để xử lý các tác vụ AI quy mô lớn, đồng thời mang lại hiệu suất cao tính trên mỗi USD chi phí.
Maia 200 sẽ được tích hợp vào các tủ máy chủ lớn với những khay chứa bốn chip mỗi khay. Microsoft cũng nhấn mạnh về tốc độ triển khai các chip mới này vào trung tâm dữ liệu, khi cho biết chip có thể được lắp đặt và chạy các mô hình AI chỉ trong vòng vài ngày kể từ khi linh kiện được chuyển đến. Đây là một thế mạng của con chip mới này, vì việc đưa các máy chủ AI vào vận hành nhanh chóng là một khía cạnh quan trọng của hoạt động kinh doanh trung tâm dữ liệu nói chung.
Tương tự như các bộ vi xử lý TPU của Google và Trainium của Amazon, sản phẩm chip AI thứ hai này của Microsoft được thiết kế nhằm mang lại cho Microsoft sự linh hoạt cao hơn trong cách vận hành những dịch vụ AI. Bằng việc sử dụng các dòng chip tự phát triển nội bộ, công ty đảm bảo không phải phụ thuộc hoàn toàn vào những bộ vi xử lý do Nvidia hay AMD cung cấp.
Trong khi Google và Amazon đã sử dụng các dòng chip tùy chỉnh của riêng họ trong nhiều năm qua, Microsoft lại có phần chậm chân hơn trong việc áp dụng công nghệ bán dẫn AI "cây nhà lá vườn".
Sự xuất hiện của Maia 200 làm gia tăng áp lực cạnh tranh mà Nvidia đang phải đối mặt từ cả AMD lẫn chính khách hàng của mình. Trước đó, vào tháng 11/2025, tờ The Information đưa tin Meta đang đàm phán với Google về việc sử dụng TPU của “gã khổng lồ” tìm kiếm này trong các trung tâm dữ liệu của mình để vận hành những dịch vụ AI. Thông tin này đã khiến cổ phiếu Nvidia giảm giá vào thời điểm đó, do Phố Wall lo ngại rằng công ty này đang có nguy cơ mất thị phần.
Tuy nhiên, bất chấp những động thái lấn sân sang địa hạt của Nvidia, Google, Amazon và Microsoft khó có khả năng tạo ra mối đe dọa nghiêm trọng đối với công ty dẫn đầu trên thị trường AI này. Các chuyên gia nhận định rằng, mặc dù chip AI của các công ty điện toán đám mây có thể hoạt động tốt cho dịch vụ nội bộ, nhưng điều đó không có nghĩa là nó có thể được áp dụng dễ dàng đối với các bên thứ ba có quy mô nhỏ hơn.
Về hiệu năng, Maia 200 sẽ không soán ngôi Nvidia, nhưng Microsoft khẳng định rằng nó vượt trội hơn cả TPU mới nhất của Google và chip Trainium mới nhất của Amazon trong một số hạng mục. Maia 200 cũng được trang bị bộ nhớ băng thông cao lớn hơn so với các sản phẩm của Google hay Amazon, vốn là yếu tố then chốt để vận hành những ứng dụng AI hiệu suất cao.
Khánh Ly/Bnews/vnanet.vn