Chip P200, như cách Cisco gọi, sẽ cạnh tranh với các sản phẩm tương tự từ Broadcom. Chip này nằm ở trung tâm của một thiết bị định tuyến mới mà công ty cũng ra mắt vào thứ 4, được thiết kế để kết nối các trung tâm dữ liệu rộng lớn, nằm cách xa nhau và dùng để huấn luyện các hệ thống AI.
Cisco ra mắt chip mới kết nối các trung tâm dữ liệu AI ở khoảng cách lớn.
Bên trong các trung tâm dữ liệu này, các công ty như Nvidia đang kết nối hàng chục ngàn, và trong tương lai là hàng trăm ngàn chip tính toán mạnh mẽ để hoạt động như một bộ não duy nhất xử lý các tác vụ AI. Xem thông tin giá cổ phiếu của Nvidia trên thẻ tài chính ở trên.
Mục đích của chip và bộ định tuyến mới của Cisco là kết nối nhiều trung tâm dữ liệu để hoạt động như một siêu máy tính khổng lồ. "Giờ đây, chúng tôi đang nói rằng: 'Công việc huấn luyện quá lớn, tôi cần nhiều trung tâm dữ liệu kết nối với nhau.' Và chúng có thể cách nhau cả ngàn dặm", Phó chủ tịch điều hành của nhóm phần cứng chung của Cisco, Martin Lund chia sẻ.
Lý do cho khoảng cách lớn như vậy là vì các trung tâm dữ liệu tiêu thụ lượng điện khổng lồ, khiến các công ty như Oracle và OpenAI tìm đến Texas, hay Meta Platforms đến Louisiana để tìm kiếm nguồn điện hàng gigawatt. Các công ty AI đang đặt trung tâm dữ liệu "bất cứ nơi đâu có thể lấy được điện", lãnh đạo Cisco nói.
Ông Lund không tiết lộ số tiền Cisco đầu tư để phát triển chip và bộ định tuyến này, cũng như kỳ vọng doanh số từ chúng.
Cisco cho biết chip P200 thay thế cho 92 chip riêng lẻ trước đây bằng chỉ một chip duy nhất và bộ định tuyến sử dụng chip này tiêu thụ ít hơn 65% năng lượng so với các thiết bị tương tự.
Một trong những thách thức chính là giữ dữ liệu đồng bộ giữa nhiều trung tâm dữ liệu mà không bị mất mát, đòi hỏi công nghệ bộ đệm (buffering) mà Cisco đã phát triển trong nhiều thập kỷ.
"Quy mô ngày càng tăng của đám mây và AI đòi hỏi mạng nhanh hơn với nhiều bộ đệm hơn để xử lý các đợt dữ liệu đột biến. Chúng tôi rất vui khi thấy P200 mang lại sự đổi mới và nhiều lựa chọn hơn trong lĩnh vực này", Phó chủ tịch cấp cao của Azure Networking tại Microsoft, Dave Maltz cho biết.
Hồi tháng 3, startup chip Retym đã huy động được 75 triệu USD trong năm nay, thuộc tổng số 180 triệu USD mà công ty sử dụng để phát triển các chip mạng phục vụ tính toán trí tuệ nhân tạo tại các trung tâm dữ liệu. Retym sản xuất các chip thực hiện xử lý tín hiệu số (DSP) giúp truyền tải thông tin nhanh chóng giữa các trung tâm dữ liệu lớn, một khả năng ngày càng quan trọng khi sự quan tâm đến AI bùng nổ.
Việc tạo ra các mô hình AI nền tảng, như những mô hình cung cấp sức mạnh cho ChatGPT, đòi hỏi hàng nghìn chip được kết nối với nhau bằng thiết bị mạng. Hiện tại, thị trường chip DSP mà Retym đang phát triển bị thống trị bởi Marvell Technology.
Chip mà Retym – được phát âm là "re-time" – đang phát triển sẽ giúp giải quyết một nút thắt cổ chai đang xuất hiện tại các trung tâm dữ liệu, theo lời Giám đốc điều hành Sachin Gandhi. Vì một số lượng lớn chip phải hoạt động cùng nhau trong các tác vụ tính toán AI, việc kết nối giữa chúng ngày càng trở nên quan trọng.
"Chúng tôi tập trung vào việc xây dựng các chip DSP mạch lạc cho việc triển khai cơ sở hạ tầng AI và đám mây thế hệ tiếp theo," ông Gandhi nói.
Chip đầu tiên của Retym được thiết kế để truyền dữ liệu trong phạm vi từ 10 km đến 120 km, nhưng được tối ưu hóa cho khoảng cách từ 30 - 40km. Chip DSP mà Retym đang phát triển sử dụng kỹ thuật điều chế để đảm bảo dữ liệu được truyền tải không bị lỗi. Tuy nhiên, chip này thua xa P200 của Cisco.
Đức Bình