Cuộc đua AI đối mặt nút thắt cổ chai

Cuộc đua AI đối mặt nút thắt cổ chai
5 giờ trướcBài gốc
Điều này dẫn đến việc các công ty chạy AI liên tục: Dùng nó viết code, tạo video, phân tích dữ liệu, tự động hóa công việc, xử lý lượng văn bản khổng lồ và thậm chí dùng cho cả những việc nhỏ không thật cần thiết. Kết quả, lượng tiêu thụ token - đơn vị dữ liệu mà mô hình AI dùng để đọc và tạo văn bản, đang tăng vọt. Khi nguồn cung phục vụ năng lực tính toán, như hạ tầng phần cứng, điện năng và chip không đủ đáp ứng, cuộc đua phát triển AI rốt cục cũng đối mặt với nút thắt cổ chai của nó.
Sự mất cân đối đang phủ bóng lên tương lai AI. Ảnh: Linkedin
Hạ tầng không đủ đáp ứng
Tháng 3 vừa qua, Anthropic - một công ty nghiên cứu và phát triển AI có mô hình được nhiều doanh nghiệp sử dụng, đã bắt đầu hạn chế quyền truy cập vào công cụ của mình trong những giờ cao điểm. Sau đó, công ty tiếp tục điều chỉnh các gói dịch vụ, như một cách gián tiếp để giảm mức độ sử dụng một cách tự nhiên. Sang tháng 4, dịch vụ của Anthropic liên tiếp gặp sự cố khoảng nửa tiếng mỗi ngày. Cùng trong tháng 3, OpenAI bất ngờ đóng cửa công cụ tạo video bằng AI là Sora để chuyển hướng nguồn lực tính toán vốn đang khan hiếm sang các dịch vụ khác. Đến ngày 20/4, GitHub - nền tảng cộng tác lập trình thuộc Microsoft, cũng ngừng nhận đăng ký mới cho công cụ hỗ trợ lập trình của mình.
Trên thực tế, các công ty này gần như không còn lựa chọn nào khác, khi nhu cầu tính toán đang tăng nhanh hơn rất nhiều so với tốc độ hạ tầng có thể mở rộng. Từ tháng 1 đến 3/2026, lượng token được xử lý hàng tuần trên OpenRouter - một chợ giao dịch mô hình AI, đã tăng gấp 4 lần. Trong khi đó, toàn ngành đang lao vào cuộc chạy đua xây dựng cơ sở hạ tầng mới.
Ngày 20/4, Anthropic đã công bố một thỏa thuận hợp tác trị giá 100 tỷ USD với Amazon để đảm bảo 5GW công suất máy chủ, với gần 20% trong đó dự kiến đi vào hoạt động trước cuối năm nay. Bốn ngày sau, công ty tiếp tục cho biết Google sẽ đầu tư thêm 40 tỷ USD để đáp ứng nhu cầu tính toán ngày càng lớn. Đến ngày 27/4, OpenAI thông báo điều chỉnh lại quan hệ hợp tác với Microsoft để có thể phân phối sản phẩm thông qua bất kỳ nhà cung cấp điện toán đám mây nào, qua đó tạo điều kiện linh hoạt hơn trong việc tiếp cận nguồn lực tính toán. Năm “đại gia” công nghệ gồm Alphabet, Amazon, Meta, Microsoft và Oracle đang chi các khoản tiền khổng lồ để xây trung tâm dữ liệu.
Làn sóng phản đối xây trung tâm dữ liệu
Dù vậy, việc mở rộng công suất ngày càng khó khăn hơn, khi không chỉ tại Mỹ mà ở nhiều nơi khác trên thế giới, sự phản đối về mặt chính trị đối với việc xây dựng trung tâm dữ liệu đang tăng. Trong tháng 4, các nhà lập pháp của bang Maine (Mỹ) đã bỏ phiếu ủng hộ dự luật cấm xây dựng các trung tâm dữ liệu có công suất trên 20MW cho đến tháng 11 năm sau. Dù dự luật này cuối cùng bị thống đốc phủ quyết, hơn 10 bang khác ở Mỹ đang xem xét các biện pháp tương tự. Theo một thống kê, các kế hoạch trung tâm dữ liệu với tổng giá trị lên tới 156 tỷ USD đã bị hoãn hoặc chặn trong năm ngoái do vấp phải sự phản đối từ cộng đồng địa phương và các vụ kiện tụng.
Từ Ireland đến Brazil, làn sóng phản đối ngày càng lan rộng. Đặc biệt, mối lo rằng các trung tâm dữ liệu tiêu thụ quá nhiều điện sẽ khiến hóa đơn điện tăng cao đang trở nên phổ biến hơn, và có thể sẽ còn nghiêm trọng hơn nữa nếu xung đột tại vùng Vịnh tiếp tục đẩy giá năng lượng lên cao. Bên cạnh đó, nhiều công ty sản xuất phần cứng phục vụ các trung tâm dữ liệu, từ chip, thiết bị mạng cho tới hệ thống làm mát, lại đầu tư quá ít so với tốc độ tăng của nhu cầu. Do đó, tình trạng thiếu hụt năng lực tính toán có vẻ sẽ còn trầm trọng hơn trong tương lai.
Không đủ chip tính toán
Ngay cả khi được cấp phép xây dựng và kết nối nguồn điện từ lưới điện quốc gia hoặc hệ thống phát điện riêng, các đơn vị xây trung tâm dữ liệu vẫn sẽ gặp khó khăn trong việc mua đủ thiết bị tính toán cần thiết để vận hành chúng. Theo ông Ivan Chiam của SemiAnalysis, hiện không có đủ chip để lấp đầy các trung tâm dữ liệu đang được xây dựng. Hãy lấy các GPU do NVIDIA thiết kế làm ví dụ. Giá thuê mẫu GPU H100 của NVIDIA ra mắt năm 2022 đã tăng khoảng 30% kể từ tháng 11. Lý do là nhiều khách hàng không mua được các thế hệ chip mới hơn, nên phải quay lại sử dụng dòng cũ. Các bộ xử lý AI cạnh tranh khác cũng ngày càng khó tiếp cận.
CEO của Amazon Andy Jassy tháng 4 qua cũng nói công ty gần như đã bán hết quyền truy cập vào chip AI Trainium2 của mình. Thậm chí, một phần lớn công suất của dòng Trainium4 dự kiến ra mắt năm sau “đã được đặt trước”. Tình trạng khan hiếm cũng lan sang các loại chip nhớ, nhất là bộ nhớ băng thông cao (HBM) mà mô hình AI phụ thuộc rất lớn. Cả 3 nhà sản xuất lớn là SK Hynix, Samsung và Micron đều cho biết phần lớn sản lượng năm 2026 đã bán hết. Dù tia hy vọng đã xuất hiện trong tháng 3 khi Google giới thiệu TurboQuant - thuật toán nhằm giảm lượng bộ nhớ mà AI cần sử dụng, giới phân tích vẫn dự báo nhu cầu HBM sẽ vượt xa nguồn cung ít nhất trong 3 năm tới. Sự thiếu hụt cũng lan sang CPU. Các công cụ AI tự chủ (agent) với khả năng lập kế hoạch, suy luận và tự thực hiện nhiệm vụ, phụ thuộc nhiều hơn vào CPU để điều phối hoạt động.
Công ty trong chuỗi cung ứng ít đầu tư
Cốt lõi của nút thắt nằm ở chỗ các công ty trong chuỗi cung ứng AI đang đầu tư ít hơn rất nhiều so với các đại gia công nghệ. Một khảo sát về kế hoạch chi tiêu vốn năm nay của khoảng 50 nhà sản xuất chip, thiết bị sản xuất chip, máy chủ, thiết bị mạng và hệ thống làm mát lớn nhất cho thấy khoảng cách đáng kể. Trong khi 5 đại gia công nghệ đã tăng gấp 3 tổng chi tiêu vốn, lên hơn 750 tỷ USD, các nhà cung cấp phần cứng chỉ tăng đầu tư thêm khoảng 50% và tổng mức đầu tư của họ chưa bằng ⅓ các ông lớn.
Hãy lấy TSMC - nơi sản xuất chip theo hợp đồng lớn nhất thế giới và là nhà cung cấp chủ lực các GPU, CPU tiên tiến, làm ví dụ. Các nhà máy hiện đại nhất của hãng - nơi sản xuất chip 5nm trở xuống, hiện đang hoạt động hết công suất. Chủ tịch C.C. Wei cũng thừa nhận nguồn cung “rất căng thẳng”, nhưng nhấn mạnh rằng “không có đường tắt” nào, vì việc xây một nhà máy mới mất từ 2 đến 3 năm.
Sự thận trọng của TSMC khiến nhiều khách hàng thất vọng. CEO OpenAI Sam Altman đã thúc giục công ty “cứ xây thêm”. Elon Musk thậm chí còn tuyên bố sẽ xây nhà máy “Terafab” với tham vọng tạo ra lượng năng lực xử lý mỗi năm còn lớn hơn toàn bộ ngành công nghiệp bán dẫn toàn cầu hiện nay. Dù vậy, cơ sở này - nơi Musk đang hợp tác với Intel để triển khai, khó có thể đi vào sản xuất trước năm 2028, và ngay cả khi vận hành cũng chỉ đạt một phần nhỏ quy mô kỳ vọng. Hơn nữa, Musk có thể sẽ gặp khó khăn trong việc mua đủ số lượng máy móc tiên tiến cần thiết để vận hành nhà máy, bởi chính những thiết bị này cũng đang thiếu hụt nghiêm trọng.Điều đó cho thấy sự mất cân đối đang phủ bóng lên tương lai AI. Việc cải tiến phần mềm chỉ mất vài tháng, nhưng mở rộng chuỗi cung ứng phần cứng lại cần tới nhiều năm. Các nhà sản xuất phần cứng lo ngại đầu tư quá mức rồi phải đối mặt với công suất dư thừa trong tương lai. Cơn sốt “đốt token” của Thung lũng Silicon và nhiều nơi trên thế giới có thể sẽ sớm phải chững lại vì nút thắt cổ chai ấy.
Khởi Vũ
Nguồn DNSG : https://doanhnhansaigon.vn/cuoc-dua-ai-doi-mat-nut-that-co-chai-336290.html