Theo các báo cáo thị trường và dự báo tài chính, riêng bốn hãng công nghệ lớn là Amazon, Alphabet (công ty mẹ Google), Microsoft và Meta có thể chi khoảng 650 tỉ USD cho vốn đầu tư trong năm 2026, phần lớn liên quan trực tiếp tới AI (trí tuệ nhân tạo).
Khoản đầu tư khổng lồ này đang tái định hình chuỗi giá trị của ngành công nghệ, từ chip bán dẫn, mạng cáp quang, năng lượng cho đến trung tâm dữ liệu.
Bốn hãng công nghệ lớn và OpenAI đầu tư hàng trăm tỉ USD để xây dựng những gì?
Phần lớn khoản đầu tư được đổ vào hạ tầng vật lý phục vụ AI, gồm ba trụ cột chính là trung tâm dữ liệu, chip AI và hệ thống năng lượng.
Trung tâm dữ liệu
Khoản chi lớn nhất trong cuộc đua AI hiện nay là xây dựng các trung tâm dữ liệu chuyên dụng cho công nghệ này.
Khác với trung tâm dữ liệu truyền thống - chủ yếu dùng để lưu trữ dữ liệu hoặc vận hành các trang web và ứng dụng, trung tâm dữ liệu AI chứa hàng chục đến hàng trăm nghìn chip mạnh mẽ, chủ yếu là GPU (bộ xử lý đồ họa), và tiêu thụ rất nhiều điện.
Vì thế, trung tâm dữ liệu AI phải có các hệ thống làm mát bằng nước hoặc chất lỏng chuyên dụng để tránh quá nhiệt. Bên trong các cơ sở này còn có mạng cáp quang tốc độ rất cao để các chip AI trao đổi dữ liệu với nhau nhanh nhất có thể.
Nhiều trung tâm dữ liệu AI hiện nay có thể tiêu thụ lượng điện tương đương một thành phố nhỏ. Một ví dụ tiêu biểu là siêu trung tâm dữ liệu Hyperion do Meta xây dựng tại bang Louisiana (Mỹ), được thiết kế với công suất 2 gigawatt ở giai đoạn đầu và có thể mở rộng lên tới 5 gigawatt, tương đương nhiều nhà máy điện lớn.
Tổng diện tích xây dựng Hyperion dự kiến khoảng 37 ha
Một trong những dự án hạ tầng AI lớn nhất hiện nay là Stargate, do OpenAI (công ty khởi nghiệp đứng sau ChatGPT) dẫn dắt và hợp tác với SoftBank, Oracle, MGX, Nvidia, Microsoft, Samsung, SK Hynix. Stargate hướng tới xây dựng mạng lưới trung tâm dữ liệu AI có tổng công suất 10 gigawatt, với mức đầu tư có thể lên tới 500 tỉ USD trong nhiều năm.
Siêu cụm AI với hàng chục nghìn GPU
Một phần rất lớn trong ngân sách đầu tư cho AI được dùng để mua chip xử lý chuyên dụng cho AI, thường là GPU của Nvidia hoặc các bộ tăng tốc AI do AMD thiết kế.
Trong các trung tâm dữ liệu hiện đại, những chip này không hoạt động riêng lẻ mà được ghép lại thành các siêu cụm AI. Mỗi cụm có thể gồm hàng chục nghìn GPU kết nối với nhau bằng mạng tốc độ cực cao, kèm theo hệ thống lưu trữ dữ liệu khổng lồ có dung lượng tới hàng petabyte. Những siêu cụm AI này được dùng để huấn luyện các mô hình ngôn ngữ với hàng nghìn tỉ tham số, chẳng hạn GPT của OpenAI, Google Gemini hay Llama của Meta.
Để đáp ứng nhu cầu tính toán ngày càng lớn của mô hình AI tiên tiến, các hãng chip đang triển khai phiên bản thế hệ mới hiệu năng cao hơn nhiều so với trước. Chẳng hạn, Nvidia đã phát triển kiến trúc GPU Rubin và Feynman tiếp sau Blackwell, trong khi AMD sắp tung ra dòng chip AI MI450.
Chip AI tự thiết kế
Ngoài việc mua GPU từ Nvidia hoặc AMD, một số hãng công nghệ lớn hiện cũng đang đầu tư mạnh vào việc tự thiết kế chip AI riêng. Xu hướng này ngày càng rõ rệt trong vài năm gần đây, khi nhu cầu tính toán cho AI tăng bùng nổ và chi phí phần cứng ngày càng cao.
Một trong những công ty đi đầu trong lĩnh vực này là Google với dòng TPU (Tensor Processing Unit). Google đã phát triển TPU từ gần một thập kỷ trước và liên tục nâng cấp qua nhiều thế hệ để phục vụ việc huấn luyện và vận hành các mô hình AI lớn, điển hình là Gemini. Những TPU được tối ưu đặc biệt cho phép tính ma trận, loại phép tính cốt lõi trong học sâu, nên có thể xử lý nhiều tác vụ AI nhanh và tiết kiệm năng lượng hơn so với chip đa dụng như GPU. Hiện nay, TPU đã trở thành nền tảng tính toán quan trọng trong các dịch vụ AI cũng như hệ thống điện toán đám mây của Google.
Tương tự, Amazon cũng phát triển chip AI riêng cho dịch vụ đám mây của mình, với hai dòng nổi bật là Trainium (chuyên dùng để huấn luyện các mô hình ngôn ngữ lớn) và Inferentia (được thiết kế để vận hành mô hình AI sau khi huấn luyện xong). Các chip này được tích hợp trực tiếp vào nền tảng điện toán đám mây của Amazon, giúp khách hàng sử dụng AI với chi phí thấp hơn so với việc chạy hoàn toàn trên GPU.
Microsoft cũng không đứng ngoài xu hướng này khi phát triển dòng chip Maia nhằm phục vụ hạ tầng AI của nền tảng đám mây Azure. Việc có chip riêng giúp Microsoft tối ưu hệ thống từ phần mềm cho đến phần cứng, từ đó giảm chi phí vận hành các dịch vụ AI quy mô lớn.
Trong khi đó, Meta dự định tung ra các chip AI mới tự thiết kế 6 tháng một lần. Các chip AI mới nằm trong chương trình Meta Training and Inference Accelerator (MTIA) của công ty. Chip đầu tiên trong loạt này có tên MTIA 300, đã được đưa vào sử dụng để vận hành các hệ thống xếp hạng và gợi ý nội dung của Meta. Ba chip còn lại gồm MTIA 400, MTIA 450, MTIA 500 sẽ được triển khai vào năm 2026 và 2027. Trong đó, MTIA 450 và MTIA 500 được thiết kế để thực hiện suy luận, quá trình mô hình AI phản hồi các câu hỏi và yêu cầu của người dùng.
Mục tiêu của các gã khổng lồ công nghệ khi tự thiết kế chip là giảm phụ thuộc vào Nvidia và AMD, tối ưu chi phí huấn luyện AI, tăng hiệu năng cho các mô hình riêng.
Trong dài hạn, họ muốn kiểm soát toàn bộ chuỗi giá trị AI, từ chip, phần mềm cho đến trung tâm dữ liệu.
Hạ tầng điện năng cực lớn
Một thách thức lớn của AI là nhu cầu điện năng khổng lồ. Để huấn luyện và vận hành các mô hình ngôn ngữ lớn, trung tâm dữ liệu AI phải sử dụng hàng chục nghìn máy chủ và chip cùng lúc, khiến mức tiêu thụ điện tăng vọt.
Vì vậy, các hãng công nghệ lớn không chỉ xây trung tâm dữ liệu mà còn đầu tư trực tiếp vào nguồn cung điện để đảm bảo hệ thống của mình hoạt động ổn định. Một số công ty tham gia xây dựng hoặc tài trợ các nhà máy điện mới, trong khi những hãng khác ký hợp đồng dài hạn để mua điện từ các dự án năng lượng tái tạo như điện gió hoặc điện mặt trời. Một số dự án còn xem xét sử dụng lò phản ứng hạt nhân cỡ nhỏ (SMR) để cung cấp nguồn điện ổn định cho các trung tâm dữ liệu AI trong tương lai.
Theo nhiều dự báo, điện năng dùng cho trung tâm dữ liệu trên toàn thế giới sẽ tăng mạnh những năm tới khi nhu cầu AI tiếp tục bùng nổ.
Cuối tháng 2, Tổng thống Mỹ Donald Trump cho biết đã yêu cầu các hãng công nghệ lớn phải tự xây dựng nhà máy điện cho trung tâm dữ liệu của mình. Đây là biện pháp nhằm bảo vệ người tiêu dùng khỏi việc hóa đơn điện tăng cao.
Thông báo này được đưa ra trong bối cảnh ngày càng có nhiều sự phản đối tại các địa phương trên khắp nước Mỹ với các dự án trung tâm dữ liệu tiêu thụ nhiều năng lượng, vốn bị đổ lỗi cho việc giá điện tăng vọt.
Mạng cáp quang và hệ thống kết nối siêu tốc
Ngoài chip và trung tâm dữ liệu, một khoản chi lớn trong hạ tầng AI dành cho hệ thống mạng kết nối giữa các GPU. Trong quá trình huấn luyện mô hình AI, hàng chục nghìn GPU phải hoạt động cùng lúc và liên tục trao đổi dữ liệu với nhau. Nếu hệ thống mạng không đủ nhanh, các GPU sẽ phải chờ nhau xử lý, khiến toàn bộ cụm máy chủ hoạt động kém hiệu quả.
Do đó, các hãng đang đầu tư mạnh vào mạng tốc độ cực cao dành riêng cho trung tâm dữ liệu AI. Chẳng hạn sử dụng mạng cáp quang để truyền dữ liệu bằng ánh sáng thay vì tín hiệu điện như dây đồng, giúp tăng tốc độ truyền dữ liệu và giảm độ trễ. Các trung tâm dữ liệu AI hiện cũng bắt đầu triển khai switch mạng 800Gbps hoặc 1.6Tbps, cho phép truyền lượng dữ liệu khổng lồ giữa các máy chủ và GPU trong thời gian cực ngắn.
Bên cạnh đó, ngành công nghệ còn phát triển giải pháp mới như silicon photonics (công nghệ tích hợp linh kiện quang học trực tiếp vào chip) và co-packaged optics (các bộ phận truyền dữ liệu quang được đặt ngay cạnh chip để giảm hao hụt tín hiệu và tiết kiệm điện năng). Những công nghệ này giúp tăng băng thông mạng và giảm độ trễ, yếu tố rất quan trọng khi huấn luyện các mô hình quy mô lớn.
Chính vì nhu cầu truyền dữ liệu ngày càng lớn của các siêu cụm AI, Nvidia, AMD, Microsoft, Meta, OpenAI và Broadcom mới đây đã hợp tác xây dựng tiêu chuẩn kết nối quang học mở cho trung tâm dữ liệu AI.
Google, Meta, Microsoft, OpenAI đang đầu tư hàng trăm tỉ USD cho hạ tầng AI - Ảnh: MTG
Các hãng công nghệ lớn vay nợ để tài trợ cho cuộc đua AI
Một số hãng công nghệ lớn đang tăng vay nợ thông qua phát hành trái phiếu để có thêm tiền xây dựng hạ tầng AI.
Trước đây, Amazon, Alphabet, Microsoft, Meta Platforms thường sử dụng lượng tiền mặt khổng lồ của mình để đầu tư. Tuy nhiên, chi phí cho AI ngày càng lớn khiến họ phải tìm thêm nguồn vốn từ thị trường tài chính.
Amazon đang lên kế hoạch phát hành trái phiếu trị giá khoảng 37 - 42 tỉ USD để tài trợ cho việc mở rộng trung tâm dữ liệu, mua chip và xây dựng hạ tầng AI. Đây là một trong những thương vụ phát hành trái phiếu doanh nghiệp lớn nhất lịch sử ngành công nghệ.
Cuối năm 2025, Meta đã phát hành khoảng 30 tỉ USD trái phiếu, với mục đích tài trợ cho các dự án trung tâm dữ liệu và hạ tầng AI mới.
Chỉ riêng trong năm 2025, Alphabet, Amazon, Oracle, Meta và Microsoft đã phát hành khoảng 121 tỉ USD trái phiếu, so với 40 tỉ vào 2020.
Theo các nhà phân tích của ngân hàng đầu tư Morgan Stanley, tổng nợ dùng để tài trợ cho việc xây dựng trung tâm dữ liệu AI có thể vượt 1.000 tỉ USD vào năm 2028.
Điều này khiến nhiều chuyên gia theo dõi chặt chẽ mức vay nợ của ngành công nghệ trong bối cảnh cuộc đua AI ngày càng nóng lên.
Liệu thế giới đang bước vào bong bóng AI?
Quy mô đầu tư khổng lồ vào AI khiến nhiều người lo ngại rằng thị trường có thể đang hình thành bong bóng. Một trong những lý do là chi tiêu cho hạ tầng AI đang tăng quá nhanh. Chỉ trong vài năm, các hãng công nghệ đã cam kết đầu tư hàng trăm tỉ USD để xây dựng trung tâm dữ liệu, mua chip AI và mở rộng hạ tầng điện toán.
Một nguyên nhân khác gây lo ngại là tốc độ đầu tư đang tăng nhanh hơn doanh thu thực tế từ AI. Không phải tất cả doanh nghiệp đã tìm được cách kiếm tiền rõ ràng từ công nghệ này. Nhiều công ty vẫn đang thử nghiệm các mô hình kinh doanh khác nhau, từ cung cấp dịch vụ AI trên nền tảng điện toán đám mây, bán API cho doanh nghiệp, đến phát triển trợ lý AI hoặc công cụ tự động hóa. Nếu doanh thu từ AI tăng chậm hơn dự đoán, các dự án trung tâm dữ liệu trị giá hàng chục tỉ USD có thể mất nhiều năm mới thu hồi vốn.
Vài chuyên gia tài chính thậm chí cảnh báo rằng sự bùng nổ xây dựng trung tâm dữ liệu có thể dẫn tới tình trạng đầu tư vượt nhu cầu thực tế, tương tự những gì từng xảy ra trong bong bóng dot-com đầu những năm 2000.
Theo nghiên cứu của Morgan Stanley, tổng chi phí xây dựng và trang bị trung tâm dữ liệu phục vụ AI trên toàn cầu có thể đạt khoảng 2.900 tỉ USD đến năm 2028, với khoảng 1.400 tỉ USD trong số đó có thể do các hãng công nghệ lớn như Amazon, Microsoft, Alphabet và Meta tự chi trả. Phần còn lại nhiều khả năng sẽ được tài trợ thông qua nợ, trái phiếu, ngân hàng và các quỹ đầu tư.
Tuy vậy, không ít chuyên gia khác cho rằng lo ngại về bong bóng AI có thể bị phóng đại. Một số nhà phân tích Phố Wall nhận định rằng khoản đầu tư lớn vào hạ tầng hiện nay thực chất đang đặt nền móng cho một làn sóng ứng dụng AI trong tương lai. Khi các doanh nghiệp và chính phủ bắt đầu áp dụng AI rộng rãi hơn, nhu cầu về năng lực tính toán có thể tăng mạnh, giúp các khoản đầu tư hiện nay dần mang lại lợi nhuận.
Các hãng công nghệ lớn dẫn đầu cuộc đua AI như Microsoft, Amazon, Alphabet, Meta đều có doanh thu và lợi nhuận khổng lồ từ các lĩnh vực kinh doanh khác, chẳng hạn dịch vụ đám mây hay quảng cáo. Điều này giúp họ có nguồn lực tài chính đủ mạnh để duy trì đầu tư dài hạn vào hạ tầng, ngay cả khi lợi nhuận từ AI chưa xuất hiện ngay lập tức.
Bên cạnh đó, AI đang nhanh chóng được ứng dụng trong nhiều lĩnh vực của nền kinh tế, gồm cả lập trình phần mềm, chăm sóc khách hàng, phân tích dữ liệu doanh nghiệp, nghiên cứu khoa học và tự động hóa sản xuất.
Sơn Vân