Gánh nặng năng lượng từ công nghệ AI ngày càng tăng. Ảnh minh họa: Phú Vinh/Bnews/vnanet.vn
Các ước tính này của ông Alex de Vries-Gao, người sáng lập trang web về tính bền vững công nghệ Digiconomist, được đưa ra trong bối cảnh Cơ quan Năng lượng Quốc tế (IEA) dự báo AI sẽ cần một lượng năng lượng gần tương đương mức tiêu thụ hiện thời của Nhật Bản vào cuối thập kỷ này.
Những tính toán trên được dựa theo lượng điện tiêu thụ bởi các chip do Nvidia và Advanced Micro Devices sản xuất, vốn được sử dụng để huấn luyện và vận hành các mô hình AI. Nghiên cứu này cũng tính đến mức tiêu thụ năng lượng của chip được sử dụng bởi những công ty khác, chẳng hạn như Broadcom.
IEA ước tính trong năm 2024, tất cả các trung tâm dữ liệu – không bao gồm hoạt động khai thác tiền điện tử – đã tiêu thụ 415 terawatt giờ (TWh) điện. Trong nghiên cứu của mình, ông De Vries-Gao cho rằng AI có thể đã chiếm 20% tổng số điện tiêu thụ này.
Theo ước tính của nhà nghiên cứu từ Digiconomist, mức tiêu thụ năng lượng của các hệ thống AI có thể tiến gần đến 49% tổng mức tiêu thụ điện của những trung tâm dữ liệu (không bao gồm hoạt động khai thác tiền điện tử) vào cuối năm 2025, đạt 23 gigawatt (GW) và gấp đôi tổng mức tiêu thụ năng lượng của Hà Lan.
Tuy nhiên, ông De Vries-Gao cũng nhận định một số yếu tố có thể dẫn đến sự chậm lại trong nhu cầu năng lượng của phần cứng AI - ví dụ như nhu cầu đối với các ứng dụng như ChatGPT suy giảm.
Một vấn đề khác có thể là căng thẳng địa chính trị dẫn đến những hạn chế trong sản xuất phần cứng AI, chẳng hạn như các biện pháp kiểm soát xuất khẩu. Ông De Vries-Gao dẫn chứng ví dụ về những rào cản đối với việc Trung Quốc tiếp cận chip, điều này đã góp phần vào việc phát hành mô hình AI DeepSeek R1 được cho là sử dụng ít chip hơn. Ông cho rằng những đổi mới này có thể làm giảm chi phí tính toán và năng lượng của AI.
Nhưng ông cũng lưu ý rằng bất kỳ lợi ích nào về hiệu quả tiêu thụ năng lượng cũng có thể khuyến khích việc tăng cường sử dụng AI. Việc nhiều quốc gia cố gắng xây dựng hệ thống AI của riêng mình cũng có thể làm tăng nhu cầu phần cứng AI.
Nhà nghiên cứu của Digiconomist cũng chỉ ra một công ty khởi nghiệp về trung tâm dữ liệu của Mỹ, Crusoe Energy, đã đảm bảo được 4,5GW công suất năng lượng chạy bằng khí đốt cho cơ sở hạ tầng của mình. OpenAI – công ty sở hữu ChatGPT - nằm trong số các khách hàng tiềm năng của Crusoe Energy thông qua liên doanh Stargate của họ.
Theo ông De Vries-Gao, có những dấu hiệu ban đầu cho thấy các trung tâm dữ liệu Stargate này có thể làm trầm trọng thêm sự phụ thuộc vào nhiên liệu hóa thạch.
Năm ngoái, Microsoft và Google đã thừa nhận các nỗ lực phát triển AI của họ đang gây rủi ro cho khả năng đáp ứng những mục tiêu môi trường.
Ông De Vries-Gao cho biết thông tin về nhu cầu năng lượng của AI ngày càng trở nên khan hiếm, và nhà phân tích này mô tả đây là một “ngành công nghiệp thiếu minh bạch”. Đạo luật AI của EU yêu cầu các công ty AI phải công khai mức tiêu thụ năng lượng trong quá trình huấn luyện mô hình, nhưng không áp dụng cho việc sử dụng hàng ngày.
Giáo sư Adam Sobey, Giám đốc sứ mệnh về tính bền vững tại Viện Alan Turing cho rằng cần có sự minh bạch hơn về mức độ năng lượng mà các hệ thống AI tiêu thụ, cũng như mức năng lượng chúng có thể giúp tiết kiệm thông qua hỗ trợ những ngành công nghiệp phát thải lớn như giao thông vận tải và năng lượng trở nên hiệu quả hơn.
Hương Thủy (Tổng hợp)