Dù 'đếm cua trong lỗ', AI ngốn năng lượng còn kinh khủng hơn đào coin

Dù 'đếm cua trong lỗ', AI ngốn năng lượng còn kinh khủng hơn đào coin
3 giờ trướcBài gốc
Trí tuệ nhân tạo đòi hỏi cung cấp nguồn năng lượng lớn
Nghiên cứu cho biết, nhu cầu năng lượng từ AI có thể tăng gấp đôi vào cuối năm nay, chiếm gần một nửa tổng mức tiêu thụ điện của các trung tâm dữ liệu trên toàn thế giới — chưa tính đến lượng điện tiêu thụ cho hoạt động đào bitcoin.
Nghiên cứu mới được trình bày dưới dạng một bài bình luận của ông Alex de Vries-Gao (người sáng lập Digiconomist, một tổ chức nghiên cứu chuyên đánh giá tác động môi trường của công nghệ). De Vries-Gao bắt đầu thành lập Digiconomist vào cuối những năm 2010 để nghiên cứu tác động môi trường của việc đào bitcoin — một hoạt động tiêu tốn năng lượng cực lớn.
Theo ông, nhu cầu nghiên cứu về AI đã trở nên cấp thiết hơn trong vài năm qua, do sự phổ biến nhanh chóng của ChatGPT và các mô hình ngôn ngữ lớn (LLM) sử dụng lượng điện năng khổng lồ. Theo nghiên cứu của ông, mức tiêu thụ điện toàn cầu của AI dự kiến sẽ vượt qua bitcoin trước khi năm nay kết thúc.
De Vries-Gao khẳng định: “Số tiền mà giới đào bitcoin cần để đạt được quy mô như hiện nay chỉ là hạt cát so với số tiền mà Google, Microsoft và các ông lớn công nghệ khác đang đổ vào AI. Quá trình này leo thang nhanh hơn rất nhiều và cũng là mối đe dọa lớn hơn nhiều”.
AI đang ảnh hưởng tới mục tiêu khí hậu của Big Tech
Sự phát triển của AI đã và đang ảnh hưởng trực tiếp tới các cam kết khí hậu của các tập đoàn công nghệ lớn. Trong các báo cáo bền vững gần đây, nhiều công ty đã thừa nhận AI là yếu tố chính khiến mức tiêu thụ năng lượng tăng vọt. Chẳng hạn, lượng khí thải nhà kính của Google đã tăng 48% kể từ năm 2019, làm phức tạp mục tiêu đạt phát thải ròng bằng 0 vào năm 2030 của công ty.
Báo cáo bền vững năm 2024 của Google nêu rõ: “Khi chúng tôi tích hợp AI ngày càng sâu vào các sản phẩm, việc giảm khí thải sẽ trở nên khó khăn hơn, do nhu cầu điện tăng từ cường độ tính toán ngày càng cao của AI”.
Tháng trước, Cơ quan Năng lượng quốc tế (IEA) công bố báo cáo cho thấy các trung tâm dữ liệu chiếm khoảng 1,5% mức tiêu thụ điện toàn cầu trong năm 2024, tương đương khoảng 415 terawatt/giờ (TWh) — chỉ thấp hơn một chút so với tổng nhu cầu điện hàng năm của Ả Rập Saudi.
Và con số này chắc chắn sẽ còn tăng: Trong những năm gần đây, mức tiêu thụ điện của trung tâm dữ liệu tăng nhanh gấp 4 lần mức tăng chung. Trong khi đó, đầu tư vào trung tâm dữ liệu gần như tăng gấp đôi kể từ năm 2022, phần lớn là do nhu cầu mở rộng năng lực xử lý AI. IEA dự đoán, mức tiêu thụ điện của trung tâm dữ liệu sẽ vượt 900 TWh vào cuối thập kỷ này.
AI tiêu tốn bao nhiêu năng lượng?
Hiện vẫn chưa có con số chính xác về mức tiêu thụ điện mà AI chiếm trong tổng mức dùng điện của các trung tâm dữ liệu. Các trung tâm dữ liệu còn phục vụ nhiều dịch vụ khác — như lưu trữ đám mây hay cơ sở hạ tầng web — không nhất thiết liên quan đến AI, vốn đòi hỏi xử lý rất nặng. Mặt khác, các công ty công nghệ phần lớn giữ kín thông tin về mức tiêu thụ năng lượng của phần mềm và phần cứng của họ.
Một số nghiên cứu đã bắt đầu ước tính từ phía người dùng, chẳng hạn như tính lượng điện cần cho một truy vấn ChatGPT. Tuy nhiên, De Vries-Gao lại chọn cách tiếp cận từ phía chuỗi cung ứng, bắt đầu từ khâu sản xuất phần cứng và vận hành trung tâm dữ liệu, nhằm đưa ra cái nhìn toàn cảnh và toàn cầu hơn về tác động năng lượng của AI.
Theo De Vries-Gao, nhu cầu tính toán cực lớn của AI đang tạo ra một "nút thắt cổ chai" tự nhiên trong chuỗi cung ứng phần cứng AI toàn cầu, đặc biệt xoay quanh Công ty Sản xuất bán dẫn TSMC đến từ Đài Loan (Trung Quốc). Đây là đơn vị dẫn đầu không thể tranh cãi trong sản xuất phần cứng chủ chốt có thể đáp ứng được các yêu cầu khắt khe của AI. Các công ty như Nvidia gia công sản xuất chip của mình cho TSMC, vốn cũng sản xuất chip cho những ông lớn khác như Google và AMD.
De Vries-Gao đã sử dụng ước tính từ các nhà phân tích, nội dung các cuộc họp báo cáo tài chính và thông tin kỹ thuật phần cứng để xây dựng một ước tính xấp xỉ về năng lực sản xuất của TSMC. Sau đó, ông phân tích các số liệu công khai về mức tiêu thụ điện của phần cứng AI và các ước tính về tỷ lệ sử dụng thực tế — vốn có thể thay đổi tùy mục đích sử dụng — để tính toán sơ bộ mức điện năng mà AI đang tiêu thụ trong tổng nhu cầu của trung tâm dữ liệu toàn cầu.
De Vries-Gao ước tính rằng nếu năng lực sản xuất không tăng, AI sẽ tiêu thụ tới 82 TWh điện trong năm nay — xấp xỉ với mức tiêu thụ điện hằng năm của một quốc gia như Thụy Sĩ. Và nếu năng lực sản xuất phần cứng AI tăng gấp đôi trong năm nay, như các nhà phân tích dự đoán, thì nhu cầu điện năng của AI cũng có thể tăng tương ứng, chiếm gần một nửa tổng mức tiêu thụ điện của trung tâm dữ liệu toàn cầu vào cuối năm.
Những ẩn số trong bài toán năng lượng AI
Dù bài nghiên cứu sử dụng rất nhiều nguồn dữ liệu công khai, phần lớn những gì De Vries-Gao đang làm là "đếm cua trong lỗ". Đơn giản vì chúng ta không có đủ dữ liệu về các yếu tố then chốt ảnh hưởng đến mức tiêu thụ điện của AI. Chẳng hạn như tỷ lệ sử dụng thực tế của từng loại phần cứng AI trên thế giới, nó đang được dùng cho tác vụ học máy nào, hay ngành công nghiệp sẽ phát triển theo hướng nào trong tương lai.
Sasha Luccioni, nhà nghiên cứu AI và năng lượng, đồng thời là trưởng nhóm khí hậu tại nền tảng học máy mã nguồn mở Hugging Face, cảnh báo rằng không nên quá phụ thuộc vào các kết luận trong nghiên cứu mới vì còn quá nhiều ẩn số chưa được làm rõ. Luccioni, người không tham gia nghiên cứu, cho rằng sự minh bạch từ các tập đoàn công nghệ là yếu tố then chốt nếu muốn tính toán chính xác mức tiêu thụ điện của AI. Bà Luccioni nói: “Chính vì chúng ta không có đủ thông tin nên các nhà nghiên cứu phải tự suy luận và tính toán. Đó là lý do tại sao biên độ sai số lại lớn đến vậy”.
Và các công ty công nghệ thực sự nắm giữ các dữ liệu đó. Năm 2022, Google từng công bố một báo cáo về học máy và tiêu thụ điện, trong đó nêu rằng học máy chiếm khoảng 10–15% tổng lượng điện tiêu thụ của Google từ 2019 đến 2021, đồng thời dự đoán rằng nếu áp dụng thực hành tốt, “đến năm 2030, lượng khí thải carbon từ quá trình huấn luyện AI sẽ giảm”. Tuy nhiên, kể từ sau báo cáo đó — được công bố trước khi ra mắt mô hình Google Gemini vào năm 2023 — Google chưa đưa ra thêm thông tin chi tiết nào về lượng điện học máy tiêu thụ.
Chính vì vậy, De Vries-Gao khẳng định: “Nếu bạn muốn đưa ra bất kỳ đánh giá nào có cơ sở về mức tiêu thụ điện của AI, bạn phải thật sự đi sâu vào chuỗi cung ứng bán dẫn. Nếu các tập đoàn công nghệ lớn chỉ cần công bố những thông tin tương tự như Google đã làm cách đây ba năm, thì chúng ta đã có một chỉ báo khá chính xác về năng lượng mà AI đang dùng”.
Anh Tú
Nguồn Một Thế Giới : https://1thegioi.vn/du-dem-cua-trong-lo-ai-ngon-nang-luong-con-kinh-khung-hon-dao-coin-232960.html