Trí tuệ nhân tạo tồn tại một loại chi phí ẩn

Trí tuệ nhân tạo tồn tại một loại chi phí ẩn
3 giờ trướcBài gốc
(Ảnh minh họa)
Cơ quan Năng lượng Quốc tế (IEA) dự báo nhu cầu năng lượng của trí tuệ nhân tạo (AI) sẽ tăng gấp đôi từ nay đến năm 2030, tạo ra thách thức nghiêm trọng đối với an ninh năng lượng ở nhiều quốc gia và các khu vực có kế hoạch phát triển các trung tâm dữ liệu quy mô lớn.
Tuy nhiên, việc lập kế hoạch trước cho sự phát triển của các trung tâm dữ liệu và nhu cầu năng lượng liên quan là một nhiệm vụ gần như bất khả thi. Việc xác định chính xác mức sử dụng năng lượng thực tế và tương lai của trí tuệ nhân tạo là vô cùng khó khăn do sự phát triển và tiến bộ nhanh chóng của công nghệ, cũng như việc thiếu các yêu cầu công khai thông tin đối với các công ty AI. Từ đó, việc dự báo chính xác cho tương lai gần như là không thể, vì chúng ta thậm chí không biết AI đang sử dụng bao nhiêu năng lượng ở thời điểm hiện tại, song chúng ta biết rằng con số đó là rất lớn.
Kết quả của sự không chắc chắn này là nỗi lo từ phía người dùng cuối và sự đầu tư nhanh chóng - thậm chí là hoảng loạn - vào năng lực sản xuất năng lượng mới từ cả khu vực tư nhân và công cộng.
"Nguồn năng lượng cần thiết để vận hành cuộc cách mạng trí tuệ nhân tạo này là vô cùng lớn, và các công ty công nghệ lớn nhất thế giới đã đặt việc khai thác ngày càng nhiều nguồn năng lượng đó lên hàng đầu, với mục tiêu định hình lại lưới điện", theo báo cáo của MIT Technology Review hồi tháng 5/2025.
Các nhà lãnh đạo thế giới hầu như không có lựa chọn nào khác ngoài việc chuẩn bị cho những kịch bản khắc nghiệt nhất. Các quốc gia trên thế giới hiện đang đẩy nhanh tiến độ phát triển năng lượng mới, thường gây rủi ro cho các mục tiêu về khí hậu. Tờ Financial Times đưa tin hồi tháng 8 năm ngoái rằng: "Từ những sa mạc của Các Tiểu vương quốc Ả Rập Thống nhất đến vùng ngoại ô thủ đô Ireland, nhu cầu năng lượng của các ứng dụng và đào tạo AI đang thúc đẩy sự gia tăng đầu tư vào nhiên liệu hóa thạch".
Vấn đề về lượng năng lượng mà một truy vấn AI riêng lẻ sử dụng hiện đang là chủ đề tranh luận sôi nổi. Thậm chí còn có câu hỏi liệu sự lịch sự của chúng ta với các mô hình ngôn ngữ lớn - sử dụng thêm sức mạnh tính toán để nói "làm ơn" và "cảm ơn" với các mô hình như ChatGPT - có trực tiếp làm tăng mức tiêu thụ năng lượng và gây thiệt hại hàng triệu USD cho các công ty như OpenAI hay không. Cho dù ChatGPT nhận được đầu vào "cảm ơn" bao nhiêu lần đi nữa, nó vẫn phải chạy lại quá trình "suy luận", thực hiện "một lượt tính toán đầy đủ thông qua mô hình". Tất cả những phép tính riêng lẻ đó cộng lại, và tạo thành một con số khổng lồ.
Tất nhiên, lo ngại về một vài từ lịch sự thừa thãi là cực kỳ nhỏ so với vô số cách sử dụng AI khác, đòi hỏi nhiều năng lượng hơn.
Trên thực tế, các truy vấn riêng lẻ và hoạt động của người dùng hầu như không đáng kể so với những gì đang xảy ra ở phía nhà sản xuất. Sự lan rộng của AI không phải do người dùng thúc đẩy. Thay vào đó, nó do ngành công nghiệp thúc đẩy, và việc tích hợp bừa bãi vào hầu hết mọi lĩnh vực kinh tế đang diễn ra với tốc độ nhanh chóng, và gây ra những hậu quả nghiêm trọng về năng lượng.
"Việc tích hợp AI vào hầu hết mọi thứ, từ các cuộc gọi dịch vụ khách hàng... đang thúc đẩy nhu cầu khổng lồ", tờ Washington Post đưa tin vào tháng 8 năm ngoái. "Mặc dù hiệu quả được cải thiện đáng kể, nhưng việc đổ những lợi ích đó trở lại vào các mô hình lớn hơn, ngốn năng lượng hơn được cung cấp bởi nhiên liệu hóa thạch sẽ tạo ra con quái vật năng lượng mà chúng ta chưa thể hình dung".
Bình An
Nguồn PetroTimes : https://petrotimes.vn/tri-tue-nhan-tao-ton-tai-mot-loai-chi-phi-an-736923.html