Bốn cách tiếp cận nhằm giải 'cơn khát' năng lượng của AI

Bốn cách tiếp cận nhằm giải 'cơn khát' năng lượng của AI
một ngày trướcBài gốc
Nhiều cải tiến đang được triển khai nhằm nâng cao hiệu quả năng lượng của phần mềm đứng sau các mô hình AI. Ảnh minh họa
Không ít chuyên gia trong ngành đã lo ngại về cách tiếp cận “bằng mọi giá” để giành vị trí dẫn đầu trong lĩnh vực AI của các doanh nghiệp. Họ cho rằng tình thế hiện tại là “tiền đang được đổ vào, các GPU đang bị đốt nóng, nước đang bị bốc hơi” và “đây hoàn toàn là hướng đi sai lầm”.
Tuy nhiên, theo trang MIT Technology Review, giữa những lo ngại về chi phí tăng vọt và tác động đến khí hậu, vẫn có những tia hy vọng. Hiện nay, nhiều cải tiến đang được triển khai nhằm nâng cao hiệu quả năng lượng của phần mềm đứng sau các mô hình AI, các con chip máy tính vận hành những mô hình này, và các trung tâm dữ liệu nơi các con chip hoạt động không ngừng nghỉ.
Việc giảm thiểu tiêu thụ năng lượng trong lĩnh vực trí tuệ nhân tạo (AI) đang trở thành một ưu tiên quan trọng, không chỉ vì mục tiêu bền vững mà còn để giảm chi phí vận hành. MIT Technology Review đã đưa ra bốn hướng tiếp cận chính để cải thiện hiệu quả năng lượng của AI, từ mô hình phần mềm, phần cứng, hệ thống làm mát, đến mối liên hệ giữa tiết kiệm chi phí và giảm tiêu thụ năng lượng.
CÁC MÔ HÌNH AI NGÀY CÀNG HIỆU QUẢ HƠN
Cốt lõi của AI là các mô hình được huấn luyện trên khối lượng dữ liệu khổng lồ. Các mô hình ngôn ngữ lớn (LLM) thường được huấn luyện trên dữ liệu thu thập từ khắp internet hoặc các thư viện sách số hóa. Cách tiếp cận này, tuy hiệu quả, lại tiêu tốn rất nhiều thời gian và năng lượng do khối lượng dữ liệu khổng lồ và không được tinh chỉnh. Thay vì “ném tất cả vào một nồi” và để mô hình tự tìm ra các mẫu phù hợp, các nhà nghiên cứu đề xuất một cách tiếp cận hiệu quả hơn: sử dụng dữ liệu được chọn lọc kỹ lưỡng, phù hợp với từng nhiệm vụ cụ thể.
Ví dụ, Raquel Urtasun, nhà sáng lập Waabi, cho rằng các mô hình AI nên được huấn luyện giống như cách trẻ em học tập: thông qua một “giáo trình” được thiết kế cẩn thận. Waabi sử dụng mô phỏng siêu thực để huấn luyện các xe tải tự hành, cho phép kiểm soát chi tiết dữ liệu mà mô hình tiếp nhận.
Tương tự, Writer, một công ty khởi nghiệp xây dựng LLM cho khách hàng doanh nghiệp, sử dụng dữ liệu tổng hợp (synthetic data) để huấn luyện mô hình. Thay vì tải toàn bộ Wikipedia, Writer chỉnh sửa các trang Wikipedia thành nhiều định dạng khác nhau (như câu hỏi và trả lời) để mô hình học nhanh hơn từ ít dữ liệu hơn, giảm chi phí và thời gian huấn luyện.
Sau khi huấn luyện, việc vận hành mô hình cũng tiêu tốn năng lượng đáng kể, đặc biệt với các mô hình suy luận hoạt động theo từng bước để đưa ra câu trả lời. Những mô hình này, như o3 của OpenAI, được ước tính có chi phí vận hành lên tới 30.000 USD cho mỗi tác vụ, do chúng thực hiện nhiều bước tính toán trung gian. Tuy nhiên, Ali Farhadi, một chuyên gia trong lĩnh vực AI, dự đoán chi phí này sẽ giảm khi các kỹ sư tối ưu hóa thuật toán, chẳng hạn như ngăn mô hình đi quá sâu vào các hướng suy luận không hiệu quả.
Một giải pháp khác là sử dụng tính toán song song, vốn đã là nền tảng của nhiều mô hình ngôn ngữ lớn nhờ các đơn vị xử lý đồ họa (GPU). Tính toán song song chia nhỏ tác vụ thành các phần và xử lý đồng thời, giúp tăng tốc độ và tiết kiệm năng lượng. Tuy nhiên, điều này đòi hỏi các thuật toán mới để phối hợp các tác vụ phụ và tổng hợp kết quả.
Thay vì sử dụng các mô hình lớn cho mọi tác vụ, xu hướng hiện nay là phát triển các mô hình nhỏ hơn, được tinh chỉnh cho các ứng dụng cụ thể. Những mô hình này thường có hiệu suất tương đương với các mô hình lớn trong các trường hợp nhất định, nhưng tiêu tốn ít năng lượng hơn. Chuyên gia Farhadi nhấn mạnh rằng sẽ có “rất nhiều mô hình chuyên biệt” thay vì một mô hình duy nhất giải quyết mọi vấn đề.
Christina Shim, giám đốc bền vững tại IBM, nhận thấy các doanh nghiệp đang chọn các mô hình nhỏ hơn, phù hợp với nhu cầu cụ thể như quản lý kho hàng hoặc trả lời câu hỏi khách hàng trong các lĩnh vực hẹp. Cô so sánh việc sử dụng mô hình lớn cho các tác vụ đơn giản như “dùng búa tạ để đóng đinh” – một sự lãng phí không cần thiết.
CHIP MÁY TÍNH HIỆU QUẢ HƠN
Khi phần mềm AI được tối ưu hóa, phần cứng cũng cần cải tiến để đáp ứng nhu cầu năng lượng. Các công ty như Nvidia đang phát triển chip ngày càng mạnh mẽ để đáp ứng nhu cầu của các mô hình lớn, nhưng điều này không bền vững về lâu dài. Naveen Verma, CEO của EnCharge AI, cho biết việc chạy suy luận trên các mô hình lớn đang trở thành thách thức lớn do chi phí năng lượng cao.
Một số công ty, như Microsoft, đã thử nghiệm đưa tính toán AI ra khỏi các trung tâm dữ liệu và lên các thiết bị cá nhân, như sáng kiến Copilot+ PC. Tuy nhiên, sáng kiến này chưa thành công do các chip trong thiết bị cá nhân cần được cải tiến để đạt hiệu quả năng lượng cao hơn, đặc biệt khi chỉ sử dụng pin.
EnCharge AI đang phát triển một loại chip mới sử dụng tính toán analog trong bộ nhớ, thay vì tính toán số truyền thống dựa trên 0 và 1. Tính toán analog cho phép biểu diễn thông tin ở nhiều giá trị trung gian, giúp thực hiện nhiều phép tính hơn với cùng mức năng lượng. Mặc dù tính toán analog từng gặp vấn đề về độ chính xác, EnCharge đã tìm ra cách khắc phục, tập trung vào phép nhân ma trận cao chiều – phép toán cốt lõi của các mô hình học sâu. Với sự hỗ trợ từ các gã khổng lồ như TSMC, EnCharge đang phát triển chip analog để cải thiện hiệu quả năng lượng.
Ngoài ra, các công nghệ chip khác như tính toán thần kinh lấy cảm hứng từ não bộ, hoặc chip quang học sử dụng ánh sáng thay vì electron, cũng đang được nghiên cứu. Dù chưa thể cạnh tranh với chip số của Nvidia, những công nghệ này hứa hẹn sẽ đáp ứng nhu cầu về hiệu quả năng lượng trong tương lai.
Không chỉ chip, việc truyền dữ liệu trong máy tính cũng tiêu tốn nhiều năng lượng. IBM đã phát triển một loại công tắc quang học mới, giúp quản lý lưu lượng dữ liệu số hiệu quả hơn 80% so với các thiết bị trước đây, góp phần giảm tiêu thụ năng lượng.
LÀM MÁT CÁC TRUNG TÂM DỮ LIỆU HIỆU QUẢ HƠN
Các chip hiệu năng cao như GPU, được sử dụng rộng rãi trong AI, tiêu thụ nhiều điện năng hơn trên mỗi đơn vị không gian so với các chip truyền thống. Điều này dẫn đến lượng nhiệt lớn hơn, đòi hỏi hệ thống làm mát mạnh mẽ hơn. Tom Earp, giám đốc kỹ thuật tại công ty thiết kế Page, cho biết các trung tâm dữ liệu đang phải đối mặt với nhu cầu năng lượng ngày càng tăng do chip ngày càng nóng.
Hệ thống làm mát bằng không khí (quạt lớn) không còn đủ khả năng đáp ứng. Nước đã trở thành giải pháp làm mát chính vì khả năng truyền nhiệt tốt hơn. Tuy nhiên, việc sử dụng nước gây áp lực lên nguồn nước địa phương gần các trung tâm dữ liệu.
Một cách tiếp cận là tái sử dụng nhiệt thải từ trung tâm dữ liệu. Ví dụ, ở Đan Mạch, nước nóng từ các trung tâm dữ liệu được dùng để sưởi ấm nhà cửa, còn ở Paris, nó được sử dụng để làm nóng bể bơi trong Thế vận hội. Ngoài ra, nước có thể được làm lạnh bằng năng lượng tái tạo (như gió hoặc mặt trời) và lưu trữ để sử dụng sau, giúp giảm tiêu thụ điện vào giờ cao điểm.
Tuy nhiên, khi chip ngày càng nóng hơn, làm mát bằng nước thôi chưa đủ. Tony Atti, CEO của Phononic, cho biết khoảng 45% năng lượng trong trung tâm dữ liệu dùng cho chip, nhưng gần 40% được dùng để làm mát. Phononic phát triển các chip làm mát nhiệt điện nhỏ gọn, có thể đặt gần phần cứng để kiểm soát nhiệt độ chính xác. Các chip này đẩy nhiệt thừa vào ống nước để loại bỏ, đồng thời tăng hiệu quả cho các hệ thống làm mát hiện có.
TIẾT KIỆM CHI PHÍ ĐI ĐÔI VỚI GIẢM TIÊU THỤ NĂNG LƯỢNG
Mặc dù AI đang tiêu tốn lượng năng lượng khổng lồ, có nhiều lý do để lạc quan. Với AI, giảm chi phí vận hành đồng nghĩa với giảm tiêu thụ năng lượng, tạo động lực mạnh mẽ cho các công ty đầu tư vào hiệu quả năng lượng. Naveen Verma nhấn mạnh rằng sự kết hợp giữa bền vững môi trường và bền vững chi phí sẽ thúc đẩy ngành công nghiệp AI phát triển theo hướng tiết kiệm năng lượng.
Christina Shim từ IBM cũng đồng tình, cho rằng việc chọn các mô hình nhỏ và hiệu quả là “quyết định kinh doanh thông minh”. Khi AI trở thành một sản phẩm phổ thông, cạnh tranh thị trường sẽ buộc các công ty giảm chi phí, trong đó tiết kiệm năng lượng là yếu tố then chốt.
Bà Shim so sánh sự phát triển của AI với sự bùng nổ của internet và máy tính cá nhân cách đây 25 năm. Dù số lượng người dùng tăng vọt, chi phí năng lượng của các công nghệ này vẫn ổn định nhờ cải tiến hiệu quả. Cô tin rằng AI cũng sẽ đi theo xu hướng tương tự khi công nghệ trưởng thành.
Thanh Minh
Nguồn VnEconomy : https://vneconomy.vn/bon-cach-tiep-can-nham-giai-con-khat-nang-luong-cua-ai.htm