AI đang “đói” điện và nước như thế nào?

Để giữ cho máy chủ chatbot AI đủ mát và hoạt động ổn định trong các trung tâm dữ liệu sẽ cần một lượng điện và nước khổng lồ. Đơn cử, một email 100 từ do AI tạo ra sẽ cần một chai nước để làm mát máy chủ; nhân với số lượng người dùng trên toàn thế giới, điều này có thể gây áp lực lên một nguồn tài nguyên đang dần trở nên khan hiếm hiện nay.

Khoảng một phần tư người Mỹ đã sử dụng ChatGPT kể từ khi chatbot này ra mắt vào năm 2022 và mọi truy vấn đều phải trả phí.

Chatbot sử dụng một lượng điện năng khổng lồ để phục vụ cho các phép tính toán, nhằm trả lời các câu hỏi của người dùng và việc chỉ cần giữ cho máy chủ của bot đủ mát để hoạt động trong các trung tâm dữ liệu cũng gây ảnh hưởng đến môi trường. Mặc dù gánh nặng chính xác gần như không thể định lượng được nhưng chắc chắn không hề nhỏ.

Một cặp báo cáo tuần này nêu bật chi phí môi trường ngày càng tăng của việc sử dụng AI tạo sinh và đào tạo LLM. The Washington Post đã làm việc với các nhà nghiên cứu tại Đại học California, Riverside để hiểu ChatGPT của OpenAI, sử dụng mô hình ngôn ngữ GPT-4 được phát hành vào tháng 3/2023, tiêu thụ bao nhiêu nước và điện để viết một email trung bình dài 100 từ.

chatgpt-drink-1726848265.jpg
Một truy vấn trên ChatGPT-4 có thể cần phải sử dụng tới 3 chai nước để làm mát máy chủ.

Dữ liệu nghiên cứu khiến nhiều người không khỏi kinh ngạc — cho thấy một truy vấn duy nhất trên ChatGPT-4 có thể sử dụng tới 3 chai nước. Một năm truy vấn trên ChatGPT sẽ cần lượng điện đủ để cung cấp cho 9 ngôi nhà. Vấn đề bền vững này có thể trở nên tồi tệ hơn gấp 10 lần vào năm 2030.

Dữ liệu nghiên cứu từ Đại học California cho thấy các trung tâm dữ liệu AI cần tiêu thụ rất nhiều nước để làm mát máy chủ. Việc sử dụng nước phụ thuộc vào tiểu bang và khoảng cách đến nguồn nước. Việc sử dụng nước ít hơn tương ứng với điện rẻ hơn và sử dụng nhiều hơn. Ví dụ, Texas sử dụng khoảng 235 mililít, khoảng một cốc, để tạo ra một email dài 100 từ, trong khi tiểu bang Washington yêu cầu 1.408 mililít cho cùng một email, tương đương với ba chai nước.

Về nhu cầu điện, để so sánh có thể lấy ví dụ một tìm kiếm thông thường trên Google sử dụng khoảng 0,3 Wh điện cho mỗi truy vấn. Trong khi đó, ChatGPT cần khoảng 2,9 Wh.

Như vậy, nếu 1 trong 10 người Mỹ đang đi làm sử dụng GPT-4 một lần một tuần trong một năm (tức là tổng cộng 52 truy vấn của 17 triệu người), thì nhu cầu điện năng tương ứng là 121.517 MWh - bằng với lượng điện tiêu thụ của mọi hộ gia đình ở Washington DC (ước tính là 671.803 người) trong 20 ngày. Ngoài ra, 105 triệu gallon nước sẽ được sử dụng chỉ để làm mát máy chủ.

Báo cáo lớn thứ hai được công bố vào đầu tuần này chỉ củng cố thêm vấn đề. Theo Bloomberg, sự phát triển của AI đang thúc đẩy quá trình xây dựng các cơ sở phát điện chạy bằng khí đốt mới trên khắp nước Mỹ. 
Nhu cầu điện phần lớn xuất phát từ các trung tâm dữ liệu AI, cơ sở sản xuất và xe điện. Theo đó, nhu cầu về trung tâm dữ liệu dự kiến sẽ tăng lên tới 10 lần mức hiện tại vào năm 2030, tương đương 9% tổng sản lượng điện của nước Mỹ. 

Số lượng nhà máy điện mới được xây dựng ở Mỹ đã tăng gần gấp đôi, bao gồm các nhà máy điện từ than và khí đốt để đáp ứng nhu cầu, phần lớn trong số đó sẽ được xây dựng ở Texas.

“Chúng tôi đã sẵn sàng chuyển hướng khỏi hệ thống năng lượng trong quá khứ, khỏi cơ sở hạ tầng tốn kém và gây ô nhiễm như nhà máy than và khí đốt. Nhưng giờ đây chúng tôi đang đi theo hướng ngược lại”, Kendl Kobbervig, Giám đốc vận động tại Clean Virginia nói với Bloomberg. 

Bloomberg lưu ý, các nhà máy khí đốt có xu hướng rò rỉ khí mê-tan, có "tác động làm nóng hành tinh gấp 80 lần so với carbon dioxide trong 20 năm đầu tiên trong khí quyển".

Ngoài ra, một khi nhà máy khí đốt được xây dựng, chúng sẽ không biến mất và có khả năng hoạt động trong tối thiểu 40 năm. Điều này cũng có nghĩa là các công ty điện cam kết giảm lượng khí thải carbon đã phải cắt giảm kế hoạch. Một ví dụ từ Bloomberg, PacifiCorp dự kiến sẽ giảm lượng khí thải xuống 78% vào năm 2030. Họ đã điều chỉnh ước tính đó thành 63% với các thông báo về các nhà máy mới.

Chuyên gia AI của Tom's Guide, Ryan Morrison, cho biết về các báo cáo mới: "Mặc dù đúng là AI có tác động đáng kể đến môi trường, chủ yếu là do yêu cầu tính toán khổng lồ, nhưng vấn đề này sẽ không còn nghiêm trọng nữa khi các mô hình trở nên hiệu quả hơn và chip tùy chỉnh thay thế cho GPU ngốn nhiều điện năng. 

"AI cũng có thể là giải pháp cho vấn đề năng lượng của chính nó, cũng như các vấn đề năng lượng rộng hơn mà xã hội đang phải đối mặt. Khi công nghệ được cải thiện, nó sẽ được sử dụng để thiết kế các hệ thống tính toán và làm mát hiệu quả hơn, giúp giảm thiểu tác động đến môi trường. Việc thiết kế con đường hướng đến mức phát thải ròng bằng 0 có thể dựa trên AI."

ai-doi-dien-va-nuoc-1726848562.jpg
AI đang "đói" điện và nước, điều này có thể gây áp lực lên nguồn tài nguyên môi trường đang ngày càng suy giảm.

AI đang “đói” điện và những trung tâm dữ liệu mới này không chỉ tác động đến môi trường và biến đổi khí hậu. Tờ Los Angeles Times đưa tin vào tháng 8 rằng tại Santa Clara, các trung tâm dữ liệu tiêu thụ 60% lượng điện của thành phố. Nhu cầu này có nguy cơ làm tăng tình trạng mất điện do thiếu điện. Từ đó, hóa đơn tiền nước và điện của những người sống trong các cộng đồng đó cũng tăng. Các công ty như PG&E cho biết hóa đơn của khách hàng sẽ không tăng nhưng rõ ràng là họ đang chuyển chi phí cơ sở hạ tầng cho khách hàng, trong khi các trung tâm dữ liệu rõ ràng không trả phần chia sẻ công bằng của họ.

Có vẻ như điều này đi ngược lại với tuyên bố của các công ty AI lớn như OpenAI, Google, Meta và Microsoft rằng họ cam kết giảm tác động đến môi trường. Một đại diện của Microsoft nói với tờ Post rằng công ty đang "làm việc hướng tới các phương pháp làm mát trung tâm dữ liệu sẽ loại bỏ hoàn toàn việc tiêu thụ nước".