Conic Boulevard

Ngành AI - “Cỗ máy” ngốn năng lượng

AI đang bùng nổ, nhưng phía sau là bài toán năng lượng ngày càng đáng lo ngại.

Đằng sau sự bùng nổ của AI là một vấn đề mà ít ai nhắc đến: nó đang tiêu tốn một lượng điện khổng lồ, đến mức nhiều chuyên gia cảnh báo rằng, nếu không có giải pháp, ngành công nghiệp này có thể trở thành một trong những nguyên nhân chính làm cạn kiệt tài nguyên năng lượng toàn cầu.

Cái giá năng lượng của một mô hình AI

Những chatbot như ChatGPT, Gemini hay Claude có vẻ như chỉ là những ứng dụng phần mềm, nhưng để vận hành chúng, một mạng lưới siêu máy tính trải dài khắp thế giới đang hoạt động không ngừng nghỉ. Mỗi khi một người dùng đặt câu hỏi, hàng triệu phép tính được thực hiện trong các trung tâm dữ liệu, tiêu tốn điện năng khổng lồ.

Một nghiên cứu của MIT Technology Review cho thấy, việc huấn luyện một mô hình AI lớn có thể tiêu tốn nhiều năng lượng hơn mức tiêu thụ trung bình của một thành phố nhỏ trong một năm. Chẳng hạn, quá trình huấn luyện GPT-4 - mô hình AI của OpenAI - đã tiêu thụ lượng điện tương đương với 175.000 hộ gia đình Mỹ trong một ngày.

Ngành AI - “Cỗ máy” ngốn năng lượng- Ảnh 1.

(Ảnh minh hoạ: Unsplash)

Tình trạng này không chỉ diễn ra ở Mỹ. Ở Anh, một báo cáo từ The Guardian tiết lộ, nếu ngành AI tiếp tục phát triển theo tốc độ hiện tại, nó có thể chiếm đến 10% tổng mức tiêu thụ điện toàn cầu vào năm 2030.

Trong một buổi hội thảo tại Stanford, một nhà nghiên cứu từng đưa ra một con số gây sốc: nếu OpenAI mở rộng hệ thống của họ để phục vụ toàn bộ dân số thế giới, chỉ riêng ChatGPT đã cần một lượng điện đủ để vận hành một quốc gia cỡ trung bình như Argentina.

Những trung tâm dữ liệu nóng như “lò nung”

Để hình dung rõ hơn, hãy nhìn vào các trung tâm dữ liệu - nơi mà tất cả các phép tính AI diễn ra. Những tòa nhà khổng lồ này chứa hàng trăm nghìn máy chủ, chạy liên tục ngày đêm, tạo ra lượng nhiệt khổng lồ.

Ở Phoenix, Arizona - một trong những trung tâm dữ liệu lớn nhất nước Mỹ - kỹ sư Michael Green kể lại về một sự cố nghiêm trọng: “Một ngày nọ, hệ thống làm mát gặp trục trặc. Trong vòng chưa đầy một giờ, nhiệt độ phòng máy chủ tăng vọt lên hơn 500C. Nếu không kịp thời khắc phục, hàng triệu USD dữ liệu và thiết bị có thể đã bị phá hủy”.

Ngành AI - “Cỗ máy” ngốn năng lượng- Ảnh 2.

(Ảnh minh hoạ: Ollie Hirst)

Không chỉ là vấn đề nhiệt độ, nước cũng là một yếu tố quan trọng. Theo một báo cáo của The New York Times, các trung tâm dữ liệu AI tiêu thụ một lượng nước khổng lồ để làm mát. Một trung tâm dữ liệu cỡ lớn của Google ở Iowa có thể dùng tới 1 tỷ lít nước mỗi năm, tương đương nhu cầu nước của một thành phố 10.000 dân.

Ở nhiều nơi trên thế giới, điều này đang gây ra xung đột về tài nguyên. Tại Hà Lan, chính phủ đã buộc phải can thiệp sau khi người dân địa phương phản đối việc một trung tâm dữ liệu của Microsoft lấy nước từ nguồn cung cấp công cộng để làm mát hệ thống.

Các công ty công nghệ phản ứng ra sao?

Nhận thức được vấn đề, các gã khổng lồ công nghệ đang tìm kiếm giải pháp.

Google tuyên bố họ sẽ chuyển sang sử dụng 100% năng lượng tái tạo cho các trung tâm dữ liệu vào năm 2030. Amazon đang đầu tư hàng tỷ USD vào các trang trại điện gió và Mặt trời. Microsoft thậm chí còn thử nghiệm hệ thống trung tâm dữ liệu dưới đáy biển, nơi nước lạnh tự nhiên giúp giảm nhu cầu làm mát.

Ngành AI - “Cỗ máy” ngốn năng lượng- Ảnh 3.

(Ảnh: AP)

Nhưng những nỗ lực này có đủ để bù đắp cho tốc độ tiêu thụ điện ngày càng gia tăng của AI?

Tiến sĩ Kate Crawford, một chuyên gia về AI tại University of Southern California, nhận định: “Ngay cả khi chúng ta chuyển sang năng lượng tái tạo, AI vẫn tiêu thụ nhiều tài nguyên hơn mức mà chúng ta có thể tái tạo trong ngắn hạn. Vấn đề không chỉ là điện, mà còn là nước, kim loại quý và chất bán dẫn”.

AI có thể tự cứu chính mình?

Một câu hỏi thú vị đặt ra: Liệu AI có thể giúp giảm chính mức tiêu thụ năng lượng của nó?

Câu trả lời có thể là có. Các nhà khoa học đang phát triển AI hiệu quả hơn, đòi hỏi ít năng lượng hơn để hoạt động. Một số kỹ thuật mới như AI lượng tử, chip AI chuyên dụng (như dòng TPU của Google hoặc M-series của Apple) đang giúp giảm tiêu thụ điện.

Một ví dụ điển hình là DeepMind, công ty AI của Google, đã sử dụng chính AI để tối ưu hóa hệ thống làm mát trung tâm dữ liệu. Kết quả tiết kiệm được 40% điện năng tiêu thụ cho việc làm mát, một bước tiến đáng kể.

Ngành AI - “Cỗ máy” ngốn năng lượng- Ảnh 4.

Google DeepMind muốn định nghĩa lại cái gọi là trí tuệ nhân tạo tổng hợp (AGI).

Tuy nhiên, Tiến sĩ Geoffrey Hinton, một trong những “cha đẻ” của AI hiện đại, cảnh báo: “Cải tiến hiệu suất là quan trọng, nhưng nếu nhu cầu AI tiếp tục bùng nổ như hiện tại, việc tiết kiệm 40% vẫn không đủ để giải quyết vấn đề về lâu dài”.

AI sẽ phát triển đến đâu?

Khi John – một kỹ sư công nghệ - kết thúc ca làm việc, anh đóng laptop, nhìn ra ngoài cửa sổ. Thành phố vẫn sáng rực ánh đèn, những con đường vẫn đầy xe cộ. Anh tự hỏi: nếu AI thực sự là tương lai của nhân loại, thì liệu nó có đẩy chúng ta vào một cuộc khủng hoảng năng lượng mới không?

Cuộc cách mạng AI vẫn đang diễn ra, câu hỏi về mức tiêu thụ năng lượng của nó vẫn chưa có lời giải đáp rõ ràng. Điều chắc chắn là: chúng ta đang bước vào một thời kỳ mà công nghệ không chỉ thay đổi cuộc sống, mà còn có thể thay đổi cả cách thế giới vận hành.

AI có thể là cỗ máy thông minh nhất từng được con người tạo ra, nhưng nếu không kiểm soát được năng lượng mà nó tiêu thụ, liệu nó có thực sự là một giải pháp, hay chỉ là một vấn đề mới?