Giải cơn khát năng lượng AI: Nỗ lực mới nhất

Sự trỗi dậy mạnh mẽ của trí tuệ nhân tạo (AI) đang đặt ra một thách thức không nhỏ về năng lượng. Theo Cơ quan Năng lượng Quốc tế (IEA), hoạt động của AI phụ thuộc hoàn toàn vào các trung tâm dữ liệu, và đến năm 2030, chúng có thể tiêu thụ tới 3% tổng lượng điện năng toàn cầu. Các chuyên gia từ công ty tư vấn McKinsey còn cảnh báo về nguy cơ thiếu điện khi thế giới chạy đua xây dựng các trung tâm dữ liệu để đáp ứng nhu cầu phát triển AI.

Tuy nhiên, vẫn có nhiều giải pháp tiềm năng để giải quyết vấn đề này. Giáo sư Mosharaf Chowdhury từ Đại học Michigan cho rằng, các công ty có thể tăng cường nguồn cung năng lượng hoặc tìm cách giảm mức tiêu thụ năng lượng cho cùng một hiệu năng tính toán. Ông tin rằng, những giải pháp thông minh ở mọi cấp độ, từ phần cứng đến phần mềm AI, có thể giúp vượt qua thách thức hiện tại. Phòng thí nghiệm của ông đang nghiên cứu các thuật toán để tính toán chính xác lượng điện cần thiết cho mỗi chip AI, từ đó giảm mức tiêu thụ năng lượng từ 20-30%.

Các trung tâm dữ liệu sẽ chiếm 3% lượng điện trên thế giới sau 5 năm nữa. Ảnh: 4X image
Trung tâm dữ liệu: Tiêu thụ 3% điện toàn cầu sau 5 năm. Ảnh: Internet

Trong quá khứ, việc vận hành các trung tâm dữ liệu, bao gồm hệ thống làm mát và cơ sở hạ tầng, tiêu tốn một lượng năng lượng tương đương với việc chạy máy chủ. Ngày nay, nhờ những nỗ lực tập trung vào hiệu suất năng lượng, con số này đã giảm đáng kể. Gareth Williams từ công ty tư vấn Arup cho biết, hiện nay, hoạt động này chỉ tiêu thụ khoảng 10% lượng điện so với máy chủ. Nhiều trung tâm dữ liệu hiện đại sử dụng cảm biến AI để kiểm soát nhiệt độ ở từng khu vực cụ thể, thay vì làm mát đồng đều toàn bộ tòa nhà, giúp tối ưu hóa việc sử dụng nước và điện theo thời gian thực.

Một giải pháp đột phá khác là sử dụng hệ thống làm mát bằng chất lỏng, thay thế cho các hệ thống điều hòa không khí ồn ào và tốn kém năng lượng. Chất làm mát được tuần hoàn trực tiếp qua máy chủ, giúp tản nhiệt hiệu quả hơn. Điều này đặc biệt quan trọng khi các chip AI hiện đại, như chip của Nvidia, tiêu thụ năng lượng gấp 100 lần so với máy chủ cách đây hai thập kỷ. Mới đây, AWS, công ty điện toán đám mây hàng đầu của Amazon, đã công bố phát triển phương pháp làm mát bằng chất lỏng riêng để làm mát GPU Nvidia trong máy chủ của họ, giúp tránh việc phải xây dựng lại các trung tâm dữ liệu hiện có.

Bên cạnh đó, các thế hệ chip máy tính mới liên tục được cải tiến để tiết kiệm năng lượng hơn. Nghiên cứu của Yi Ding từ Đại học Purdue cho thấy rằng các chip AI có thể hoạt động lâu hơn mà không làm giảm hiệu suất.

Một minh chứng khác cho thấy tiềm năng tiết kiệm năng lượng trong lĩnh vực AI là công ty DeepSeek của Trung Quốc. Vào tháng 1, họ đã ra mắt một mô hình AI có hiệu năng tương đương với các hệ thống hàng đầu của Mỹ, nhưng lại sử dụng các chip yếu hơn và tiêu thụ ít năng lượng hơn. Các kỹ sư của DeepSeek đã đạt được điều này bằng cách lập trình GPU của họ một cách chính xác hơn và bỏ qua một số bước huấn luyện tốn kém năng lượng.

Admin


Nguồn: VnExpress

Leave a Reply

Your email address will not be published. Required fields are marked *