Theo Live Science, các chatbot trí tuệ nhân tạo (AI) đang tiêu thụ một lượng điện năng đáng kinh ngạc, gây áp lực lên nguồn cung năng lượng toàn cầu. Năm 2023, các trung tâm dữ liệu được sử dụng để huấn luyện và vận hành AI đã chiếm tới 4,4% tổng lượng điện tiêu thụ của Hoa Kỳ và khoảng 1,5% mức tiêu thụ năng lượng toàn cầu. Đáng lo ngại, con số này dự kiến sẽ tăng gấp đôi, hoặc thậm chí còn cao hơn vào năm 2030 khi nhu cầu về AI tiếp tục tăng trưởng mạnh mẽ.
Mosharaf Chowdhury, một nhà khoa học máy tính tại Đại học Michigan, Hoa Kỳ, giải thích rằng mức tiêu thụ năng lượng khổng lồ của chatbot AI bắt nguồn từ quy mô đồ sộ của chúng, đặc biệt là trong các giai đoạn huấn luyện và suy luận.
Để huấn luyện một chatbot AI, các mô hình ngôn ngữ lớn (LLM) được cung cấp một lượng dữ liệu khổng lồ để học hỏi, nhận diện các mẫu lặp đi lặp lại và đưa ra dự đoán. Alex de Vries-Gao, nhà nghiên cứu về tính bền vững của công nghệ mới tại Đại học Vrije Amsterdam, đồng thời là người sáng lập nền tảng Digiconomist, cho biết các mô hình càng lớn và được tiếp xúc với càng nhiều dữ liệu, thì khả năng đưa ra dự đoán chính xác càng cao.
Một nghiên cứu năm 2023 của de Vries-Gao ước tính rằng một máy chủ Nvidia DGX A100 tiêu thụ tới 6,5 kilowatt điện. Do quá trình huấn luyện LLM thường đòi hỏi nhiều máy chủ, mỗi máy chủ có trung bình 8 GPU, hoạt động liên tục trong nhiều tuần hoặc thậm chí nhiều tháng, nên tổng mức tiêu thụ năng lượng là rất lớn. Ước tính, việc huấn luyện GPT-4 của OpenAI đã sử dụng 50 gigawatt-giờ năng lượng, tương đương với lượng điện cung cấp cho thành phố San Francisco, California trong vòng 3 ngày.
Không chỉ quá trình huấn luyện, mà cả quá trình suy luận, trong đó chatbot AI đưa ra kết luận dựa trên những gì đã học và cung cấp phản hồi cho người dùng, cũng tiêu tốn đáng kể năng lượng. Mặc dù việc chạy LLM sau khi huấn luyện đòi hỏi ít tài nguyên máy tính hơn, nhưng mức tiêu thụ năng lượng vẫn cao do số lượng truy vấn gửi đến chatbot AI là rất lớn.
Theo số liệu từ OpenAI, tính đến tháng 7 năm 2023, người dùng ChatGPT đã gửi hơn 2,5 tỷ câu hỏi mỗi ngày. Để đáp ứng nhu cầu này và đảm bảo thời gian phản hồi nhanh chóng, OpenAI phải sử dụng một lượng lớn máy chủ. Bên cạnh ChatGPT, nhiều chatbot khác như Gemini của Google cũng đang được sử dụng rộng rãi, góp phần làm tăng thêm áp lực lên nguồn cung năng lượng.
Các nhà nghiên cứu như Chowdhury và de Vries-Gao đang nỗ lực định lượng chính xác hơn nhu cầu năng lượng của AI, từ đó tìm ra các giải pháp tiết kiệm điện. Ví dụ, Chowdhury duy trì trang ML Energy Leaderboard để theo dõi mức tiêu thụ năng lượng trong quá trình suy luận của các mô hình mã nguồn mở.

Tuy nhiên, nhu cầu năng lượng cụ thể của nhiều nền tảng AI tạo sinh khác vẫn chưa được làm rõ, do các công ty lớn như Google, Microsoft và Meta thường giữ kín thông tin hoặc chỉ cung cấp những số liệu thống kê khó xác định tác động môi trường thực sự của ứng dụng. Điều này gây khó khăn cho việc đánh giá mức năng lượng thực tế mà AI đang sử dụng, dự đoán những thay đổi về nhu cầu năng lượng trong tương lai và xác định liệu thế giới có thể đáp ứng kịp hay không.
Trong bối cảnh này, người dùng chatbot AI có thể đóng góp vào sự minh bạch bằng cách đưa ra những lựa chọn có trách nhiệm hơn khi sử dụng AI, góp phần thúc đẩy sự phát triển bền vững của công nghệ này.
Admin
Nguồn: VnExpress