[디지털비즈온 송민경 기자] 인공 지능(AI)의 발전이 점점 증가하는 상황에서, 뉴요커(The New Yorker)의 새로운 보고서는 '전기에 대한 엄청난 욕구'라는 잠재적인 숨겨진 비용에 대해 언급했다.
뉴요커(New Yorker)의 보도에 따르면 OpenAI가 개발한 인기 챗봇 ChatGPT는 2억 개의 사용자 요청 처리를 위해 매일 50만 킬로와트시(kWh)의 전력을 사용한다고 밝혔다.
이는 평균적인 미국 가정이 하루에 사용하는 전기보다 17,000배 이상 더 많은 전기를 사용하는 것을 의미한다. 보통 미국 가정의 평균 전력량은 29킬로와트시(kWh) 수준이다.
이 수치를 더욱 우려스럽게 만드는 것은 AI 기술의 광범위한 채택이 더 큰 에너지 소모로 이어질 수 있다는 점이다.
네덜란드 국립은행(Dutch National Bank)의 데이터 과학자 알렉스 드 브리스(Alex de Vries)가 저널 줄(Joule)에 발표한 연구에 따르면 구글이 모든 검색에 생성형 AI를 통합하면 연간 290억 킬로와트시(kWh)라는 엄청난 전력을 소비할 수 있다고 밝혔다.
이는 케냐, 크로아티아와 같은 국가의 연간 전체 에너지 소비량을 능가하는 수치로 매우 높다.
또한, 알렉스 드 브리스는 "모든 AI 서버는 이미 12개 이상의 영국 가정을 합친 것과 같은 전력을 소비할 수 있다."라고 언급했다. AI 붐의 선두 주자인 칩 제조업체 엔비디아(Nvidia)의 데이터를 사용하여 예측을 했으며,
2027년까지 전체 AI 부문은 연간 85-134테라와트시를 사용하게 될 것이며, 이는 전 세계 전력 소비량의 50%에 도달할 수 있음을 밝혔다.
AI의 에너지 수요가 환경에 미치는 영향에 대한 우려가 커지고 있다. AI 개발이 계속됨에 따라 에너지 소비 문제를 해결하는 것은 지속 가능한 미래를 보장하는 데 매우 중요하다.
오픈AI는 아직 이러한 보고서에 대해 언급하지 않았기에 향후 방향을 지켜보아야 할 것으로 보인다.