인공지능(AI)이 인류의 비약적인 발전을 이끌고 있지만, 그 찬란한 기술력 뒤에는 기후 변화를 앞당기는 막대한 에너지 소비라는 어두운 단면이 존재한다. 거대 데이터 센터가 엄청난 전력을 빨아들이면서, 환경 파괴를 막기 위한 친환경 기술 도입이 업계의 생존 과제로 떠올랐다.
최근 정보통신(IT) 업계에 따르면, 생성형 AI 서비스가 대중화되면서 전력 수요가 기하급수적으로 늘고 있다. 국제에너지기구(IEA) 분석 결과, 일반적인 구글 검색은 회당 0.3Wh의 전력을 쓰지만 챗GPT 같은 생성형 AI는 한 번의 답변을 내놓는 데 약 2.9Wh를 사용한다.
이처럼 전력 차이가 극명한 이유는 데이터 처리 방식의 차이 때문이다. 기존 검색이 도서관에서 이미 적힌 책을 찾아주는 수준이라면, 생성형 AI는 질문을 받을 때마다 거대언어모델(LLM)이 문백을 해석하고 수십억 개의 매개변수를 계산해 완전히 새로운 문장을 창조해낸다. 이 과정에서 고성능 GPU(그래픽 처리 장치)가 쉴 새 없이 가동되며 막대하나 열을 발생시킨다. 스마트폰2-3분을 몇 분간 충전할 수 있는 에너지가 단 한 번의 대화로 사라진다.
특히 모델을 학습시키는 단계는 더 치명적이다. 거대언어모델(LLM)을 한 차례 훈련하는 데 드는 전력은 수백 가구가 일 년간 사용하는 양과 맞먹으며, 이때 발생하는 탄소는 자동차로 지구 수십 바퀴를 도는 수준을 상회한다.
에너지뿐만 아니라 수자원 소모도 심각한 문제다. 서버에서 발생하는 강력한 열을 식히기 위해 투입되는 냉각수의 양이 상상을 초월하기 때문이다.
학계 연구에 따르면 챗GPT와 약 20~50회 대화를 나누면 고성는 GPU의 열을 식힐 수 있는 냉각시스템을 작동시며 500ml 생수 한 병 분량의 물이 증발한다. 대형 데이터 센터 한 곳이 하루에 쓰는 물의 양은 인구 수만 명 규모의 도시 전체가 사용하는 양과 비슷하다. AI가 전력망을 압박하는 수준을 넘어 인류의 생존 자원인 물까지 위협하고 있다는 비판이 나오는 이유다.
환경 오염의 주범이라는 오명을 벗기 위해 IT 기업들은 ‘그린 데이터 센터’ 구축에 박차를 가하고 있다. 최근 주목받는 ‘액침 냉각(Immersion Cooling)’ 기술은 서버를 전기가 통하지 않는 특수 액체에 직접 담가 열을 식힌다. 기존 공기 냉각 방식보다 전력 효율을 30% 이상 끌어올릴 수 있는 혁신 기술로 꼽힌다.
더불어 사용 전력의 100%를 재생에너지로 충당하는 ‘RE100’ 캠페인 참여와 함께, 전력 소모를 획기적으로 줄인 AI 전용 반도체(NPU) 개발도 속도를 내고 있다.
한 IT 보안 전문가는 “AI의 지능이 높아지는 속도에 비해 에너지 효율에 대한 사회적 논의는 걸음마 단계”라며 “친환경 데이터 센터 유치를 위한 인센티브를 늘리고 기업의 디지털 탄소 배출 공시를 의무화하는 등 정책적 지원이 시급하다”고 강조했다.
기술의 고도화가 곧 환경의 파괴로 이어지지 않도록, 이제는 AI의 성능만큼이나 ‘지구와의 공존’을 고민하는 그린 테크의 성장에 힘을 실어야 할 때다.









































댓글
(0)