AI산업 호황 이면 환경 영향 측정 '깜깜이'..“규제 나서야”

글로벌 |입력
 * 사진=픽사베이
 * 사진=픽사베이

생성형 AI(인공지능) 챗GPT가 대답할 수 없는 한 가지 질문이 있다. “그대(챗GPT)는 얼마나 많은 에너지를 소비하고 있는가”라는 물음이다. 그러면 챗GPT는 "AI 언어 모델로서 저는 물리적 존재감이 없어 에너지를 직접 소비하지 않는다" 또는 "나의 운영과 관련된 에너지 소비는 주로 호스팅하고 실행하는 데 사용되는 서버 및 인프라와 관련이 있다"라고 답한다.

구글의 바드는 훨씬 더 대담하다. 바드에게 질문하면 "제 탄소 발생은 제로"라고 말한다. 생성과 훈련에 소비되는 에너지에 대한 질문을 받으면 “공식적으로 밝혀진 바 없다”라고 대답한다.

인공지능 프로그램은 실체가 없는 것처럼 보일 수는 있다. 그러나 프로그램의 구동을 위해서는 많은 양의 전력 공급이 필요하다. 전력의 공급은 냉각을 유지하기 위해 많은 양의 물이 필요하고 막대한 전력을 사용하는 전 세계 데이터 센터의 서버 네트워크에 의해 이루어진다. 

인공지능 프로그램은 일반 컴퓨터 프로그램에 비해 매우 복잡하다. 그렇기 때문에 다른 형태의 컴퓨팅보다 더 많은 에너지를 필요로 한다. 그러나 문제는 정확히 얼마만큼의 에너지를 필요로 하는지 파악하는 것이 매우 어렵다는 점이다.

챗GPT를 만든 오픈AI와 같은 회사들은 더욱 정교한 AI 모델을 구축하기 위해 경쟁하고 있다. 그들은 AI 모델을 교육하고 실행하는 데 얼마나 많은 전기와 물이 필요한지, 데이터 센터의 에너지원은 무엇인지, 데이터 센터가 어디에 있는지조차 공개하지 않는다. 상상을 초월하는 전기료를 부담하고 있으리라는 추정만 있을 뿐이다. 실제 챗GPT를 운영하는 비용이 막대하다는 것만큼은 회사 측도 확인했다. 

페이스북의 모회사인 메타는 작년에 AI 연구 슈퍼클러스터(RSC)라고 불리는 세계에서 가장 빠른 슈퍼컴퓨터를 만들고 있다고 발표했다. 그러나 메타는 슈퍼컴퓨터가 어디에 위치했는지, 어떻게 작동하는지는 밝히지 않았다.

기술 영역은 정보 검색에서 건당 등 실제 상황 전분야에 걸쳐 생성형 AI를 통합하고 있다. 그러나 빅테크 전문가와 연구원들은 기술의 무분별한 성장이 어마어마한 환경적 비용을 초래할 수 있다고 경고한다.

AI개발사 허깅페이스의 기후 담당 사샤 루치오니는 "AI의 기하급수적인 사용은 점점 더 많은 에너지를 필요로 한다“라며 "그럼에도 불구하고 우리는 생성형 AI 모델을 사용하는 사람들이 지속 가능성을 고려하지 않음을 목격하고 있다”고 말했다. 루치오니는 AI 모델을 생성할 때 발생하는 탄소 배출량을 평가하는 과학자다. 

루치오니 연구팀은 슈퍼컴퓨터가 허깅페이스의 자체 AI 언어모델인 블룸(Bloom)을 훈련시키는 데 사용되는 에너지의 양, 슈퍼컴퓨터 하드웨어를 제조하고 인프라를 유지하는 데 사용되는 에너지, AI 프로그램을 실행하는 데 사용되는 전기의 양을 종합해 집계했다. 

결과는 놀라운 것이었다. AI 언어모델을 구동하고 결과를 얻어낼 때까지, AI 프로그램은 런던과 뉴욕 사이를 비행기로 60번 왕복하는 것과 맞먹는 50톤의 탄소를 누적적으로 배출한다는 것을 발견했다. 게다가 블룸을 가동하는 슈퍼컴퓨터는 탄소 배출량이 발생하지 않는 원자력 에너지로 구동됐다. 그렇기 때문에 블룸의 에너지 사용에 따른 탄소 누적 배출은 다른 생성형 AI 프로그램보다 낮았다. 그런데도 50톤이었돈 것이다. 

공개된 데이터에 따르면 챗GPT의 GPT-3 모델 교육에서는 약 500톤의 이산화탄소가 생산되었다고 한다. 이는 일반 가솔린 자동차 한 대가 160만km 이상을 주행하는 것에 해당하는 수치다. 오픈AI는 챗GPT의 최신 모델인 GPT-4의 경우 회사 내에서 얼마나 오래 훈련되었는지, 어디서 훈련되었는지, 사용 중인 데이터 량이 얼마인지 등에 대해 전혀 언급하지 않는다. 본질적으로 배출량을 추정하는 것이 불가능하지만 막대하다는 것만은 분명하다. 

새로 발표되는 AI 모델은 점점 더 커지고 에너지 집약적이 되고 있다. 더 큰 AI 모델은 더 강력한 그래픽처리장치(GPU)를 사용해야 한다. 즉 더 많은 리소스와 에너지를 사용하며 교육하는 데 시간이 더 오래 걸린다. 탄소 발생이 기하급수적으로 증가한다는 의미다. 

더욱 불분명한 것은 다양한 AI 모델의 생성과 사용에 소비되는 물의 양이다. 데이터 센터는 장비가 과열되지 않도록 수냉식 시스템을 사용한다. UC리버사이드의 연구원들이 주도한 연구에 따르면 마이크로소프트의 최첨단 미국 데이터 센터에서 GPT-3를 교육하는데 70만 리터의 물을 소비했을 것으로 추정했다. 물론 공공 데이터가 부족한 상황에서 추정한 것이기 때문에 일반적인 가정과 조건을 적용했고, 소비량은 정확히 일치하지 않을 수 있지만, 물과 환경의 관계를 감안하면 이 역시 바람직한 것은 아니다.  

실제 사용되는 물 양은 어디서 언제 GPT-3가 훈련되었는지에 따라 달라질 수 있다. 더운 애리조나에서는 많은 물이 필요하지만 와이오밍은 덜 사용한다. 데이터 센터의 설계 효율성도 영향을 미친다. 물 집약적인 증발식 냉각 시스템을 사용하는 대신, 센터는 전기를 더 많이 사용하는 공냉식을 적용할 수도 있다. 

구글은 전 세계적으로 물 사용량을 공개한 최초의 빅테크였지만, 지역별 데이터 센터의 세부 내역은 공개하지 않고 평균 수치만 제공했다. 오리건 주 댈러스 시는 오리건 주정부와의 오랜 법적 분쟁 끝에 구글 데이터 센터가 댈러스 전체 물 사용량의 4분의 1을 차지한다는 내용의 데이터 발표를 이끌었다.

기업들이 AI 모델을 만들고 사용하면서 방출되는 탄소 배출 및 물 소비에 대해 더 투명하다면 생성형 AI를 어떻게 전략적으로 사용해야 하는지에 대한 논의에 큰 도움이 된다는 지적이다. 예컨대 암 치료 등 인류 복지에 생성형 AI를 사용하는 것은 가치가 있지만 다른 경우에는 환경적으로 낭비가 될 수 있다. 

오픈AI는 챗GPT 유료 접속을 제공했고, 온라인 식료품 배달 회사 인스타카트 등 여러 회사가 챗GPT로 식료품 목록과 권장 재료 등을 사용자에게 제공하고 있다. 구글은 지메일과 검색에 생성형 AI를 통합할 것이라고 발표했다. 기업들은 피싱 사기 탐지에 유사한 도구를 사용하고 있다. 

그러나 과도한 생성형 AI 사용이 독이 될 것이라는 우려의 목소리가 높아지고 있다. 소소한 분야까지 생성형 AI를 이용하는 것은 막대한 환경적 낭비라는 것이다. 전문가들은 이를 현미경을 사용해 대못을 박는 것에 비유한다. 효과는 있겠지만 생성형 AI는 실제로는 그런 용도가 아니라는 지적이다. 사용에 제한이 있어야 한다고 권고한다. 

×

댓글 (0)

아직 댓글이 없습니다. 첫 댓글을 작성해보세요!

댓글 작성