Skip to main content
  • Home
  • TE분석
  • "GPT-5, 전력 소모 기존의 20배" 불어나는 AI發 전력 수요
"GPT-5, 전력 소모 기존의 20배" 불어나는 AI發 전력 수요
Picture

Member for

10 months
Real name
전수빈
Position
연구원
Bio
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.

수정

GPT-5, 기능 고도화로 인해 전력 소모량 급증
개발사 오픈AI도 관련 문제 인지한 상태
줄줄이 데이터센터 신설하는 빅테크들, 전력난 코앞에

오픈AI의 신규 인공지능(AI) 모델 GPT-5가 기존 모델 대비 막대한 전력을 소모한다는 분석이 제기됐다. 장기 추론, 멀티모달 처리 등 탑재 기능이 고도화하는 과정에서 전력 소모량이 급증했다는 진단이다. AI발(發) 전력 수요가 나날이 확대되는 가운데, 시장에서는 향후 AI 컴퓨터 센터를 비롯한 관련 시설들이 전력난에 시달리게 될 것이라고 우려하고 있다.

챗GPT, '전기 먹는 하마' 됐다

지난 15일(이하 현지시각) 미국의 에너지 전문 매체 오일프라이스닷컴(Oilprice.com)이 보도한 바에 따르면, 최근 미국 로드아일랜드대학교는 오픈AI의 GPT-5 모델이 한 번의 중간 길이 응답(약 1,000 토큰)을 생성하는 데에 최대 40와트시(Wh)의 전력을 쓴다는 분석 결과를 내놨다. 2023년 기준 챗GPT 초기 모델이 하나의 질문에 답하는 데 약 2와트시의 전력을 소모했다는 점을 고려하면, GPT-5는 기존 모델보다 전력 소비량이 최대 20배가량 많은 셈이다.

전문가들은 GPT-5에 포함된 추론 능력 등을 전력 소모 증가의 주범으로 지목한다. 미국 일리노이대학교 컴퓨터공학과 라케시 쿠마르 교수는 “GPT-5처럼 복잡하고 장기 추론에 주력하는 AI는 훈련과 응답 과정 모두 이전 버전보다 훨씬 많은 전력을 쓴다”고 짚었다. 캘리포니아대 리버사이드 캠퍼스 샤올레이 런 교수도 “추론 모드와 멀티모달 처리까지 포함된 GPT-5는 단순 텍스트 모델보다 자원 소비가 훨씬 크다”며 “추론 모드 사용 시 같은 답변을 얻는 데 필요한 자원이 5~10배까지 늘어날 수 있다”고 진단했다.

'감사 인사'만으로도 전기 요금 폭탄

오픈AI 역시 생성형 AI 모델로 인해 발생하는 전력 부담을 충분히 인지하고 있다. 지난 4월 샘 올트먼 오픈AI CEO는 한 이용자가 “사람들이 챗GPT에 ‘부탁합니다’, ‘감사합니다’ 같은 말을 할 때마다 얼마나 전기 요금이 들었을지 궁금하다”고 묻자, “수천만 달러(수백억원)의 전기요금이 나왔다”고 답하기도 했다.

이처럼 간단한 인말에 천문학적인 전기 요금이 투입되는 것은 사용자가 더 많은 단어를 입력할수록 서버가 처리해야 할 데이터양과 응답 횟수가 늘고, 전력 소모도 커지기 때문이다. 예를 들어 이용자가 “답변해 줘서 고마워”라는 짧은 인사를 건넬 경우, 챗GPT는 “천만에요! 더 도와드릴 일이 있으면 언제든 말씀해 주세요”와 같은 응답을 하도록 설계돼 있다. 간단한 대화라 해도 이런 응답들이 전 세계적으로 누적되면 상당한 전력이 소비될 수밖에 없다.

전력 소모량이 나날이 증가하자, 오픈AI는 탄탄한 전력 공급 체계를 구축하기 위해 움직이기 시작했다. 캘리포니아에 본사를 둔 SMR 개발 스타트업 오클로와 협업한 것이 대표적인 예다. 오클로는 사용 후 핵연료를 연료로 사용하는 것을 목표로 극소형 고속 원자로를 개발 중인 기업이다. 오클로의 공동 창업자이자 회장이었던 올트먼 CEO는 지난 4월 오픈AI와 오클로의 에너지 공급 계약 협상을 앞두고 이해 충돌을 피하고자 오클로 회장직에서 물러나기도 했다.

우후죽순 들어서는 AI 데이터센터

향후 AI발 전력 수요는 한층 확대될 가능성이 크다. AI 기술 확산과 디지털 전환이 가속화하며 전 세계 IT 기업들이 AI 전용 컴퓨터 센터 건설에 천문학적 자금을 쏟아붓고 있기 때문이다. 오픈AI는 올해 일본 소프트뱅크, 오라클과 함께 5,000억 달러(약 675조원)를 4년간 투자해 텍사스주에 초대형 AI 센터를 건설하는 '스타게이트 프로젝트'를 시작했다. 이들이 건설하는 AI 센터는 최대 40만 개의 고성능 칩을 설치할 수 있는 규모다.

마이크로소프트는 2025년 한 해 동안 전 세계 AI 컴퓨터 센터를 짓는 데 800억 달러(약 108조원)를 투자할 계획이라고 발표한 바 있다. AI 학습과 서비스 제공을 위한 핵심 시설을 확보하기 위해 공격적인 투자 전략을 택한 것이다. 구글도 미국 아이오와주에 2년간 70억 달러(약 9조5,000억원)를 쏟아 AI 인프라를 늘린다고 밝혔으며, 아마존은 1,000억 달러(약 135조원), 메타는 최대 650억 달러(약 88조원)를 각각 투입할 예정이다.

문제는 AI 컴퓨터 센터가 늘어날 경우 전력 소비도 이에 비례해 급속도로 증가한다는 점이다. 시장조사기관 IDC는 전 세계 컴퓨터 센터의 전력 사용량이 2023년부터 2028년까지 매년 19.5%씩, 약 두 배 이상 늘어날 것으로 예측했다. 특히 AI 관련 작업이 전력 수요 확대를 주도할 것이라는 평가다. IT 컨설팅 회사 가트너 역시 AI 컴퓨터 센터의 전력 소비가 2024년 261테라와트시에서 2027년 500테라와트시로 늘어날 것이라는 전망을 내놨다. AI 수요가 급증하면서 컴퓨터 센터의 연간 전력 소비가 앞으로 2년간 최대 160%까지 늘고, 이 때문에 2027년까지 전체 AI 컴퓨터 센터의 약 40%가 전력 공급 부족으로 운영에 어려움을 겪을 것이라는 분석이다.

Picture

Member for

10 months
Real name
전수빈
Position
연구원
Bio
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.