황성익 파트너 변호사(법무법인 케이씨엘)
[환경일보] 인공지능(AI)이라는 거대한 성장 엔진이 전 세계를 뒤흔들고 있다. 우리 정부 또한 100조원 규모의 투자를 약속하며 ‘AI 초격차’ 경쟁에 뛰어들었다. 그러나 이 눈부신 기술 혁신의 이면에는 우리가 아직 제대로 알지 못하는 청구서가 쌓이고 있다. 바로 AI가 지구에 남기는 깊고 복잡한 환경 발자국이다.
경제협력개발기구(OECD)는 2022년 보고서(Measuring the Environmental Impacts of AI Compute and Applications)를 통해 AI의 환경 영향을 단편적인 에너지 소비 문제가 아닌, 하드웨어의 ‘생산’부터 ‘폐기’에 이르는 ‘전 생애주기(Life Cycle)’ 관점에서 총체적으로 분석해야 한다고 경고한다. 우리가 업무와 생활에서 쉽게 활용하는 AI의 보이지 않는 비용을 직시해야 한다.
OECD의 분석은 AI의 환경 비용이 어떻게 발생하는지 명확히 보여준다. 문제는 우리가 흔히 생각하는 데이터센터의 ‘운영’ 단계에만 국한되지 않는다.
1단계: 생산(Production) - 제조과정의 ‘내재 탄소’의 역설
가장 먼저 청구되는 비용은 AI의 두뇌인 반도체와 서버를 만드는 ‘생산’ 단계다. 이 과정에 숨겨진 내재 탄소(Embodied Carbon)의 규모를 간과할 수 없다. 2023년 발표된 거대 언어 모델 ‘BLOOM’의 훈련 사례 연구(Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model)에 따르면 훈련에 직접 사용된 GPU와 서버를 제조하는 과정에서만 11.2톤의 탄소가 배출되었다.
이에 대하여 2024년 발간된 글로벌 AI 환경 영향 백서(White Paper on Global Artificial Intelligence Environmental Impact)는 네트워킹 및 냉각 장비 등 주변 인프라까지 포함할 경우, 하드웨어 제조 단계의 탄소 배출량은 27.6톤까지 증가한다고 분석했다. 빅테크 기업들이 내세우는 ‘100% 재생에너지 사용’과 같은 친환경 주장은 진실의 반쪽만을 이야기하는 것일 수 있다.
2단계: 운영(Operation) - ‘전기 먹는 하마’
AI의 ‘운영’ 단계는 막대한 에너지와 물을 소비한다. 최근 한국과학기술기획평가원의 브리프에 따르면 Chat GPT의 연간 전력량은 226.8GWh로 핀란드나 벨기에의 하루 전체 전력에 맞먹는 규모이다. 실시간 추론에 따른 상시전력 부하가 크게 증가하였고 연산효율이 향상됨에 따라 더 복잡한 모델의 훈련, 추론에 따른 총 전력소비가 증가하는 효율 향상의 역설도 지적되고 있다.
우리나라도 산업통상자원부는 2029년까지 국내 신규 데이터센터 전력 수요가 원자력 발전소 약 50기에 해당하는 4만9397MW에 달할 것으로 전망하고 있다. 신규 데이터센터 수요의 80% 이상이 수도권에 집중되면 특정 지역의 전력망에 과부하가 걸리고, 이는 비상시 국가 핵심 인프라 마비로 이어질 수 있는 심각한 안보 문제로까지 번질 수 있다.
3단계 및 4단계: 운송과 폐기
하드웨어의 운송 과정 역시 조용한 탄소 배출원이다. AI 서버와 GPU 등 핵심 부품은 대부분 해외에서 생산되어 전 세계 데이터센터로 운송된다. OECD 보고서에 따르면 이 과정이 전체 생애주기 탄소 배출량의 최대 5%를 차지한다. 가장 심각한 청구서는 마지막 ‘폐기’ 단계에서 발행된다.
AI 기술의 눈부신 발전 속도는 하드웨어의 수명을 극단적으로 단축시킨다. Forbes에 따르면(The Silent Burden Of AI: Unveiling The Hidden Environmental Costs Of Data Centers By 2030) 불과 2~3년 만에 최첨단 GPU는 ‘구형’이 되어, 전자폐기물(e-waste)로 배출된다. 이 ‘AI 폐기물’은 내부에 납, 수은, 카드뮴 등 많은 중금속과 유해 물질을 포함하고 있음에도 2020년 기준 세계 전자폐기물의 공식적인 재활용률은 17.4%에 불과하다.

이러한 문제에 대응하는 세계의 정책 방향은 크게 두 갈래로 나뉜다. 유럽연합(EU)은 구속력 있는 목표를 제시하는 ‘강한 규제’의 길을 선택했다. EU의 ‘에너지 효율 지침(EED)’은 500KW 이상의 데이터센터에 대해 매년 에너지와 물 소비량 보고를 의무화했다. 반면, 미국은 연방 차원에서 보다 부드러운 신중한 ‘자율 규제’의 길을 걷고 있다. 상원에서 심의 중인 ‘AI 환경 영향 법안(AI Environmental Impacts Act of 2024)’은 구속력 있는 목표 대신, 기업들의 자발적인 보고를 장려하고 환경보호청(EPA) 등이 연구와 가이드라인을 설정하는 데 초점을 맞추고 있다.
그러나 각 주(州) 정부 차원에서는 캘리포니아의 경우 데이터센터의 에너지·물 사용량 정보 공개를 의무화하고, 재활용수 냉각 시스템 도입과 디젤 발전기 사용 금지를 법제화하려는 움직임이 활발하다. 텍사스에서는 75MW 이상의 대규모 데이터센터에 대해, 전력망 연결에 필요한 비용을 직접 부담하도록 의무화하고 있다.
AI 인프라는 우리 공동체의 발전을 이끄는 성장 엔진임과 동시에 지속가능성과 직결된 구체적인 비용청구서를 대동하고 있다. 당장의 눈에 보이는 이익이나 기대감으로 성급하게 정책을 수립하고 집행하기보다는 데이터센터에 대한 ‘오염자부담원칙’의 구체화 등을 위한 다양한 분야와 계층의 의견을 수렴해야 한다.
