AI 데이터센터, 부담이 아니라 기회의 설계도로

1. 들어가며

인공지능(AI)은 이제 소수의 전문가만 활용하는 기술이 아니라 전 국민이 활용하며 국가의 경제, 안보 질서를 다시 짜는 기반 기술이 되었다. 일상 속에서 대화나 회의 내용을 자동으로 정리하고 법률·의학·교육에서 문서를 요약하며, 공장에서 불량품을 찾아내고 건설 현장의 안전을 점검하는 일까지 모두 인공지능이 관여한다. 이 경쟁의 핵심은 네 가지로 압축된다. 데이터, 연산 능력(컴퓨팅), 에너지, 그리고 이를 활용하는 시장이다. 세계 주요국은 이 네 축을 스스로 확보하는, 이른바 주권형 인공지능 구도를 강화하고 있다.

미국에서는 민간이 주도하는 초대형 인프라 사업이 눈에 띈다. 오픈AI·오라클·소프트뱅크 등이 참여하는 스타게이트(Stargate) 프로젝트는 2029년까지 최대 5,000억 달러를 투입해 미국 내 여러 지역에 AI 전용 데이터센터와 전력 인프라를 구축하겠다는 계획으로, 2025년 1월 트럼프 대통령이 역사상 최대 규모의 AI 인프라 투자라고 소개하며 공식화했다. 텍사스·뉴멕시코·오하이오 등지에 최소 5개의 초대형 데이터센터 부지를 추가로 확정하면서, 향후 3년간 약 7기가와트(GW)에 달하는 데이터센터 전력 용량과 4,000억 달러 규모의 투자를 이미 가시화했다는 평가가 나온다. 이런 프로젝트는 미국 빅테크의 공격적인 데이터센터 투자 흐름과 맞물려 있는데, 최근 트럼프 행정부는 제네시스 미션(Genesis Mission)이라는 새로운 연방 차원의 AI 과학 이니셔티브도 출범시켰다. 2025년 11월 24일 서명된 관련 행정명령은 에너지부와 17개 국립연구소가 보유한 초고성능 컴퓨팅 자원과 방대한 과학 데이터를 하나의 폐쇄형 AI 실험 플랫폼으로 통합해, 과학·의료·에너지·안보 분야의 기초 연구를 가속화하겠다는 내용을 담고 있다. 흥미로운 점은 제네시스 미션이 단순히 소프트웨어나 연구 데이터 공유에 그치지 않고, 실제 물리적 인프라 확충과도 연결되고 있다는 점이다. 에너지부는 2025년 하반기 국립연구소 부지를 활용해 AI 데이터센터와 전력 인프라를 함께 건설할 후보지로 아이다호국립연구소, 오크리지 단지, 패듀커 가스확산공장, 사바나리버 부지를 선정했으며, 이를 통해 고성능 컴퓨팅 시설과 송배전·원자력·핵융합 연구 인프라를 한 곳에 묶는 AI 연구 클러스터를 조성하겠다고 밝혔다. 또한 제네시스 미션이 전력망 현대화와 첨단 원자력·핵융합 개발을 핵심 축으로 삼고, AI를 활용해 전력 수급을 최적화하고 미국의 에너지 자립도를 높이겠다는 목표를 내걸었다.

한편 중국은 2025년 8월 국무원이 이른바 인공지능 플러스(AI+) 행동계획을 발표하면서, 과학기술 혁신·산업경제·디지털 소비와 민생·공공 거버넌스·국제협력 등 여섯 개 핵심 영역에 인공지능을 깊이 결합하겠다는 국가 로드맵을 제시했다. 2027년까지 이들 6개 우선 분야에서 인공지능의 심층 융합을 추진하려는 정책 목표를 뒷받침하기 위해 중국의 AI 투자는 빠르게 늘고 있다. 홍콩 언론이 뱅크오브아메리카의 분석을 인용한 것을 보면, 2025년 중국의 인공지능 관련 자본지출은 6,000억~7,000억 위안(미화 약 840억~980억 달러) 수준에 이를 것으로 예상된다.1 이 가운데 상당 부분이 AI 데이터센터, AI 칩, 클라우드 인프라에 투입되는 것으로 분석되며, 이는 미국과의 기술 경쟁 속에서 자체 컴퓨팅 인프라를 확보하려는 전략적 투자로 해석된다.

유럽연합의 경우 미국·중국이라는 이른바 AI G2와의 격차를 줄이기 위해, 약 300억 달러(약 280억 유로) 규모의 기가와트(GW)급 AI 데이터센터 건설 계획을 추진하고 있다. 최근 EU 집행위원회와 언론에 따르면, 이른바 AI 기가팩토리 프로젝트는 16개 회원국에 걸쳐 1GW급 AI 데이터센터 여러 곳을 구축해 하나의 네트워크로 묶는 방안으로 설계되고 있으며, 이미 13개 AI 데이터센터에 100억 유로를 우선 배정하고 추가로 200억 유로를 GW급 설비에 투입하는 구상이 논의되고 있다.2

그렇다면 한국은 어떠한가? 최근 월스트리트저널(2025년 11월)은 한국을 대표 사례로 들며, 정부와 대기업이 인공지능 투자를 공격적으로 확대하면서 반도체·데이터센터·대형 언어모델을 한꺼번에 키우는 나라라고 소개했다. 이런 흐름 속에서 엔비디아가 2030년까지 한국 정부와 삼성전자·SK그룹·현대차그룹·네이버 등에 최대 26만 장의 최신 AI용 GPU를 우선 공급하기로 한 결정은 상징성이 크다. 지금까지 국내에 도입된 전체 AI용 GPU 물량의 약 네 배에 달하는 규모로, 물리적인 연산 능력만 놓고 보면 한국의 국가 AI 인프라 수준을 한 단계가 아니라 몇 단계 위로 끌어올릴 수 있는 카드이기 때문이다. 엔비디아 젠슨 황 CEO가 2025년 가을 APEC 계기 방한 당시 한국과 합의한 이 26만 개 물량은, 정부가 내세운 AI 3대 강국 전략의 핵심 축으로 자리 잡고 있다. 이 GPU들은 국가 차원의 AI 컴퓨팅센터 구축, 대기업의 이른바 AI 공장 고도화, 자율주행·스마트팩토리·로봇 등 물리적 인공지능(피지컬 AI) 분야까지 폭넓게 활용될 예정으로 알려져 있다. 일부에서는 이 계약을 계기로 한국이 세계 상위권 GPU 보유국 반열에 올랐다고 평가하는 한편, 메타·구글·테슬라 등 일부 글로벌 기업이 이미 개별 회사 단위로 수십만 개의 GPU를 굴리고 있다는 점을 들어 여전히 절대적인 격차는 존재한다는 점도 함께 지적한다.

결국 관건은 칩의 개수가 아니라 활용 방식이다. 이렇게 대규모로 확보한 GPU가 실제 국가 경쟁력으로 이어지려면, 이를 안정적으로 수용할 수 있는 입지와 전력 구조를 갖춘 AI 데이터센터가 필수적이다. 어떤 지역에, 어떤 설계 철학과 에너지 체계를 바탕으로 데이터센터를 배치하느냐에 따라 같은 26만 장의 GPU도 한국 인공지능 전략을 도약의 발판으로 만들 수도 있고, 반대로 비싼 전기요금과 규제·지역 갈등 속에 발목을 잡는 비용 요인으로 남을 수도 있다.

2. 세계 데이터센터 시장: 전기 먹는 하마이자 거대한 투자처

글로벌 데이터센터 시장의 규모부터 짚어보자. Grand View Research(2024)는 2024년 시장 규모를 3,476억 달러, 2030년에는 6,520억 달러로 전망하며 연평균 11% 안팎의 성장률을 제시한다. 이 가운데 인공지능 특화 데이터센터는 더 빠르게 커지고 있다. Global Market Insights(2025)에 따르면 전 세계 AI 데이터센터 시장은 2024년 982억 달러 규모에서 2025~2034년 동안 연평균 35.5% 성장해 2034년에는 약 1조9,800억 달러에 이를 것으로 전망된다. MarketsAndMarkets(2025)는 전 세계 AI 데이터센터 시장은 2025년 2,364억4,000만 달러에서 2030년 9,337억6,000만 달러로 성장할 것이라는 공격적인 전망을 내놓고 있는데, 이 기간 연평균 성장률은 31.6%로 추정된다. 이렇게 분석 기관 별로 추정치가 크게 벌어지는 이유는 아직 어떤 설비를 AI 전용으로 볼 것인지, 기존 데이터센터의 개조까지 포함할 것인지에 따라 기준이 다르기 때문이다. 그럼에도 공통점은 하나다. 앞으로 늘어나는 데이터센터 투자 가운데 상당 부분이 AI 수요를 위한 것이라는 점이다. 더불어, 국가 단위가 아닌 기업의 개별 프로젝트를 보면 추진 현황이 더 구체적으로 다가온다. 아마존웹서비스(AWS)의 경우 전 세계 50여 개국에 약 900개의 데이터센터를 운영 중이며, 자체 설비의 전력 효율(PUE)도 평균 1.15 수준으로 업계 평균인 1.25보다 상당히 높은 수준이다. 이런 대규모 설비는 AI 수요 확대와 함께 앞으로도 늘어날 수밖에 없다.

결국 문제는 전력과 온실가스다. 국제에너지기구(IEA)에 따르면, 2024년 전 세계 데이터센터의 전력 소비는 약 415TWh로 전 세계 전력 수요의 약 1.5%를 차지한다. IEA(2025)는 이 수치가 2030년 약 945TWh, 전 세계 전력 수요의 약 3% 직전 수준까지 두 배 이상 증가할 것으로 전망하고 있는데, 특히 AI 특화 데이터센터의 전력 사용량은 같은 기간 네 배 이상 증가할 수 있다고 한다. 학계에서도 비슷한 경고를 하고 있는데 Ewim 외(2023)는 데이터센터의 경우 2016년 약 200TWh에서 2030년 2,900TWh 내외까지 전력 사용이 늘어날 수 있을 정도로 에너지와 온실가스 배출의 주요 원천으로 부상하고 있다고 경고하고 있다. 특히 서버뿐 아니라 냉각, 전력 인프라, 공조 등이 전체 에너지 사용과 온실가스 배출의 중요한 부분이라는 점을 강조한다. 또한 ICT 전체 탄소발자국을 분석한 연구(Freitag 외, 2021)에서도 데이터센터가 단말기·네트워크와 함께 ICT 부문 배출의 핵심 구성요소로 자리 잡고 있다고 강조한다.

다만, 이 숫자들이 때로는 과장되게 받아들여지는 것도 사실이다. 최근 미국 에너지·전력 업계에서는 데이터센터 전력 수요를 지나치게 높게 잡아 신규 발전소 건설을 정당화하려는 AI 전력 거품(bubble)에 대한 비판이 나오고 있다. 일부 전력회사가 데이터센터 사업자의 가능성 있는 수요를 모두 반영해 수백 GW의 부하 증가를 예상하고 있으나, 실제 GPU 공급량과 프로젝트 진행 속도를 고려하면 과도한 수준이라는 것이다(IEEFA 2025). 이런 논쟁은 우리에게 중요한 교훈을 준다. AI 데이터센터 전력 수요를 과소평가해도, 과대평가해도 모두 비용과 위험을 낳는다. 전력계획과 인허가, 인센티브 설계에서 신중한 수요 추정과 투명한 정보 공유가 무엇보다 중요하다는 뜻이다.

3. 한국 데이터센터 산업: 딜레마와 새로운 기회

그렇다면 한국의 데이터센터 산업은 어떤 이슈에 직면해 있을까? 김문태(2024)는 데이터센터를 디지털 경제의 핵심 인프라이자 동시에 전력·온실가스·지역 수용성 측면에서 부담을 키우는 시설로 규정하며, 국내 데이터센터 시장이 2020년대 중반까지 빠르게 성장하면서 수도권 집중과 ESG 규제 강화, 주민 민원이 동시에 커지고 있다고 분석하며 이러한 상황에서 데이터센터 기업들이 전력 접근성과 사회적 책임 사이에서 새로운 균형점을 찾아야 한다고 강조한다. 실제로 우리나라 상업용 데이터센터의 상당수는 여전히 수도권에 위치해 있다. 수도권은 통신망·클라우드 사업자·IT 인력이 밀집해 있고, 금융·콘텐츠·플랫폼 기업 본사와의 물리적 거리도 짧다. 반면 송전선로 포화, 대형 부지 부족, 전자파·경관·열섬에 대한 주민 우려 등으로 신규 대형 데이터센터 입지는 점점 더 찾기 어려워지고 있다.

정부는 2024년 분산에너지 활성화 특별법을 시행하면서 대규모 전력소비 설비에 대한 전력계통영향평가 제도, 지역별 에너지 자립을 촉진하는 분산에너지 특화지역 지정, 여러 소규모 분산전원을 묶어 하나의 통합발전소(VPP, Virtual Power Plant)로 전력시장에 참여시키는 제도 등을 도입했다. 이 법은 재생에너지와 지역 분산전원 확대라는 측면에서는 큰 의미가 있지만, 동시에 10메가와트(MW) 이상 전력을 새로 수전해야 하는 초대형 AI 데이터센터 입장에서는 전력계통영향평가라는 추가 인허가 절차가 하나 더 생긴 셈이라 입지와 승인 과정에서 새로운 제약 요인으로 작용할 수 있다는 우려도 있다. 만약 수도권에서 이러한 인허가·전력계통 문제를 적절히 해소하지 못한다면, 결국 해외에서 이미 나타난 사례처럼 전력 부족을 이유로 특정 지역의 데이터센터 인허가를 제한하는 상황으로 이어질 위험도 있다. 예를 들어, 대만 정부는 2024년 타오위안 북부 지역에서 5MW를 초과하는 신규 데이터센터에 대한 전력 공급 승인을 중단했으며, 싱가포르는 2019년 이후 약 3년 동안 신규 대형 데이터센터 인허가를 멈추었다가, 2022년부터 에너지효율·재생에너지 조달 등 조건을 붙인 파일럿 DC-CFA(Data Centre – Call for Application) 제도를 통해 제한적으로만 새로운 데이터센터를 허용하고 있다.3

그렇다고 데이터센터를 무조건 꺼려할 수도 없다. 한국은 삼성과 SK 등으로 대표되는 세계적인 메모리 반도체, 통신장비, 제조·물류 인프라를 갖춘 나라다. 즉 데이터센터가 재생에너지, 전력 계통, 반도체, 냉각 기술 등 연관 산업과 시너지를 내며 새로운 성장 동력이 될 수 있기에, 문제는 이 기회를 어떻게 설계하느냐다.

최근 울산의 AI 데이터센터 추진이 이 부분에 대한 시사점을 제시할 수 있다고 본다. SK그룹과 아마존웹서비스(AWS)는 정부와 울산시의 정책 지원을 바탕으로, 울산 미포국가산업단지에 초기 100MW급, 장기적으로는 GW급까지 확장 가능한 초대형 AI 데이터센터를 구축하는 계획을 발표했다. 이 데이터센터는 아시아·태평양 지역을 아우르는 인공지능과 클라우드 서비스를 처리하는 거점으로 설계되고 있다. 울산은 조선·자동차·석유화학 공장이 밀집한 우리나라 대표 산업도시로, LNG·LPG 복합화력발전소(울산 GPS)를 포함한 에너지 설비, 대형 항만과 물류 인프라를 함께 갖추고 있어, 산업·에너지·데이터를 결합하는 AI 클러스터 입지로 주목받고 있다. 울산 데이터센터가 한국의 모범 사례가 되기 위해서는 몇 가지 전제가 필요해 보인다. 첫째는 전력 공급 구조다. 2024년부터 시행된 분산에너지 활성화 특별법은 분산에너지 특화구역 지정, 전력계통영향평가, VPP 제도 등을 도입해 지역 단위의 전력 클러스터를 뒷받침하는 법적 기반을 마련했다. 울산 데이터센터가 이 제도를 활용해 재생에너지와 열병합발전, 에너지저장장치(ESS)를 묶는 지역형 전력 클러스터의 핵심 수요처로 설계된다면, 재생에너지 비중을 높이면서도 전력계통의 안정성을 높이는 실험장이 될 수 있다. 실제로 최근 연구에서는 데이터센터와 배터리 에너지저장장치의 용량·운영을 함께 최적화할 경우 피크 부하를 줄이고 계통 유연성을 높일 수 있다(Guo 외, 2021; Zhang 외, 2025)는 결과가 제시되고 있다. 둘째는 지역 산업과의 연계다. 울산 AI 데이터센터가 단순히 해외 고객을 대상으로 한 클라우드 용량 판매에 머무른다면, 전력과 부지를 부담하는 지역 입장에서 체감하는 이익은 제한적일 수 있다. 조선·자동차·부품·물류 기업들이 AI를 활용해 생산성과 안전, 에너지 효율을 높이는 산업용 AI 실험장으로 기능할 때, 비로소 지역과 함께 성장하는 데이터센터 모델이 된다. 이를 위해서는 단순 인프라 공급을 넘어 지역 중소기업이 쉽게 접근할 수 있는 공동 GPU 자원 풀, 표준 데이터 플랫폼, 대학·연구기관과 연계된 교육·인턴십 프로그램을 함께 설계하는 것이 필요해 보인다. 셋째는 사회적 합의와 투명성이다. 말레이시아 조호르주는 싱가포르에서 데이터센터 인허가가 제한되던 시기에 급격히 몰린 투자로 물과 전력, 토지 수요가 빠르게 늘어나자 2025년 11월 Tier 1·Tier 2 데이터센터에 대해서는 더 이상 신규 인허가를 승인하지 않겠다고 발표했다. 이들 하위 등급 데이터센터는 하루 최대 5,000만 리터에 달하는 물을 사용해, 상위 등급(Tier 3·4) 시설보다 최대 200배 많은 물을 쓰는 사용 시설로 분류되며, 조호르 주정부는 향후에는 보다 효율적인 Tier 3·4 중심으로 유치하겠다는 입장을 보인 바 있다.4 이 사례는, 입지 선정 단계부터 에너지·용수·환경 영향을 투명하게 공개하고, 지역 주민이 체감할 수 있는 환원 계획을 함께 설계하지 않으면, 데이터센터 붐이 언제든지 강한 역풍을 맞을 수 있다는 점을 잘 보여준다. 울산 역시 초기부터 정보 공개와 주민과의 소통, 이익 공유 구조를 정교하게 설계해야 한다.

특히 기술 혁신 관점에서 보면, AI 데이터센터를 한국 반도체 산업의 새로운 기회로 연결할 필요도 있다. 전통적으로 데이터센터에서는 자주 쓰이지 않는 콜드 데이터(cold data)는 용량당 비용이 낮은 하드디스크에, 비교적 자주 쓰이는 웜 데이터(warm data)는 플래시 기반 SSD에, 연산 과정에서 실시간으로 읽고 쓰는 핫 데이터(hot data)는 D램과 같은 주기억장치에 두는 계층 구조가 일반적이었다. 그러나 초거대 인공지능 모델이 보편화되면서, 이 구조가 빠르게 바뀌고 있다. 최근 글로벌 클라우드 사업자와 장비 업체들은 콜드·아카이브 데이터까지도 점차 대용량 QLC(4비트 셀) 플래시 SSD로 옮기고, 웜 데이터에는 TLC 기반 SSD를, 모델 가중치와 핵심 중간값과 같은 진짜 핫 데이터는 고대역폭 메모리(HBM)와 고성능 D램에 두는 방향으로 설계를 재편하고 있다.5 QLC SSD는 용량당 가격과 에너지 효율에서 HDD를 빠르게 따라잡으며, 대규모 콜드 스토리지에서도 HDD를 보완하거나 일부 대체하는 계층으로 부상하고 있고, HBM은 테라바이트/초 수준의 대역폭과 낮은 비트당 전력을 바탕으로 AI 가속기의 연산 효율을 좌우하는 핵심 부품이 되었다.6 동시에 HBM은 수만 개의 TSV와 3차원 적층 공정을 필요로 해 설계·제조 난도가 매우 높은 것으로 알려져 있다. 메모리 반도체 강국인 한국은 삼성전자와 SK하이닉스를 중심으로 D램과 NAND 플래시에서 이미 세계 시장의 상당 부분을 담당하고 있으며, HBM 분야에서도 SK하이닉스가 글로벌 1위, 삼성전자가 주요 공급자로 자리잡고 있다. 즉 한국은 단순히 칩을 납품하는 수준을 넘어 데이터센터 사업자·클라우드 기업·AI 스타트업과 함께 저전력 메모리·저장 구조를 공동 설계하고, 이를 하나의 패키지 상품으로 제공하는 비즈니스 모델을 고민할 수 있는 몇 안 되는 국가다. 예를 들어 울산이나 타 지역에 조성될 AI 데이터센터에 국내의 HBM·플래시·서버 기술을 결합한 국산 메모리 스택을 도입해 실제 서비스를 돌려 보면서, 에너지 효율·성능·비용을 동시에 최적화하는 설계 역량을 키워 나간다면, 단지 GPU를 많이 들여오는 수준을 넘어 데이터센터 전체를 설계·제공하는 능력에서 우위를 확보할 수 있을 것이다.

4. 맺음말: AI 데이터센터를 새로운 비즈니스와 혁신의 실험장으로

정리하면, AI 데이터센터는 한국 경제에 위험과 기회를 동시에 가져오는 인프라다. GPU 26만 장, 울산 초대형 데이터센터, 비수도권 분산에너지 특구 등은 그 방향을 보여주는 초기 신호다. 그러나 전력 수요만 크게 늘리는 시설이 될 것인지, 아니면 재생에너지·반도체·제조·서비스 혁신을 묶어내는 새로운 비즈니스 모델의 실험장이 될 것인지는 아직 정해지지 않았다. 앞으로 우리가 던져야 할 질문은 다음과 같다.

– AI 데이터센터에 쓰이는 전기는 어떤 산업과 공공서비스의 혁신에 우선적으로 기여하고 있는가?

– 데이터센터는 지역사회에 얼마나 투명한 정보와 실질적인 이익을 돌려주고 있는가?

– 한국 반도체·통신·제조 기업은 단순 부품 공급을 넘어, 저전력 설계·에너지 관리·새로운 서비스까지 함께 설계하는 주체로 자리 잡고 있는가?

이 질문에 긍정적으로 답할 수 있다면, AI 데이터센터는 더 이상 전기 먹는 하마가 아니라 새로운 산업과 경쟁력 혁신을 이끄는 설계도가 될 수 있다. 반대로 이러한 질문 없이 GPU 수량과 투자액 숫자만을 자랑하다 보면, 언젠가 전력·환경·재정 부담이 한꺼번에 돌아오는 역풍을 맞을 위험이 크다. 지금은 아직 선택의 여지가 있는 시기다. 데이터·연산·에너지·시장을 함께 바라보는 긴 호흡의 전략, 그리고 현실적인 제약을 인정하면서도 새로운 비즈니스 모델을 실험하려는 도전 정신이 필요하다. 대한민국이 AI 데이터센터를 통해 얻을 수 있는 가장 큰 성과는, 어쩌면 GPU의 개수가 아니라 이 과정을 통해 쌓인 정책 설계 능력과 산업 간 협력의 경험일지도 모른다.

[참고문헌]

  • Ewim, D. R. E., N. Ninduwezuor-Ehiobu, O. F. Orikpete et al. (2023). <Impact of Data Centers on Climate Change: A Review of Energy Efficient Strategies>. The Journal of Engineering and Exact Sciences. Vol. 9(6). pp. 1-15.
  • Freitag, C., M. Berners-Lee, K. Widdicks, B. Knowles, G. S. Blair, A. Friday (2021). <The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations”, Patterns>. Vol. 2(9). 100340.
  • Guo, C., Y. Zhang, X. Xu, J. Yang, Y. Ding (2021). <Integrated planning of internet data centers and battery energy storage systems in smart grids>. Applied Energy. Vol. 281. 116093.
  • International Energy Agency (2025). <Energy and AI – Energy demand from AI>.
  • Institute for Energy Economics and Financial Analysis (IEEFA) (2025). <Risk of AI-driven, overbuilt infrastructure is real>.
  • Global Market Insights (2025). <AI Data Center Market Size By Component, By Deployment Mode, By Data Center, Industry Vertical, Growth Forecast, 2025 – 2034>.
  • Grand View Research (2024). <Data Center Market Size, Share & Trends, 2024-2030>.
  • MarketsAndMarkets (2025). <AI Data Center Market Size, Share & Trends, 2025 To 2030>.
  • Zhang, Y., H. Tang, H. Li, S. Wang (2025). <Unlocking the flexibilities of data centers for smart grid services: Optimal dispatch and design of energy storage systems under progressive loading>. Energy. 134511.
  • 김문태(2024), <국내 데이터센터 산업, AI와 ESG 사이에서 길을 찾다>. 하나금융경영연구소 디지털 이슈리포트.
  1. Fintech Hong Kong (2025.06.27). China’s AI Capex to Hit 700 Billion Yuan in 2025 Amid US Tech Rivalry. http://fintechnews.hk/34553/fintechchina/china-ai-capex-2025-us-rivalry. [본문으로]
  2. Anton Shilov (2025.07.29). EU plans $30 billion investment in gigawatt AI data centers – multiple sites to host 100,000 AI GPUs each as bloc plays catch-up to US and China. Tom’s Hardware. https://www.tomshardware.com/tech-industry/artificial-intelligence/eu-readies-usd30-billion-investment-in-gigawatt-ai-data-centers-multiple-sites-hosting-100-000-ai-gpus-each-planned-for-the-bloc. [본문으로]
  3. Niva Yadav (2024.08.19.). Taiwan to stop large data centers in the North, cites insufficient power. Data Center Dynamics. https://www.datacenterdynamics.com/en/news/taiwan-to-stop-large-data-centers-in-the-north-cites-insufficient-power. [본문으로]
  4. Jassmine Shadiqe (2025.11.26.). Johor tightens approvals for data centres. New Straits Times. https://www.nst.com.my/news/nation/2025/11/1324188/johor-tightens-approvals-data-centres#google_vignette. [본문으로]
  5. https://engineering.fb.com/2025/03/04/data-center-engineering/a-case-for-qlc-ssds-in-the-data-center. [본문으로]
  6. Subasg Peddu(2025.02.27.). AI’s Rapid Growth: The Crucial Role Of High Bandwidth Memory. SemiEngineering.https://semiengineering.com/ais-rapid-growth-the-crucial-role-of-high-bandwidth-memory/. [본문으로]
저자 : 김민기

김민기 KAIST 경영전문대학원장