동아일보
AI 인프라 기업 ‘크루소(Crusoe)’ 공동창업자 겸 CEO 체이스 로크밀러 인터뷰생성형 인공지능(AI) 경쟁의 무게중심이 ‘더 똑똑한 모델’에서 ‘더 큰 인프라’로 옮겨가면서 데이터센터는 더 이상 단순한 서버 창고가 아니다. 수만 개의 그래픽처리장치(GPU)를 묶어 학습과 추론을 수행하려면 전력과 냉각, 고압 설비, 네트워크, 운영 자동화까지 통째로 설계해야 한다. 최근 업계에서 데이터센터 대신 ‘AI 팩토리(AI Factory)’라는 표현이 등장한 것도 이 때문이다. 이 팩토리를 얼마나 빨리, 얼마나 크게, 그리고 얼마나 안정적으로 운영할 수 있느냐가 AI 기업과 빅테크의 생산능력을 좌우한다.AI의 발전은 거대한 에너지 소비를 수반한다. AI 모델의 훈련과 추론에 필요한 연산량이 기하급수적으로 증가하면서 데이터센터의 전력 수요 또한 폭발적으로 늘고 있다. 하이퍼스케일러들의 자본 지출(CapEx)이 2028년까지 6000억 달러에 달할 것으로 전망되는 가운데, 에너지 공급은 A
Go to News Site