AI 연구기업 앤트로픽(Anthropic)이 500억 달러(약 67조 원) 규모의 미국 내 초대형 데이터센터 프로젝트를 공식 발표했다.
파트너는 뉴욕에 본사를 둔 인프라 기업 플루이드스택(Fluidstack)이며, 첫 번째 건설지는 뉴욕·텍사스로 확정됐다. 이 프로젝트는 미국 AI 인프라 역사에서 전례 없는 규모일 뿐 아니라, 차기 AI 모델 개발 경쟁을 좌우할 전력·서버·냉각·공간 등 “물리적 AI 전쟁”의 본격화를 뜻한다.

500억 달러 규모… 미국 본토에 ‘맞춤형 AI 슈퍼 데이터센터’ 구축
플루이드스택은 이번 계약을 다음과 같이 설명한다.
“Anthropic에 완전히 최적화된 전용 데이터센터를 구축하는 프로젝트이며, AI 워크로드 효율 극대화가 목표다.”
여기서 말하는 ‘맞춤형(custom-built)’은 단순한 하드웨어 조립 수준이 아니다. Anthropic이 필요로 하는 프론티어 모델(froniter AI)—대규모 자율 AI, AGI 레벨 연구—를 안정적으로 학습시키기 위한 다음 요소들이 포함된다.
- 멀티 기가와트(GW)급 전력 트랜스미션
- 대형 GPU·서버 랙 구조에 최적화된 냉각 인프라
- 확장 가능한 모듈형 클러스터 설계
- 향후 10~20년 간 모델 규모 증가를 고려한 장기 인프라 구조
이는 사실상 “한 기업 전용 AI 국가 인프라”에 가까운 레벨이다.
고용 효과: 800명의 고임금 상시직 + 2,400명의 건설직
프로젝트는 약 800개의 상시직(평균 연봉 14만4천 달러)을 창출한다. 이는 미국 내 데이터센터 직군의 임금 상위권에 속하는 수준이며, 고성능 컴퓨팅(HPC) 분야 기술자·전력 엔지니어·네트워크 전문가를 대거 포함할 것으로 보인다.
또한 건설 과정에서는 2,400개의 지역 건설 일자리가 발생한다. 트럼프 행정부는 이번 투자를 자국 내 AI 제조·인프라·전력망 확장을 통한 “미국 AI 리더십 유지 프로젝트”로 적극 활용할 전망이다.
AGI 시대의 인프라 경쟁: 모델 경쟁이 아니라 ‘전력·토지·냉각’의 전쟁으로
Anthropic CEO 다리오 아모데이(Dario Amodei)는 다음과 같이 말했다.
“더 강력한 AI를 만들기 위해선 전례 없는 수준의 컴퓨팅 인프라가 필요하다.”
이 발언은 현재 AI 산업의 본질을 정확히 보여준다.
- 더 이상 문제는 알고리즘이 아니다.
모델 크기·매개변수 증가 속도는 전력 공급 속도, 데이터센터 착공 속도보다 빠르게 성장하고 있다. - 전력 확보 경쟁이 ‘AI 패권’의 실질적 전장
1GW 데이터센터는 작은 도시 전력 사용량과 비슷하다. Anthropic, OpenAI, Google, Meta 모두 향후 10GW 단위의 AI 팜을 계획 중이다.
이번 계약은 Anthropic이 전력 확보와 물리적 인프라 확보 경쟁에서 선제적 우위를 잡기 위한 실질적 조치로 해석된다.
왜 Fluidstack인가: ‘기가와트급 인프라를 가장 빠르게 공급할 수 있는 기업’
Fluidstack CEO 게리 우(Gary Wu)는 다음과 같이 말했다.
“Fluidstack은 바로 이 순간을 위해 설계된 회사다.”
Fluidstack은 전통적인 데이터센터 기업과 달리, 초대형 GPU 팜·HPC 팜을 ‘신속하게 구축’하는 데 최적화된 특수 기업이다.
특히 미국 내에서 토지 확보, 전력선 증설, 지역 규제 승인, 냉각 시스템 설계, 건설-설치-운영의 일체 통합 등을 빠르게 처리할 수 있는 드문 기업으로 평가받는다. 결국 Anthropic은 “빠르게, 그리고 크게 확장할 수 있는 인프라 파트너”가 필요했고, Fluidstack이 그 해답이 된 셈이다.
트럼프 행정부의 전략적 의도: ‘미국 내 AI 자체 인프라 강화’
이번 발표는 단순한 기업 간 계약을 넘어, 미국 연방 정부의 전략적 기조와 맞닿아 있다.
트럼프 행정부가 내세운 핵심 목표는 AI 제조·학습·추론의 공급망을 미국 본토에 고정, 중국·유럽을 견제하는 ‘AI 산업 보호주의’ 강화, AI 전력망·반도체·데이터센터까지 포함한 총체적 AI 우위 확보다.
이 프로젝트는 이러한 목표를 충족하며, 백악관은 이를 “미국 AI 리더십 유지의 핵심 프로젝트”로 규정했다.
Anthropic은 왜 ‘전용 데이터센터’를 선택했나?
Anthropic은 현재 Claude 모델 라인업을 기반으로 빠르게 확장 중이다. 그러나 GPT-5, Gemini 초대형 모델 경쟁 구도가 가속되면서, 다음 문제가 드러났다.
1) 외부 클라우드 의존의 한계
AWS·Google Cloud 의존도는 가격·속도·규모 면에서 제약이 크다.
2) AGI급 모델의 학습에는 ‘전용 인프라’가 필요
프론티어 모델은 기존 클라우드보다 5~10배의 전력, 3배 이상의 냉각, 훨씬 복잡한 네트워크 구조를 요구한다.
3) 장기적으로는 비용보다 ‘공급 안정성’이 더 중요
GPU 대란, 전력 대란이 반복되면서 “내가 통제하는 인프라”가 곧 경쟁력이라는 판단이 굳어졌다.
결과적으로 Anthropic은 “클라우드 구매자”에서 “AI 인프라 보유자, 운영자”로 전환하기 시작한 것이다. 이는 OpenAI·Meta·xAI가 이미 시동을 건 흐름이기도 하다.
뉴욕·텍사스가 AI 허브로 재편될 가능성
이번 데이터센터는 단순히 일자리를 창출하는 수준을 넘어, 다음과 같은 지역 변화를 촉진할 수 있다.
- AI 연구 인력 유입
- 전력망 업그레이드
- 도심 외곽 지역의 산업 전환
- 관련 클러스터(서버 제조·냉각 기술·전력 설계) 형성
- 대학·지역 기업과의 기술 협력 확대
특히 텍사스는 이미 마이크로소프트, 오라클, xAI, 스타베이스 인프라 등이 몰려 있는 지역으로, 미국 AI·HPC의 ‘남부 벨트’로 성장할 가능성이 크다.
AI 모델 경쟁에서 ‘전력·부지·데이터센터’ 경쟁의 시대로
Anthropic–Fluidstack의 500억 달러 프로젝트는 AI 경쟁이 더 이상 모델의 파라미터 숫자 싸움이 아니라, 전력·공간·GPU·물리적 인프라의 전쟁으로 확장되고 있음을 보여주는 신호탄이다.
AI 산업의 중심 논리는 이제 다음과 같이 바뀌고 있다.
“누가 가장 큰 모델을 만드느냐가 아니라, 누가 그 모델을 돌릴 수 있는 ‘도시 규모의 인프라’를 확보하느냐.”
이 프로젝트는 미국 AI 전략의 새로운 장을 열었다. 그리고 2026년 이후, Anthropic은 더 거대하고 강력한 AI 시스템을 자신만의 데이터센터에서 학습시키기 시작할 것이다.
결국 AI의 미래는 알고리즘이 아니라 인프라에서 결정될 것이라는 명제를 다시 확인시켜주는 사건이다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]


































