
요즘 메모리 이야기를 들으면 거의 자동으로 한 문장이 따라온다. “AI 데이터센터가 다 먹어치운다.”
맞는 말이지만, 그대로 믿으면 중요한 절반을 놓친다. 메모리는 하나가 아니다. HBM, DDR5, eSSD, CXL 계열 확장 메모리처럼 등급과 역할이 다르고, 데이터센터도 하나가 아니다. 하이퍼스케일 범용 클라우드, AI 전용 클러스터, 엔터프라이즈/국가형 인프라가 서로 다른 속도로 돈을 쓴다. 여기에 미국·중국·유럽·중동·아시아의 전력·규제·자본비용 차이가 겹치면 “메모리 수요”는 단일 곡선이 아니라 여러 개의 비동기 곡선이 된다.
핵심 논지는 간단하다.
앞으로 3년 메모리 수요의 승부는 “데이터센터 총량”보다 “어떤 워크로드가 어떤 아키텍처를 채택하느냐”에서 난다. 즉 AI DC 숫자가 늘어도, 모든 메모리가 같은 비율로 같이 크지 않는다. HBM은 가파르게, DDR5는 선택적으로, NAND는 용도별로 갈라지고, CXL은 일부 구간에서만 의미 있는 보조 축으로 붙는다.
한마디로 표현하면, 메모리 시장은 “대세 상승”이 아니라 “계층 분화”의 시대로 들어왔다.
지금 메모리는 어디에 꽂히는가: 하이퍼스케일·AI DC·지역별로 보면 답이 달라진다
현재 데이터센터 수요를 거칠게 나누면 세 개의 파이프가 있다.
첫째는 하이퍼스케일 범용 클라우드다. 검색, 광고, 동영상, SaaS, 데이터베이스, 일반 추론이 섞여 돌아간다. 이 영역의 주력 메모리는 여전히 DDR 계열과 eSSD다. 서버 수가 많고 워크로드가 다양해서 “개별 노드의 극단 성능”보다 “총소유비용(TCO)과 안정 운영”이 우선이다.
둘째는 AI 전용 DC(훈련+대규모 추론)다. 여기서는 가속기와 HBM이 사실상 한 몸처럼 움직인다. 가속기 한 대당 탑재 메모리가 과거 대비 급격히 커졌고, 메모리 대역폭이 모델 성능과 직결되기 때문에 HBM의 전략적 가치가 매우 높다.
셋째는 엔터프라이즈/국가형(소버린) 데이터센터다. 규제, 데이터 주권, 온프레미스 요구 때문에 자체 인프라를 유지하거나 콜로를 활용한다. 여기서는 초고가 HBM보다 DDR/eSSD 최적화가 먼저 오는 경우가 많다.
메모리 등급으로 보면 더 선명해진다.
HBM은 “AI 가속기용 초고대역폭”이라는 매우 좁고 깊은 시장이다. 비트 물량 기준으로는 DRAM 전체에서 아직 제한적이지만, 가치 밀도는 압도적이다. 최신 AI 가속기 한 장에서 수백 GB급 HBM을 요구하는 설계가 보편화되면서, HBM은 출하량보다 ASP와 패키징 난이도가 시장을 지배한다.
DDR5는 여전히 데이터센터의 주식(主食)이다. CPU 서버, 메타데이터 처리, 캐시·버퍼 계층, 추론 전후처리에서 대량으로 쓰인다. 다만 “서버 수 증가율”과 “노드당 메모리 증설률”이 이전처럼 같은 방향으로 강하게 맞물리진 않는다. 소프트웨어 최적화와 워크로드 재배치가 동시에 진행되기 때문이다.
eSSD(NAND)는 AI가 커질수록 오히려 중요해진다. 이유는 간단하다. 모델을 학습·서빙하려면 데이터 레이크, 체크포인트, 캐시, 벡터 인덱스가 필요하고, 여기서 스토리지 계층의 성능/가격 균형이 전체 파이프라인 효율을 결정한다. 즉 “GPU만 빠르면 끝”이 아니다.
지역별로 들어가면 수요의 성격이 달라진다.
미국은 하이퍼스케일+AI 팩토리의 중첩도가 가장 높다. 대형 클라우드 사업자와 모델 기업이 같은 전력권역에서 대규모 증설을 밀기 때문에 HBM 수요의 선행 지표가 먼저 나타난다. 동시에 범용 클라우드의 DDR/eSSD도 절대량이 크다.
중국은 제약 환경 속에서 자체 생태계와 소버린 AI 인프라를 병행한다. 최고급 가속기 접근성, 공급망 변수, 정책 우선순위에 따라 메모리 믹스가 달라지며, 일부 구간에서는 “최적 성능”보다 “확보 가능한 조합”이 설계를 결정한다.
유럽은 전력비용·그리드 제약·환경 규제가 강하게 작동해, 무조건적 대형화보다 효율 중심 증설이 많다. 결과적으로 HBM 초집중형 프로젝트는 제한적일 수 있고, 엔터프라이즈/국가형 워크로드에서 DDR/eSSD 비중이 상대적으로 유지될 가능성이 있다.
중동과 일부 아시아 국가는 전력·자본·국가 전략을 바탕으로 대형 AI 캠퍼스를 추진하지만, 단기적으로는 “발표 규모”와 “실제 램프업”의 간극이 커질 수 있다. 캠퍼스 착공과 메모리 실소비 사이에는 전력 인입, 네트워크, 소프트웨어 스택, 고객 파이프라인이라는 긴 체인이 있다.
결국 “메모리 수요가 어느 DC로 들어가느냐”의 답은 이렇다.
가치 기준으로는 AI DC의 HBM 흡입력이 가장 강하고, 비트 기준으로는 하이퍼스케일 범용 인프라의 DDR/eSSD가 여전히 거대한 바닥을 만든다. 이 두 축이 동시에 존재하기 때문에, 업황을 한 문장으로 요약하면 오판하기 쉽다.
앞으로 3년: 무한 확장이 아니라 병목의 재배치가 수요를 결정한다
향후 3년을 볼 때 가장 큰 오해는 “AI DC 계획 물량 = 실제 메모리 수요”라는 등식이다.
실제 시장은 그렇게 직선으로 움직이지 않는다. 대규모 계획이 발표돼도 전력 인허가, 변전소·송전, 냉각 인프라, 광통신 리드타임, 패키징(특히 고급 메모리와 인터포저 연계), 그리고 소프트웨어 최적화 속도에서 병목이 번갈아 등장한다.
즉 병목은 사라지지 않고 위치만 바뀐다. 작년엔 GPU가 병목이었다면, 올해는 전력·네트워크·패키징이 병목이 되고, 내년엔 활용률(ROI)이 병목이 될 수 있다.
이 구조를 감안하면 3년 전망은 “단일 수치”보다 “세 갈래 시나리오”가 현실적이다.
첫째, 기본 시나리오다.
AI 훈련은 소수 초대형 클러스터로 집중되고, 추론은 클라우드와 엔터프라이즈로 확산된다. 이 경우 HBM은 높은 성장률을 유지하되, 성장의 절대 속도는 해마다 조금씩 둔화될 수 있다. DDR5는 AI 서버 보조 메모리와 범용 클라우드 리프레시가 받쳐주며 중간 성장, eSSD는 데이터 파이프라인 확장과 함께 안정적 고성장을 이어간다.
핵심은 “HBM만 폭증, 나머지는 정체”가 아니라 “HBM이 리드하고 DDR/eSSD가 추종하는 다층 성장”이다.
둘째, 상방 시나리오다.
대형 모델 경쟁이 다시 가속되고, 전력·패키징 병목이 예상보다 빨리 완화되며, 추론 단가 하락으로 서비스 트래픽이 급증하는 경우다. 이때는 HBM 공급 긴장이 장기화되고, 고사양 DDR 및 고성능 eSSD까지 동반 타이트해질 수 있다.
다만 이 시나리오는 자본비용과 전력 인프라의 동시 완화가 필요해 조건이 까다롭다.
셋째, 하방(정상화) 시나리오다.
모델 효율 개선(양자화·희소화·증류)과 하드웨어 사용률 개선으로 “필요한 GPU/메모리 밀도”가 생각보다 빨리 낮아지는 경우다. 여기에 매크로 둔화나 규제 변수까지 겹치면 초대형 신규 프로젝트 일부가 지연될 수 있다. 이 경우 HBM 성장률은 여전히 높더라도 기대치 대비 디레이팅이 나타날 수 있고, DDR/eSSD는 범용 리프레시 사이클에 더 의존하게 된다.
즉 수요가 사라지는 게 아니라, 기대 곡선이 현실 곡선으로 내려오는 그림이다.
중요한 건 지역별로 이 시나리오가 동시에 다르게 전개된다는 점이다.
미국은 상방·기본 사이를 오가기 쉽고, 유럽은 기본·하방 사이에서 효율 중심으로 움직일 가능성이 높다. 중국은 기술 접근성과 정책 우선순위에 따라 변동성이 크며, 중동·신흥권은 프로젝트별 편차가 매우 클 수 있다.
그래서 글로벌 메모리 수요를 볼 때 “전세계 AI DC가 무한정 늘어난다/멈춘다” 같은 이분법은 도움이 안 된다. 실제로는 지역별로 다른 속도의 S-커브가 겹친다.
정리하면, 앞으로 3년 메모리 시장의 본질은 “총량 신화의 시대”가 아니라 “아키텍처 선택의 시대”다.
누가 더 많은 데이터센터를 발표했는가보다, 어떤 워크로드를 어떤 메모리 계층으로 처리하는 설계를 택했는지가 실수요를 결정한다.
AI가 메모리 수요를 끌어올리는 건 분명하다. 다만 그 상승은 무한 직선이 아니라 병목과 효율화, 지역 격차를 통과하는 계단형 상승일 가능성이 높다. 그리고 그 계단에서 가장 먼저 움직이는 건 늘 같은 질문이다. “이 워크로드는 HBM이 필요한가, DDR로 충분한가, 스토리지 계층에서 더 싸게 풀 수 있는가.”
Reference list
- https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks
- https://www.iea.org/reports/electricity-2024
- https://www.iea.org/reports/energy-and-ai
- https://www.datacenterknowledge.com/hyperscalers/hyperscalers-will-command-60-of-global-data-center-capacity-by-2030-report
- https://www.semiconductors.org/global-semiconductor-sales-increase-4-7-month-to-month-in-october/
- https://www.nvidia.com/en-us/data-center/h100/
- https://www.amd.com/en/products/accelerators/instinct/mi300.html
- https://news.skhynix.com/2026-market-outlook-focus-on-the-hbm-led-memory-supercycle/
- https://www.wsts.org/
- https://www.computeexpresslink.org/download-the-specification/