TrendForce 조사에 따르면 NVIDIA Hopper 플랫폼 H100의 부족 현상은 1분기부터 점차 완화되었습니다. 2분기부터 동일한 플랫폼의 신제품 H200이 점차 증가하여 새로운 플랫폼인 Blackwell이 3분기에 출시될 예정입니다. 4분기에 데이터 센터 고객에게 출시될 예정입니다. 그러나 올해는 여전히 H100, H200 및 기타 제품 라인을 포함한 Hopper 플랫폼이 지배해야 하며 Blackwell 플랫폼 도입으로 공급망이 진행되고 있으며 4분기에만 생산량이 증가할 것으로 예상됩니다. 전체 하이엔드 GPU의 10% 미만을 차지합니다.
TrendForce는 블랙웰 플랫폼에 속하는 B100이 H100보다 다이 사이즈가 2배 크다고 밝혔습니다. 코워스의 연간 성장률인 2025년에는 TSMC의 전체 CoWos 생산능력이 150%까지 늘어날 것으로 추정됩니다. 생산 능력은 70%에 도달할 것이며 NVIDIA는 거의 절반을 차지합니다. HBM 측면에서 보면, NVIDIA GPU 플랫폼은 H100에 80GB HBM3을 주로 탑재하고 있으며, 2025년에는 B200에 288GB HBM3e를 탑재해 단일 칩의 용량이 거의 4배 증가할 예정입니다. 3개의 주요 오리지널 제조업체의 확장 계획에 따르면 HBM 생산량도 2025년에 두 배로 늘어날 것입니다.
Microsoft, Meta, AWS가 첫 번째 물결에 GB200을 채택합니다.
TrendForce 조사에 따르면 현재 클라우드 서비스 제공업체(CSP) 도입이 활발한 것으로 판단하면 2025년 GB200 솔루션의 총 출하량은 30,000개를 넘을 것으로 예상됩니다. 먼저 TPU AI 인프라를 소유하세요. Blackwell 플랫폼은 단일 AI 서버인 HGX나 MGX와 다르기 때문에 시장에서 높은 기대를 받고 있습니다. 네트워크 기술. GB200은 NVL36과 NVL72로 더 나뉘며, 각 캐비닛에는 각각 최대 36개와 72개의 GPU가 장착됩니다. NVL72는 NVIDIA가 권장하는 주요 구성이지만 복잡한 설계로 인해 최종적으로 NVL36이 도입될 예정입니다.
올해 Tier-2 데이터센터와 정부 AI 서버 수요가 50% 차지
NVIDIA FY1Q25 데이터에 따르면 다양한 국가의 기업 고객, 소버린 클라우드(Sovereign AI) 또는 Tier-2 데이터 센터 고객 그룹의 수요도 크게 증가했습니다. TrendForce는 예를 들어 2023년 CoWoS 및 HBM의 공급 부족으로 인해 NVIDIA가 전체 글로벌 고급 AI 서버 시장 관점에서 대형 클라우드 서비스 제공업체(Hyper CSP)에 고급 GPU 공급을 우선시한다고 밝혔습니다. 2023년 CSP의 전체 AI 서버 수요는 약 65%를 차지합니다.
올해 상반기 GPU 공급 부족이 완화된 후 Dell, HPE 등 서버 브랜드에 대한 수요는 CoreWeave, Tesla 등 다른 지역 또는 국가 주권의 Tier-2 데이터 센터로 확대되었습니다. 클라우드, 슈퍼컴퓨팅 센터 프로젝트 등에서는 AI 훈련이나 응용 프로세스에 민감도나 데이터 프라이버시 보안 등의 문제가 포함될 수 있기 때문에 총 수요가 31%로 증가할 것입니다.
![퀘이사존](https://img2.quasarzone.com/editor/2024/05/30/13fcd39ddeef5bc0eb4a295c6832f9e7.png)
※ 퀘이사존 공식 기사가 아닌 해외 뉴스/기사를 번역한 것으로, 퀘이사존 견해와 주관은 포함되어 있지 않습니다.
|