슈퍼마이크로(Supermicro)는 클라우드 네이티브 솔루션을 위해 설계된 즉시 배포 가능한 수냉식 AI 데이터 센터를 발표하고, 슈퍼클러스터(SuperCluster)를 통해 기업의 생성 AI 사용을 가속화하고 생성 AI의 개발 및 배포에 적합한 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼 최적화를 목표로 하고 있습니다.
슈퍼마이크로는 액체 냉각식 AI 데이터 센터가 슈퍼마이크로의 4U 액체 냉각 기술을 사용한다고 지적했습니다. NVIDIA가 최근 출시한 Blackwell GPU는 단일 GPU에서 20PetaFLOPS의 AI 성능을 완벽하게 활용할 수 있으며 이전 GPU와 비교하면 4배 더 많은 성능을 제공할 수 있습니다. AI 훈련 성능과 추론 성능이 30배 향상되는 동시에 추가 비용도 절약됩니다. 이러한 최초 시장 진출 전략에 따라 슈퍼마이크로는 최근 NVIDIA Blackwell 아키텍처를 기반으로 하는 완전한 제품 시리즈를 출시하여 새로운 NVIDIA HGXTM B100, B200 및 GB200 Grace Blackwell Superchip을 지원합니다.
슈퍼마이크로 사장 겸 CEO인 Liang Jianhou는 슈퍼마이크로가 랙 수준 액체 냉각 기술을 사용하여 AI 솔루션을 구축하고 배포하는 데 있어 업계를 계속 선도하고 있다고 말했습니다. 데이터 센터의 액체 냉각 구성은 거의 무료로 설계할 수 있으며 지속적으로 전력 소비를 줄이는 이점을 통해 고객에게 추가적인 가치를 제공할 수 있습니다. 당사의 솔루션은 NVIDIA AI Enterprise 소프트웨어에 최적화되어 있으며, 다양한 산업 분야의 고객 요구 사항을 충족하고, 세계적 규모의 효율성으로 글로벌 제조 역량을 제공합니다. 이를 통해 NVIDIA HGX H100 및 H200과 향후 출시될 B100, B200 및 GB200 솔루션을 통해 리드 타임을 줄이고 즉시 사용 가능한 액체 또는 공랭식 컴퓨팅 클러스터를 더 빠르게 제공할 수 있습니다. 액체 냉각 패널부터 CDU, 심지어 냉각 타워까지, 당사의 캐비닛 수준 종합 액체 냉각 솔루션은 데이터 센터의 지속적인 전력 소비를 최대 40%까지 줄일 수 있습니다.
COMPUTEX 2024에서 슈퍼마이크로는 NVIDIA HGX B200 기반의 10U 공기 냉각 시스템과 4U 액체 냉각 시스템을 포함하여 NVIDIA Blackwell GPU에 최적화된 향후 시스템을 시연했습니다. 또한 Supermicro는 8U 공랭식 NVIDIA HGX B100 시스템, NVIDIA GB200 NVL72 랙(NVIDIA NVLink 스위치를 통해 상호 연결된 72개의 GPU 탑재) 및 새로운 NVIDIA MGX 시스템(NVIDIA H200 NVL PCIe GPU 및 최신 발표 지원)도 제공할 예정입니다. NVL2 아키텍처).
NVIDIA 창립자 겸 CEO인 Jensen Huang은 생성 AI가 전체 컴퓨팅 스택의 재설정을 주도하고 있다고 말했습니다. 새로운 데이터 센터는 GPU를 사용하여 컴퓨팅을 가속화하고 AI에 맞게 최적화할 것입니다. Supermicro는 수조 달러 규모의 글로벌 데이터 센터를 AI 시대에 최적화할 수 있도록 최첨단 NVIDIA 가속 컴퓨팅 및 네트워킹 솔루션을 설계합니다.
LLM(Large Language Model)의 급속한 발전과 Meta의 Llama-3 및 Mistral의 Mixtral 8x22B와 같은 오픈 소스 모델의 지속적인 출시로 인해 기업은 오늘날 가장 진보된 AI 모델을 더욱 쉽게 확보하고 사용할 수 있습니다. AI 인프라를 단순화하고 가장 비용 효과적인 방식으로 액세스를 제공하는 것은 오늘날의 신속한 AI 혁신을 지원하는 데 매우 중요합니다. 슈퍼마이크로의 클라우드 네이티브 AI 슈퍼클러스터(SuperCluster)는 클라우드에 즉시 접속할 수 있는 편의성과 휴대성을 연결하고, 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)를 통해 모든 규모의 AI 프로젝트가 평가 테스트 단계부터 실제 운영 단계까지 원활하게 이동할 수 있도록 해줍니다. 이는 온프레미스 시스템이나 대규모 로컬 데이터 센터를 포함하여 어디서나 데이터를 실행하고 안전하게 관리할 수 있는 유연성을 제공합니다.
또한 각계각층의 기업들이 생성 AI의 실험적 사용을 신속하게 구현하고 있기 때문에 슈퍼마이크로는 NVIDIA와 긴밀히 협력하여 AI 애플리케이션의 실험 및 평가 파일럿부터 운영 배포 및 대규모 데이터 센터 AI에 이르기까지 완전하고 유연한 추진을 보장합니다. 이러한 원활한 프로세스는 NVIDIA AI Enterprise 소프트웨어 플랫폼의 랙 및 클러스터 수준 최적화를 통해 달성되며, 초기 탐색부터 확장 가능한 AI 구현까지의 프로세스를 더욱 원활하고 원활하게 만듭니다.
관리형 서비스에는 인프라 선택, 데이터 공유, 생성적 AI 정책 제어가 포함됩니다. NVIDIA AI Enterprise의 일부인 NVIDIA NIM 마이크로서비스는 관리형 생성 AI와 버그 없는 오픈 소스 배포의 이점을 제공합니다. 다기능 추론 런타임 환경은 마이크로서비스를 사용하여 오픈 소스 모델부터 NVIDIA 기본 모델까지 다양한 유형의 생성 AI 배포를 가속화합니다. 또한 NVIDIA NeMoTM은 데이터 활용, 고급 맞춤화, 검색 증강 생성(RAG)을 통해 맞춤형 모델 개발을 지원하여 엔터프라이즈급 솔루션을 달성합니다. NVIDIA AI Enterprise를 갖춘 Supermicro SuperCluster와 통합된 NVIDIA NIM은 확장 가능하고 가속화된 생성 AI 작업을 배포하는 가장 빠른 방법을 제공합니다. |