HGX H100 8-GPU AI Server and HPC data center solution ASUS ESC N8-E11은 AI 및 데이터 과학 개발을 가속화하도록 설계된 인텔 듀얼 소켓 HGX H100 8-GPU AI 서버로 열 효율, 확장성 및 전례 없는 성능을 제공하는 효과적인 냉각 및 혁신적인 구성 요소를 제공합니다
End-to-End AI Supercomputing Platform 이 7U 듀얼 소켓 서버는 4세대 인텔 제온® 스케일러블 프로세서와 8개의 엔비디아 H100 텐서 코어 GPU로 구동됩니다. AI 및 데이터 과학 개발을 가속화하도록 설계된 ESC N8-E11은 전용 1-GPU 대 1-NIC 토폴로지를 제공하며 컴퓨팅 집약적인 워크로드에서 최고의 처리량을 위해 최대 8개의 NIC를 지원합니다. 운영 비용을 절감하기 위해 ASUS ESC N8-E11은 열 효율, 확장성 및 전례 없는 성능을 제공하는 효과적인 냉각 및 혁신적인 구성 요소를 제공하도록 설계되었습니다.
Supports 8 NICs and 8 GPUs in one system 1-GPU-to-1-NIC 전용 토폴로지를 통해 ESC N8-E11은 최대 8개의 NIC를 지원하여 컴퓨팅 집약적인 워크로드에 최고의 처리량을 제공합니다.
Easy troubleshooting and thermal optimization 모듈식 설계는 케이블 사용량을 크게 줄여 시스템 조립 시간을 단축하고 케이블 라우팅을 피할 수 있을 뿐만 아니라 공기 흐름이 막힐 위험을 낮춰 열 최적화를 개선합니다.
The full power of NVIDIA GPUs, DPUs, NVLink, NVSwitch, and networking ESC N8-E11은 4세대 NV링크 및 NV스위치 기술과 NVIDIA ConnectX-7 SmartNIC를 통합하여 AI 및 데이터 과학의 개발을 가속화합니다. 또한 GPUDirect® RDMA, NVIDIA Magnum IO™가 탑재된 스토리지, NVIDIA AI 플랫폼의 소프트웨어 레이어인 NVIDIA AI Enterprise를 강화합니다.
주요스펙
Processor / System Bus 2 x Socket Intel® Xeon® Processor Scalable Family (Up to 350W)
Memory
Total Slots: 32 (8 channel per CPU, 16 DIMM per CPU) Capacity: Maximum up to 4TB per CPU socket Memory Type: DDR5 4800/4400 RDIMM/ 3DS RDIMM (2DIMM per Channel) 512GB, 256GB, 128GB Intel® Optane™ persistent memory 300 series (Crow Pass) Memory Size: 64GB, 32GB, 16GB RDIMM 256GB, 128GB RDIMM 3DS
Expansion Slots
SKU1: 10 + 1 x PCIe Gen5 slots (1 x internal RAID card) [PCIe Switch directly] - 8 x PCIe Gen5 x16 link (LP, HL) [CPU directly]- 1 x PCIe Gen5 x16 link (FH, HL)* + 1 x PCIe Gen5 x16 link (FH, HL)* SKU2 (Launch in 2023Q4) 12 x PCIe Gen5 slots [PCIe Switch directly] - 8 x PCIe Gen5 x16 link (LP, HL) [CPU directly] - 1 x PCIe Gen5 x16 link (FH, HL)* + 1 x PCIe Gen5 x16 link (FH, HL)* - 1 x PCIe Gen5 x8 link (FH, HL) + 1 x PCIe Gen5 x8 link (FH, HL)
Storage Optional Kits: -Broadcom MegaRAID 9560-16i -Broadcom MegaRAID 9540-8i
Drive Bays 10 x 2.5” hot-swap drive bays (8 NVMe, 2 NVMe/SATA/SAS*) [PCIe Switch directly] Front: 8 NVMe [CPU directly] Rear: 2 NVMe(CPU2)/SATA(PCH)/SAS* 2 x M.2 Gen5 x4 link (CPU1) / 2 x M.2 Gen3 x2 link (PCH) *SAS support required an HBA/RAID card.
Networking 2 x 10 Gigabit LAN ports (Intel X710-AT2 Controller)
1 x Management Por
Power Supply 4+2 or 3+3 Redundant 3000W 80 PLUS Titanium Power Supply
Environment Operation temperature: 10℃ ~ 35℃
Non operation temperature: -40℃ ~ 70℃
Non operation humidity: 20% ~ 90% ( Non condensing)
KEY FEATURES - Fueled by dual 4th Gen Intel® Xeon® Scalable processors, supporting 350W TDP
- Direct GPU-to-GPU interconnect via NVLink delivers 900GB/s bandwidth for efficient scaling
- A dedicated one-GPU-to-one-NIC topology: Supports up to 8 NICs for the highest throughput during compute-intensive workloads
- Modular design with reduced cable usage: Shorten assembly time and improve thermal optimization
- Advanced NVIDIA technologies: The full power of NVIDIA GPUs, BlueField-3, NVLink, NVSwitch, and networking
- High level of power efficiency: 4+2 or 3+3 80 PLUS Titanium power supplies
- Optimized thermal design: Supports direct-to-chip (D2C) cooling solution and features dedicated CPU and GPU airflow tunnels for efficient heat dissipation
- Designed for generative AI with optimized server systems, data-center infrastructure, and AI software-development capabilities integrated by ASUS
|