"슈퍼컴퓨터를 애저와 공동 설계하는 것은 우리의 까다로운 AI 교육 요구를 확장하고 ChatGPT와 같은 시스템에 대한 연구와 정렬 작업을 가능하게 하는 데 중요했습니다."— Greg Brockman, OpenAI의 사장 겸 공동 설립자.
Azure의 가장 강력하고 대규모로 확장 가능한 AI 가상 머신 시리즈
오늘날 마이크로소프트는 ND H100 v5 VM을 소개하고 있습니다. ND H100 v5 VM은 NVIDIA Quantum-2 InfiniBand 네트워킹으로 상호 연결된 NVIDIA H100 GPU의 크기를 8개에서 수천개까지 확장할 수 있습니다. 고객은 다음과 같은 혁신적인 기술을 통해 NAT의 지난 세대 NDA100 v4 VM보다 훨씬 빠른 AI 모델의 성능을 확인할 수 있습니다:
> 차세대 NVSwitch 및 NVLink 4.0을 통해 상호 연결된 NVIDIA H100 텐서 코어 GPU 8개
> GPU당 400Gb/s NVIDIA Quantum-2 CX7 InfiniBand, VM당 3.2Tb/s의 비차단 Fat-Tree 네트워크
> NVswitch 및 NVLink 4.0(3.6 포함)각 VM 내의 8개 로컬 GPU 간의 TB/s 이중 대역폭
> 4세대 Intel Xeon 스케일러블 프로세서
> GPU당 64GB/s 대역폭을 지원하는 PCIE Gen5 호스트-GPU 상호 연결
> 4800MHz DDR5 DIMM의 16채널
클라우드에 엑사스케일 AI 슈퍼컴퓨터 제공
생성적 인공지능 애플리케이션은 빠르게 진화하고 있으며 거의 모든 산업에서 고유한 가치를 추가하고 있다. 새로운 AI 기반 Microsoft Bing 및 Edge를 사용한 검색 재창조에서부터 Microsoft Dynamics 365의 AI 기반 지원에 이르기까지, AI는 빠르게 소프트웨어와 우리가 그것과 상호 작용하는 방식의 퍼베이시브 구성 요소가 되고 있으며, 우리의 AI 인프라가 기반을 닦을 것이다.
여러 ExaOP 슈퍼컴퓨터를 전 세계 Azure 고객에게 제공한 경험을 통해 고객은 NAT 인프라를 통해 진정한 슈퍼컴퓨터 성능을 달성할 수 있다고 확신할 수 있습니다. Microsoft 및 Infection, NVIDIA 및 Open과 같은 조직용대규모 배치에 전념한 AI, 이 제품은 새로운 등급의 대규모 AI 모델을 가능하게 할 것이다.
"대화형 AI에 초점을 맞추려면 가장 복잡한 대형 언어 모델을 개발하고 훈련해야 합니다. 애저의 AI 인프라는 이러한 모델을 대규모로 안정적으로 효율적으로 처리하는 데 필요한 성능을 제공한다. 우리는 Azure의 새로운 VM과 이 VM이 AI 개발 노력에 가져다 줄 향상된 성능에 대해 매우 기쁘게 생각합니다 —Mustafa Sulleyman, Inflection, CEO.
규모에 맞는 AI는 애저의 DNA에 내장되어 있다. 튜링과 같은 대형 언어 모델 연구와 클라우드에서 최초의 AI 슈퍼컴퓨터를 구축하는 것과 같은 엔지니어링 이정표에 대한 초기 투자는 인공지능 생성이 가능해진 순간을 준비했다.
Azure 머신 러닝과 같은 Azure 서비스는 모델 교육 및 Azure Open을 위해 고객이 AI 슈퍼컴퓨터에 액세스할 수 있도록 합니다AI 서비스는 고객이 대규모 생성형 AI 모델의 힘을 활용할 수 있도록 한다. 그 규모는 항상 AI를 위해 애저를 최적화하는 데 있어 우리의 북극성이었다. 우리는 이제 대규모 물리적 하드웨어나 소프트웨어 투자를 위한 자본을 필요로 하지 않고 모든 규모의 스타트업과 기업에 슈퍼컴퓨팅 기능을 제공하고 있다.
|