NVIDIA、Microsoft との複数年にわたるコラボレーションを発表
- 2022/11/21
- ビジネス
- AI ソフトウェア, コラボレーション, スーパーコンピューティング, 企業情報
NVIDIAは17日、Microsoft Azure の高度なスーパーコンピューティング インフラストラクチャと NVIDIA GPU、ネットワーク、および AI ソフトウェアのフルスタックを組み合わせることで、世界で最も強力な AI スーパーコンピューターの 1 つを構築し、企業による大規模な最先端モデルを含む AI のトレーニング、展開、スケーリングを支援するため、Microsoft との複数年にわたるコラボレーションを発表した。
Azure のクラウドベースの AI スーパーコンピューターには、AI の分散トレーニングと推論用に最適化された強力でスケーラブルな ND シリーズおよび NC シリーズの仮想マシンが含まれている。これは、NVIDIA の高度な AI スタックを組み込んだ最初のパブリック クラウドであり、数万の NVIDIA A100 および H100 GPU、NVIDIA Quantum-2 400Gb/s InfiniBand ネットワーキング、および NVIDIA AI Enterprise ソフトウェア スイートをそのプラットフォームに追加している。
コラボレーションの一環として、NVIDIA は Azure のスケーラブルな仮想マシン インスタンスを活用し、ジェネレーティブ AI の進化の研究とさらなる加速を目指す。ジェネレーティブ AI は急速に台頭する分野であり、Megatron Turing NLG 530B のような基盤モデルが教師なし自己学習アルゴリズムのベースとなり、新たなテキスト、コード、デジタル画像およびビデオやオーディオを生成する。
両社は、Microsoft の DeepSpeed ディープラーニング最適化ソフトウェアの最適化でも協力する予定。Azure 向けに最適化された NVIDIA のフルスタックの AI ワークフローとソフトウェア開発キットは、Azure エンタープライズの顧客も利用できるようになる。
Microsoft AzureのAIに最適化された仮想マシン インスタンスは、NVIDIA の最先端のデータセンターGPUを使用して設計されており、NVIDIA Quantum-2 400Gb/s InfiniBand ネットワークを組み込んだ最初のパブリック クラウド インスタンス。顧客は単一のクラスターに数千のGPUを展開して、膨大な量の大規模言語モデルをトレーニングし、最も複雑なレコメンダー システムを大規模に構築し、ジェネレーティブ AI を大規模に有効活用できる。
現在のAzureインスタンスは、NVIDIA A100 GPUとNVIDIA Quantum 200Gb/s InfiniBand ネットワークを備えている。将来のインスタンスでは、NVIDIA Quantum-2 400Gb/s InfiniBand ネットワークおよび NVIDIA H100 GPU が統合される予定。Azure の高度なコンピューティング クラウド インフラストラクチャ、ネットワーク、およびストレージと組み合わせることで、AI に最適化されたこれらのインスタンスは、あらゆる規模のAIトレーニングとディープラーニングの推論ワークロードに対してスケーラブルなピーク性能を提供する。