NVIDIAとAWS、AI分野での提携を拡大
AWSとNVIDIAは、AWS re:Inventでの提携を拡大し、AIイノベーションを加速します。
アマゾン ウェブ サービス(AWS)とNVIDIAが、AWS re:Inventにおける提携を強化し、AIイノベーションを推進します。この提携により、顧客に最先端のAIインフラストラクチャ、ソフトウェア、サービスが提供され、生成的なAIの分野が前進します。
主なハイライト
- NVIDIA GH200 Grace Hopper スーパーチップの導入:
- AWSが、NVIDIA GH200 Grace Hopper スーパーチップを備えた新しいマルチノードNVLinkテクノロジーを提供。これにより、共同顧客はスーパーコンピュータークラスのパフォーマンスを実現できます。
- NVIDIA DGXクラウドのホスティング:
- NVIDIA DGXクラウドをAWS上でホストし、AIトレーニングサービスを提供。GH200 NVL32を搭載して、生成AIと大規模言語モデルのトレーニングを高速化します。
- Project Ceiba スーパーコンピューター:
- Project Ceibaでの協力により、世界最速のGPU搭載AIスーパーコンピューターを設計。16,384個のNVIDIA GH200スーパーチップと65エクサフロップスの処理能力を備えます。
- 新しいAmazon EC2インスタンス:
- AWSは、生成AIとHPCワークロード向けのNVIDIA H200 TensorコアGPUを搭載したP5eインスタンスなど、3つの新しいAmazon EC2インスタンスを導入。
- ソフトウェアの革新:
- NVIDIAは、AWS上でNeMo RetrieverマイクロサービスやBioNeMoなどのソフトウェアを導入。これにより、AI関連のアプリケーションが向上します。
提携の意義
この提携は、顧客に最新のテクノロジーとリソースへのアクセスを提供し、AIの分野を前進させます。また、AmazonのロボティクスおよびフルフィルメントチームがNVIDIAのOmniverseプラットフォームを採用し、倉庫最適化を仮想環境で行うことで、現実世界への展開を最適化しています。NVIDIAとAWSのテクノロジー統合により、大規模な言語モデルと生成AIアプリケーションの開発、トレーニング、推論が加速されます。