AMD MI300X GPUを搭載したOCI Computeの一般提供を発表 (2024/09/26)

AMD MI300X GPUを搭載したOCI Computeの一般提供を発表 (2024/09/26)

https://blogs.oracle.com/cloud-infrastructure/post/announcing-ga-oci-compute-amd-mi300x-gpus

投稿者:Sid Padgaonkar | Sr. Director - Product Management (Gen AI) - Strategic Customers

Amar Gowda | Sr. Principal Product Manager


AMD Instinct MI300X GPUを搭載したOracle Cloud Infrastructure(OCI)Computeベアメタル・インスタンスBM.GPU.MI300X.8の一般提供を発表できることを嬉しく思います。


AIの導入が拡大し、推論、ファインチューニング、トレーニングの新しいユースケースをサポートするようになったため、AMD Instinctアクセラレータを搭載した最初のコンピュート・インスタンスをお客様に提供したいと考えています。現在、アプリケーションは、特に生成AIと大規模言語モデル(LLM)の領域において、より大規模で複雑なデータセットを必要としています。AIインフラストラクチャには、コンピューティング・パフォーマンス、クラスタ・ネットワーク帯域幅、高GPUメモリー容量と帯域幅の3つの重要な要素が必要です。OCIのベアメタル・インスタンスは、ハイパーバイザのオーバーヘッドなしでパフォーマンスを提供します。AMD本能のMI300Xアクセラレータを備えたOCI Superclusterは、最大16,384個のMI300X GPU用の高スループット、超低レイテンシのRDMAクラスタ・ネットワーク・アーキテクチャを提供します。アクセラレータあたり192GBのメモリ容量により、AMD本能的なMI300Xは、単一のGPU上で660億のパラメータHugging Face OPTトランスフォーマLLMを実行できます。



AMD本能のOCI Compute MI300X


このインスタンス・タイプは、競争力のある経済性を提供します。これは、GPU/時間あたり6ドルで、次の仕様で提供されます。

Instance Name

BM.GPU.MI300X.8

Instance Type Bare metal
Price (per GPU/hour) $6.00
Number of GPUs 8 x AMD Instinct MI300X Accelerators
GPU Memory 8 x 192GB = 1.5 TB HBM3
GPU Memory Bandwidth 5.3 TB/s
CPU Intel Sapphire Rapids 2x 56c
System Memory 2TB DDR5
Storage 8x 3.84TB NVMe
Front-end Network 1 x 100G
Cluster Network 8x (1x 400G)


6月に更新したように、AMDと提携して、LLMを提供するための本能的なMI300X GPUを検証しました。検証に基づいて、最初のトークン・レイテンシまでの時間は65ミリ秒以内であり、バッチ・サイズが1の場合の平均レイテンシは1.5秒でした。バッチ・サイズが大きくなると、ハードウェアは直線的にスケーリングでき、同時256ユーザー・リクエスト(バッチ)で最大3,643個のトークンを生成できました。詳細は、ブログ投稿、AMD Instinct MI300X GPUによる早期LLMの提供経験とパフォーマンス結果をご覧ください。



BM.GPU.MI300X.8を使い始める


BM.GPU.MI300X.8は、Oracle Cloudコンソールで一般提供されています。Oracleの営業担当またはAIインフラストラクチャ販売担当VPのKyle Whiteまでお問い合わせください。このベア・メタル・インスタンスの詳細は、ドキュメンテーションを参照してください。


コメント

このブログの人気の投稿

Oracle Database 19cサポート・タイムラインの重要な更新 (2024/11/20)

Oracle GoldenGate 23aiでMicrosoft Fabricでのオープン・ミラーリングがサポートされるようになりました (2024/11/19)

Oracle APEX 24.1の一般提供の発表 (2024/06/17)