- OCI Compute Supercluster「BM.GPU.MI300X.8」がAMD Instinct MI300X GPUsを導入
- AMD MI300X GPUsはAIのワークロード向けに設計され、大規模言語モデル(LLM)推論やトレーニングをサポート
- AMD Instinct MI300X GPUsはAMD CDNA 3アーキテクチャに基づき、19,456のストリームプロセッサと1,216のマトリックスコアを搭載
- ROCmオープンソフトウェアとの組み合わせにより、高性能、効率性、およびシステムデザインの柔軟性を提供
- AMDはROCm 6.2を2024年8月にリリース、vLLMサポートやAIトレーニング、推論性能向上を提供
- OracleはAmpere Computingへの投資を共有、将来的な所有権オプションを検討
この記事では、Oracle Cloud Infrastructure(OCI)がAMD Instinct MI300X GPUsを採用し、AIワークロード向けに高性能なOCI Compute Superclusterを提供することが強調されています。AMDの最新技術を活用することで、高速なネットワークファブリック技術を利用し、大規模な言語モデルの推論やトレーニングなどのAIタスクに対応します。ROCmソフトウェアとの組み合わせにより、高いパフォーマンスと柔軟性を提供することが期待されています。また、AMDはROCm 6.2をリリースし、AIトレーニングや推論性能の向上を実現しています。さらに、OracleのAmpere Computingへの投資により、将来的なチップ技術の所有権を模索していることが述べられています。
元記事: https://www.datacenterdynamics.com/en/news/amd-instinct-mi300x-gpus-now-available-on-oci/