技術記事の要約:
- Ciscoは、AIトレーニングやワークロードの複雑なアルゴリズムを処理できるインフラを導入するのを支援するために、新しいサーバーと事前構成されたデザインを発表しました。
- 新しいサーバーUCS C885A M8は、NvidiaのHGXプラットフォームに基づいており、大規模な言語モデルトレーニング、モデルの微調整、大規模モデルの推論、および検索拡張生成(RAG)などのAIワークロードに必要な加速された計算機能を提供するよう設計されています。
- 新しいUCS C885A M8システムは、CiscoとNvidiaの拡大パートナーシップから生まれたテクノロジーを取り入れており、AIインフラを立ち上げたい顧客向けに統合ソフトウェアとハードウェアパッケージを提供しています。
- UCS C885A M8には、最大8台のNvidia高密度H100およびH200 Tensor Core GPUまたはAMD MI300X OAM GPUを搭載し、AIネットワークのパフォーマンスを加速するためのNvidia BlueField-3 DPUsも搭載されています。
- Ciscoは、AI Podsを導入しました。これは、顧客が必要に応じてデータセンターやエッジ環境に接続できる事前構成、検証、最適化されたインフラパッケージです。
感想:
この記事では、CiscoとNvidiaがAIインフラに焦点を当てていることが示されています。新しいサーバーやAI Podsの導入により、AIワークロードの処理を効率化し、顧客のニーズに合わせたインフラを提供しています。このような技術の進化は、AIの採用がますます普及する中で重要です。