• Cerebras SystemsとDell Technologiesが協力し、大規模なAI展開向けのAIコンピューティングインフラを提供することを発表
  • 提携により、両社のベストテクノロジーを組み合わせたソリューションが構築され、AIシステム、スーパーコンピュータ、LLMトレーニング、MLエキスパートサービスが含まれる
  • Dell TechnologiesとAMD EPYC CPUによる新しいメモリストレージソリューションがCerebras AIスーパーコンピュータを強化し、現状よりも桁違いに大きなモデルのトレーニングを可能にする
  • AMD EPYC 9354P CPUとDell PowerEdge R6615サーバーの性能を活用し、Cerebrasはメモリ集中型コンピューティングへの独自アプローチを加速し、82TBのストリーミングメモリスーパーコンピュータクラスタを無限に拡張して任意のサイズのモデルをトレーニング
  • Cerebrasの技術は、GPUのメモリ容量の880倍、大規模言語モデルの構築に必要なコードが97%少ない、モデルのスケーリングが容易、データ前処理ソリューションが優れている
  • Cerebrasは、機械学習の専門家を擁し、オープンソースの最先端言語モデルやデータセットに貢献し、生成的AIを前進させる多数の研究論文を公開している

この記事から、Cerebras SystemsとDell Technologiesの協力により、AIコンピューティングインフラの進化が進んでいることが分かります。特に、大規模AI展開における革新的なソリューションや高性能なメモリ集中型コンピューティングの実現が強調されています。Cerebrasの技術は、AIの加速と拡張を容易にし、生成的AIの発展に貢献しています。今後の展開が楽しみです。

元記事: https://www.datanami.com/this-just-in/cerebras-enables-faster-training-of-industrys-leading-largest-ai-models/