• Cerebrasが最新のAI推論チップをリリース
  • チップには44GBの高速メモリが搭載
  • Cerebrasは16ビットモデルウェイトを使用し、より正確な出力を実現
  • Cerebrasの推論プラットフォームはAPIアクセスを介して利用可能
  • Cerebrasは開発者向けに1日100万個の無料トークンを提供
  • CerebrasはLLM開発と展開の新基準を打ち立てる

推論プラットフォームによるAIモデルの高速処理は、将来のAIワークフローの複雑化やリアルタイムLLMインテリジェンスの向上に重要であると考えられています。Cerebrasの16ビットモデルは、8ビットモデルよりも5%優れた性能を発揮し、より正確で信頼性の高い出力を実現します。

元記事: https://www.techradar.com/pro/it-is-obscenely-fast-biggest-rival-to-nvidia-demos-million-core-super-ai-inference-chip-that-obliterates-the-dgx100-with-i44gb-of-super-fast-memory-and-you-can-even-try-it-for-free