• ヤンデックスがYaFSDPを発表
  • YaFSDPはLLMのトレーニングに使用
  • YaFSDPは世界中のAI開発者に利用可能
  • 学習速度とパフォーマンスの最適化
  • 既存のFSDP方法よりも26%高速化
  • GPUリソースの最大20%節約可能
  • 13〜70億パラメータを扱うモデルに印象的な結果を示す
  • LLAMAアーキテクチャに基づくオープンソースモデルに最適

ヤンデックスがYaFSDPを発表しました。このYaFSDPはLLMのトレーニングに使用され、世界中のAI開発者に利用可能です。学習速度とパフォーマンスを最適化することができ、既存のFSDP方法よりも26%高速化され、GPUリソースの最大20%節約可能です。13〜70億パラメータを扱うモデルに印象的な結果を示し、LLAMAアーキテクチャに基づくオープンソースモデルに最適であるとされています。

元記事: https://voi.id/en/technology/389323