- SalesforceのCEOであるMarc Benioffは、新しい「Tiny Giant」LLMが大規模なモデルを凌駕し、デバイス内AIの開発で前進した可能性があると述べている。
- SalesforceのAI Research部門がArxivに発表した論文によると、xLAM-7B LLMモデルは、APIコールを通じたタスクの実行をテストする競技会で、OpenAIやGoogleなど46モデルの中で6位にランクインした。
- Salesforceは、1.7兆のパラメータが使用されたと噂されるGPT 4の教育に対して、たった70億のパラメータで訓練されたxLAM-7B LLMモデルを誇っている。
- Salesforceが真のスターと見なすのは、xLAM-1Bで、これはわずか10億のパラメータで訓練され、24位にランクインした。
- この成果により、Marc Benioffは、この小さなLLMが今や世界で最も優れた「マイクロモデル」となったと大胆な主張をした。
私の考え:
Salesforceの新しい「Tiny Giant」LLMモデルは、小さなサイズながらも優れた性能を発揮し、デバイス内AIの開発に大きな可能性を示しています。70億のパラメータで訓練されたモデルが、1.7兆のパラメータを持つ他のモデルを凌駕する成果は驚異的です。Salesforceの研究は、小規模なデータセットで訓練されたモデルが、より大規模な情報を持つモデルを上回ることを示唆しており、これは将来的にデバイスで機能呼び出しやタスク実行を行うエージェント型AIモデルを実現する可能性を示唆しています。
元記事: https://www.thestack.technology/salesforce-llm-agentic-ai/