• SmolLMは、Hugging Faceによって開発されたコンパクトな言語モデルで、個人デバイスでのローカル使用に適している。
  • SmolLMは、MicrosoftやMetaから既存のコンパクトモデルを凌駕するテスト結果を持つ。
  • SmolLMは、Hugging Faceの新しい言語モデルファミリーで、13,500万、3億6000万、17億のパラメータによる3つのモデルから構成されている。
  • SmolLMは、過去のモデルよりもパラメータを効果的に展開し、パフォーマンスが向上している。
  • SmolLMは、教育目的のデータを組み合わせてトレーニングし、クラウドに依存せずにプライバシーを確保することができる。

研究者によると、SmolLMの優れた結果は、トレーニングデータの良質さに起因している。Hugging Faceの新しいモデルファミリーは、AIモデルをローカルで実行し、完全にクラウドに依存しないとされており、プライバシーの懸念に対処している。これは、内部データが外部に漏れないことがビジネス環境で重要である場合に、AIの利用を大幅に促進する可能性がある。

Hugging Faceは、SmolLMのローンチによってこの分野に貢献したいと期待しており、データセットとトレーニングコードをオープンソースで公開することで、以前のモデルと比較してさらなる開発を容易にしている。

この記事からは、AIモデルのコンパクト化とプライバシー保護の重要性が強調されており、Hugging Faceの新しいモデルファミリーがその方向性に貢献していることが伺えます。

元記事: https://www.techzine.eu/news/analytics/122478/hugging-face-pushes-for-development-of-locally-running-ai-with-smollm/