- パリを拠点とするAI企業Mistralが、新しい小規模言語モデル(SLM)のMinistrauxファミリーをリリース
- MinistrauxはMinistral 7Bの記念日に登場し、Ministral 3BとMinistral 8Bの2つのサイズで提供
- 市場にはすでに他のSLMが多数存在し、MicrosoftのPhi 3.5モデル、GoogleのGemma 2モデル、MetaのLlama 3.2などがリリースされている
- Mistralによると、Ministralモデルは同じサイズの他のSLMよりも主要なベンチマークで優れており、推論、コーディング、多言語タスクなどで優れたパフォーマンスを発揮
- Ministralは128,000トークンのコンテキストウィンドウを持ち、長いコンテキストのタスクに使用可能
- モデルは事前学習済みとインストラクションファインチューニングバージョンがあり、エッジAIアプリケーションに適している
- モデルのライセンスには制限があり、Ministral 8B Instructの重みは研究ライセンスでリリースされている
- AI分野の主要な課題の1つはライセンスであり、Mistralは利益を上げる方法をまだ見つけていないため、モデルのリリースが難しい
- 技術の進化が速いため、モデルはすぐに時代遅れになり、次世代のモデルのトレーニングに何百万ドルもかかる可能性がある
私の考え:
MistralのMinistrauxファミリーは、他の大手テック企業に対抗して自らの地位を守っていることが素晴らしいと感じます。ただし、ライセンスの制限や迅速な技術進化による課題は、AI企業にとって重要な課題であり、将来の展望に影響を与える可能性があると考えられます。
元記事: https://bdtechtalks.com/2024/10/16/mistral-slm-ministral/