- サルヴァムAIは、新しい大規模言語モデル「Sarvam 1」を発表
- AIモデルは、ベンガル語、グジャラート語、ヒンディー語、マラーティー語、マラヤーラム語、カンナダ語、オリヤー語、タミル語、テルグ語、パンジャブ語、英語を含む11言語でトレーニングされている
- 2兆のトークンで4兆のトークンでトレーニングされた20億パラメータのモデル
- AIモデルは、インドの言語でトレーニングされた他のモデルよりも最大4倍効率的とされるトークナイザーを使用
- ハイクオリティなトレーニングデータが不足しているため、サルヴァムAIは合成データ生成手法を使用してデータセットを構築
- Nvidiaだけでなく、YottaのデータセンターとAI4Bharatの技術と言語リソースも利用
- 開発者は、Hugging Face上で利用可能なベースモデルを使用して、Indic言語話者向けのAIアプリケーションを構築可能
この記事では、ベンガルールを拠点とするスタートアップ、サルヴァムAIが新しい大規模言語モデル「Sarvam 1」を発表したことが述べられています。このAIモデルは、多言語に対応し、インドの言語を含む11言語でトレーニングされました。さらに、他のモデルよりも効率的なトークナイザーを使用しています。また、高品質なトレーニングデータの不足に対処するため、サルヴァムAIは合成データ生成手法を活用しています。