• サルヴァムAIは、新しい大規模言語モデル「Sarvam 1」を発表
  • AIモデルは、ベンガル語、グジャラート語、ヒンディー語、マラーティー語、マラヤーラム語、カンナダ語、オリヤー語、タミル語、テルグ語、パンジャブ語、英語を含む11言語でトレーニングされている
  • 2兆のトークンで4兆のトークンでトレーニングされた20億パラメータのモデル
  • AIモデルは、インドの言語でトレーニングされた他のモデルよりも最大4倍効率的とされるトークナイザーを使用
  • ハイクオリティなトレーニングデータが不足しているため、サルヴァムAIは合成データ生成手法を使用してデータセットを構築
  • Nvidiaだけでなく、YottaのデータセンターとAI4Bharatの技術と言語リソースも利用
  • 開発者は、Hugging Face上で利用可能なベースモデルを使用して、Indic言語話者向けのAIアプリケーションを構築可能

この記事では、ベンガルールを拠点とするスタートアップ、サルヴァムAIが新しい大規模言語モデル「Sarvam 1」を発表したことが述べられています。このAIモデルは、多言語に対応し、インドの言語を含む11言語でトレーニングされました。さらに、他のモデルよりも効率的なトークナイザーを使用しています。また、高品質なトレーニングデータの不足に対処するため、サルヴァムAIは合成データ生成手法を活用しています。

元記事: https://www.thehindu.com/sci-tech/technology/sarvam-ai-launches-sarvam-1-for-indic-languages/article68806005.ece