要約:

  • Rakuten Groupが新しいAIモデル2つを発表 – Rakuten AI 2.0とRakuten AI 2.0 mini。
  • Rakuten AI 2.0はMixture of Experts(MoE)アーキテクチャに基づく日本初の大規模言語モデル(LLM)。
  • Rakuten AI 2.0 miniは日本語と英語のデータを使用して開発された初の小規模言語モデル(SLM)。
  • Rakuten AI 2.0は8x7B MoEファウンデーションモデルであり、Rakuten AI 7Bモデルをベースにしている。
  • Rakuten AI 2.0 miniは15億パラメータのファウンデーションモデルで、高いテキスト生成タスクのパフォーマンスと精度を提供。
  • Rakuten AI 2.0はMoEアーキテクチャを採用し、計算効率性とパフォーマンスを最適化。

感想:

Rakuten Groupの新しいAIモデルは、日本語の大規模な言語モデルと小規模な言語モデルを開発し、AIアプリケーションの開発者やプロフェッショナルに貢献する。特に、MoEアーキテクチャを活用したRakuten AI 2.0は、高い効率性と性能を提供しつつ、計算コストを削減している点が注目される。日本語データの質や革新的なアルゴリズムにより、AI技術の進化に貢献していると感じる。


元記事: https://www.thefastmode.com/services-and-innovations/38702-rakuten-introduces-advanced-ai-models-for-japanese-language