要約:
- Rakuten Groupが新しいAIモデル2つを発表 – Rakuten AI 2.0とRakuten AI 2.0 mini。
- Rakuten AI 2.0はMixture of Experts(MoE)アーキテクチャに基づく日本初の大規模言語モデル(LLM)。
- Rakuten AI 2.0 miniは日本語と英語のデータを使用して開発された初の小規模言語モデル(SLM)。
- Rakuten AI 2.0は8x7B MoEファウンデーションモデルであり、Rakuten AI 7Bモデルをベースにしている。
- Rakuten AI 2.0 miniは15億パラメータのファウンデーションモデルで、高いテキスト生成タスクのパフォーマンスと精度を提供。
- Rakuten AI 2.0はMoEアーキテクチャを採用し、計算効率性とパフォーマンスを最適化。
感想:
Rakuten Groupの新しいAIモデルは、日本語の大規模な言語モデルと小規模な言語モデルを開発し、AIアプリケーションの開発者やプロフェッショナルに貢献する。特に、MoEアーキテクチャを活用したRakuten AI 2.0は、高い効率性と性能を提供しつつ、計算コストを削減している点が注目される。日本語データの質や革新的なアルゴリズムにより、AI技術の進化に貢献していると感じる。