技術記事要約:
- Rakuten Groupが新たに2つのAIモデル、Rakuten AI 2.0とRakuten AI 2.0 miniを発表
- Rakuten AI 2.0はMixture of Experts(MoE)アーキテクチャを採用した8x7Bモデルで、Rakuten AI 7Bモデルを基にしている
- Rakuten AI 2.0 miniは1.5Bパラメータのモデルで、初のSLM(small language model)
- RakutenはAIを人間の創造性を高める触媒と見なし、AIアプリケーションの開発を促進するためにAIモデルをオープンソースで提供
- Rakuten AI 2.0はMoEアーキテクチャを活用し、計算効率とパフォーマンスを最適化
- Rakuten AI 2.0の日本語性能はRakuten AI 7Bに比べて向上し、日本語の平均スコアは72.29になった
- Rakuten AI 2.0 miniはモバイルデバイスに展開可能で、プライバシーや低遅延、コスト効率に最適化された特定用途向けのモデル
ご意見:
新たなAIモデルの開発により、Rakutenは日本のビジネスやプロフェッショナルにAIアプリケーションの恩恵をもたらす使命に重要な一歩を踏み出しました。特に、MoEアーキテクチャを活用した効率的なモデルやコンパクトなSLMは、革新的な進歩であり、日本語や英語の高品質データを活用したモデル開発は素晴らしい成果をもたらしています。
元記事: https://www.communicationstoday.co.in/rakuten-unveils-new-ai-models-optimized-for-japanese/