要約:
- OpenThinker-32BはDeepSeekが必要とするデータの14%で画期的な結果を達成
- OpenThinker-32BはMATH500ベンチマークで90.6%の精度を達成し、DeepSeekを上回る
- OpenThinkerは、GPQA-Diamondベンチマークで61.6のスコアを達成し、LCBv2ベンチマークでも68.9を達成
- OpenThinkerはDeepSeekを超える結果を示し、プログラミングでは中国の競合モデルに若干劣る
- OpenThinkerは、効率的であり、結果を達成するのに114,000のトレーニング例が必要だった
感想:
OpenThinker-32Bの成果は、DeepSeekに必要なデータ量のわずか14%で、画期的なものであると言えます。オープンソースAIにとって大きな勝利です。OpenThoughtsコンソーシアムによって開発されたこのモデルは、数々のベンチマークで優れたパフォーマンスを示し、効率的な性能を持っていることが特筆されます。特に、AIコミュニティにとっては巨大なプロプライエタリデータセットなしで競争力のあるモデルを構築できる可能性を再び示してくれるリリースと言えるでしょう。
元記事: https://www.techzine.eu/news/applications/128753/new-ai-model-beats-deepseek-with-86-less-data/