- AlibabaがMarco-o1を発表、大規模言語モデル(LLM)でオープンエンドの問題解決と複雑な推論タスクに対応
- Marco-o1はOpenAIのo1モデルに対抗し、推論、翻訳、問題解決の強化を提供
- Marco-o1は構造化されたタスクに優れる従来のAIモデルと異なり、明確な答えや評価基準が欠けるオープンエンドの問題に焦点
- Qwen2-7B-Instructアーキテクチャをベースに、オープンソースCoTデータと独自の合成データセットを組み合わせて訓練された
- Marco-o1は推論と翻訳のベンチマークで大幅な進歩を示し、複数の領域に対応可能
- AlibabaはMarco-o1をGitHubやHugging Faceなどで無償提供し、研究者や開発者に能力の拡張を促す
- DeepSeek labが展開したDeepSeek-R1-Lite-Previewモデルなど、同様の革新に続き、OpenAIのo1モデルに挑む
Marco-o1はオープンエンドの問題解決や複雑な推論に焦点を当てた進化した大規模言語モデルであり、AlibabaがAI技術の世界を変革しています。Qwen2-7B-Instructアーキテクチャを使用し、多言語翻訳などのタスクにおいて大幅な進歩を達成しています。Alibabaのオープンイノベーションの姿勢により、Marco-o1は広く研究者や開発者に利用され、その能力が向上される可能性があります。
元記事: https://www.eweek.com/news/alibaba-marco-o1-boosts-math-accuracy/