- Alibaba CloudがQwQ-32Bを発表、Qwen2.5-32bをベースにしたコンパクトな推論モデル
- QwQ-32Bは32億のパラメータで他の大規模な最先端モデルに匹敵する性能を提供
- QwQ-32Bは強化学習(RL)を活用し、数学的推論やコーディングの能力を向上させる
- モデルは一般的な報酬モデルとルールベースの検証器を使用してトレーニングされ、より優れた性能を実現
- QwQ-32BはHugging FaceとModel ScopeでApache 2.0ライセンスの下で公開されている
- QwenはRLのスケーリングを進め、人工知能(AGI)の実現に近づく自信を示す
- 他の専門家はLLMの実用的な使用例に合わせてモデルを選択する重要性を強調
- 中国の高性能モデルは運用コストが高いという前提に挑戦、効率性が競争力を生む
- 倫理的な境界を問う全てのモデルは異なる視点から挑戦を受ける
- Baiduも中国のAI市場で存在感を示すが、国内重視の姿勢を示す
この記事では、Alibaba CloudがQwQ-32Bという推論モデルを発表しました。このモデルは32億のパラメータを持ち、他の大規模な最先端モデルと匹敵する性能を提供しています。QwQ-32Bは強化学習を活用して数学的推論やコーディングの能力を向上させるとともに、一般的な報酬モデルとルールベースの検証器を使用してトレーニングされています。これにより、より優れた性能が実現されています。
また、中国の高性能モデルは運用コストが高いという前提に挑戦し、効率性が競争力を生むと指摘されています。倫理的な境界を問う全てのモデルは異なる視点から挑戦を受けるという意見も示されています。Baiduも中国のAI市場で存在感を示していますが、国内重視の姿勢を示しているとされています。