要約:
- 上海を拠点とする人工知能(AI)スタートアップの創設者は、中国が投資や先進チップの面で不利であるにもかかわらず、大規模言語モデル(LLM)の開発における「スケーリング法則」に信頼を置いている。
- スケーリング法則は、AIモデルの性能とパラメータの関係を測定し、一般的には大きなモデル、より多くのデータ、より大きな計算リソースが改善されることを示すが、収益の減少もある。
- 中国のBig Tech企業やスタートアップは、OpenAIが2022年末にChatGPTを立ち上げて以来、自社のLLMを急速に立ち上げてきた。
- Stepfunは2023年4月の創立以来、基本モデルの開発に焦点を当てており、WAICでは1兆パラメータのLLMであるStep-2、マルチモーダルモデルであるStep-1.5V、画像生成モデルであるStep-1Xを正式に発表した。
- 世界モデルは、視覚やその他のデータを処理して外部環境の内部表現を開発することを可能にするものであり、Stepfunは、ジェネレーティブと理解能力を単一のモデル内で統一することを目指している。
感想:
スケーリング法則は、AIモデルの性能向上において重要であり、中国のAI企業は大規模言語モデルの開発に積極的に取り組んでいることが分かります。Stepfunのアプローチは興味深く、マルチモダリティの重要性にも言及されています。AI市場の成長が期待される中、今後も大規模モデルや世界モデルの進化に注目が集まるでしょう。
元記事: https://finance.yahoo.com/news/chinese-ai-benefit-bigger-models-093000246.html