- 上海を拠点とする人工知能(AI)スタートアップの創業者は、中国が投資と先進チップの面で不利な状況にあるとしても、大規模言語モデル(LLM)開発の「スケーリング法則」に信頼を置いている。
- スケーリング法則は、AIモデルの性能とそのパラメータの関係を測定しようとするもので、一般的にはより大きなモデル、より多くのデータ、そしてより大きな計算リソースから性能が向上するが、収益の減少も見られる。
- 中国のビッグテック企業やスタートアップは、OpenAIが2022年末にChatGPTを発表して以来、独自のLLMを急ぎ立ち上げており、アリババグループホールディングのTongyi Qianwenや百度のErnieなど、国内には200以上のAIモデルが存在する。
- Stepfunは2023年4月の設立以来、基本モデルの開発に重点を置いており、WAICでは、兆パラメータLLMのStep-2、多モーダルモデルのStep-1.5V、画像生成モデルのStep-1Xを正式に発表した。
- ステップファンは、世界モデルの構築にとって多様性も重要であり、生成能力と理解能力を単一のモデル内に統一することを目指している。
自然言語処理の分野において、大規模言語モデルの開発はますます重要となっています。スケーリング法則に基づくモデルの性能向上は、AI技術の進歩において鍵となる要素であり、中国のAI企業もその重要性を認識し、競争力を高めるために取り組んでいます。
元記事: https://finance.yahoo.com/news/chinese-ai-benefit-bigger-models-093000246.html