• 台湾の大規模言語モデル「Project TAME」がChatGPTを一部のテストで上回る
  • Project TAMEはNvidiaのAIスーパーコンピューター「Taipei-1」の力を利用
  • 5000億トークンにトレーニングされた台湾のLLMは39の包括的評価で他のモデルよりも高いスコアを獲得
  • Project TAMEリーダーは、350,000 GPU時間、31名のエンジニア、1,285時間の作業が必要だったと述べている
  • Pegatronは、産業への生成AIの応用を加速することを望んでおり、異なる分野のデータと学術LLMの専門知識を組み合わせることを期待している

この記事では、台湾の大規模言語モデル「Project TAME」がChatGPTを一部のテストで上回り、NvidiaのAIスーパーコンピューターを使用して5000億トークンにトレーニングされたことが強調されています。Project TAMEは他のモデルよりも高いスコアを獲得し、Pegatronは生成AIの産業応用を加速することを目指しています。

元記事: https://www.taiwannews.com.tw/en/news/5897373