• 台湾向けのオープンソースの伝統的なMandarin大規模言語モデル(LLM)がリリース
  • プロジェクト名はTaiwan Mixture of Experts(TAME)、Chang Chun Group、Pegatron、Unimicron、Chang Gung Memorial Hospital、TechOrange、National Taiwan Universityによって立ち上げられた
  • Nvidiaの台北-1スーパーコンピューターを使用し、各分野のパートナーから提供されたデータを元に約5000億トークンでトレーニングされた
  • 昨年の司法試験を受験した際、89%の受験者よりも良い成績を収めた
  • 大学生、法律関係者、伝統中国医学の実践者、ツアーガイド、運転手向けの試験ですでに優れた成績を収めている
  • 39回の評価と約3000の質問の中で、他の利用可能なモデル全てを上回り、2位のClaude-Opusよりも正確性率が6.8%高く、GPT-4oよりも9.3%高い
  • モデルはhttps://twllm.comで無料で利用可能であり、オープンソースとなる
  • 一般向けのインタラクティブなチャットボットバージョンがAMPICによって作成された
  • 企業や開発者向けにGithubでダウンロード可能
  • 31人のエンジニアによる350,000時間のGPU作業時間と1,285時間の作業によって創られた新しいLLM
  • 蕭安助氏によると、その特徴は台湾向けのローカライゼーションと産業への応用である
  • 企業は今後モデルを検証・微調整し、異なる分野で利用可能かどうかを検証できる

私の考え:このプロジェクトは台湾の特定の分野において高い成績を収めており、台湾の文化やニーズに合わせた言語モデルの開発が重要であると感じます。また、オープンソースで利用可能なことは、さらなるイノベーションや発展を促す可能性があると考えられます。

元記事: https://www.taipeitimes.com/News/taiwan/archives/2024/07/02/2003820208