- 台湾向けのオープンソースの伝統的な中国語の大規模言語モデル(LLM)がリリースされ、GPT-4oよりも高いスコアを達成
- プロジェクト名は「Taiwan Mixture of Experts(TAME)」で、Chang Chun Group、Pegatron、Unimicron、Chang Gung Memorial Hospital、TechOrange、National Taiwan Universityが参加
- 5000億トークンのデータでNvidiaのTaipei-1スーパーコンピュータを使用して訓練
- プロジェクトTAMEは昨年の司法試験で89%の受験者よりも優れた成績を収め、LegalSign.aiのCEO Steven Chen(陳啟桐)が台北で記者会見
- TAMEプロジェクトは、大学、法律関係者、伝統中国医療従事者、ツアーガイド、運転手向けの試験を受けてすでに優れた成績を収めている
- 39回の評価と約3000の質問の中で、TAMEプロジェクトは他のモデルを凌駕し、2位のClaude-Opusよりも6.8%高い精度を示し、GPT-4oよりも9.3%高い
- モデルはhttps://twllm.comで無料でオンライン使用可能で、オープンソースで実行される
- 一般向けの対話型チャットボットバージョンがAMPICによって作成され、企業や開発者向けにGithubでダウンロード可能
- 新しいLLMは、31人のエンジニアによる350,000 GPU時間と1,285労働時間の結果で、台湾向けのローカライゼーションと産業への応用を特徴とする
- プロジェクトリーダーであるPegatronの副社長でAI開発責任者のAndrew Hsiao(蕭安助)氏によると、今日リリースされたばかりだが、企業はモデルを検証し微調整できる
私の考え:TAMEプロジェクトが台湾向けに開発されたLLMモデルは、台湾の様々な分野で高い成績を収めており、その精度や利用可能性が注目される。プロジェクトの成果は、台湾の産業において重要な役割を果たす可能性があると考えられる。
元記事: https://www.taipeitimes.com/News/taiwan/archives/2024/07/01/2003820169