要約:

  • AIの基盤モデルは、ChatGPTの時代においてスーパーモデルのようになり、LLaMA、Gemini、Claudeなどの名前がテック評論家に即座に認識されるようになった。
  • 2024年の基盤モデル透明性指数の結果から、企業が主要な基盤モデルの開発にますます多額の資金を投資しているにもかかわらず、そのモデルを訓練する膨大なデータとその出所について、透明性が低下していることが示されている。
  • 2024年のFMTIは、一部改善が見られ、トップの透明性スコアは85点に上昇し、14のモデル開発者全体の平均スコアも2023年の37点から58点に向上した。
  • 透明性に関する新しい現状について、一部の分野は依然として不透明であり、特にデータの取得、プライバシー、緩和策に関してモデル開発者が情報を隠している可能性がある。
  • 2024年の参加モデル開発者は、データアクセスに関する透明性が20%からわずか7%に低下していることが報告されており、これはデータ開示に関連する企業が直面する法的リスクが大きいためとされている。

感想:

基盤モデルに関する透明性は、AI技術の普及において極めて重要であると強調されています。2024年のFMTIレポートによれば、いくつかの領域でモデル開発者が依然として実践を不透明にしていることが明らかになっています。データの取得やプライバシーに関する透明性が低下していることが指摘されており、これらの課題に対処するためには、モデル開発者や企業が透明性を重視し、倫理基準に基づいて行動する必要があります。

元記事: https://thenewstack.io/transparency-from-behind-the-generative-ai-curtain/