英国で最近設立されたAI安全機関であるUK Safety Instituteは、産業界、研究機関、学界がAI評価を開発しやすくすることで「AIの安全性を強化する」ように設計されたツールセットをリリースしました。
Inspect と呼ばれるこのツールセットは、オープンソース ライセンス、具体的には MIT ライセンスの下で利用可能であり、モデルのコア知識や推論能力など、AI モデルの特定の機能を評価し、その結果に基づいてスコアを生成することを目的としています。
安全研究所は金曜日にこのニュースを発表するプレスリリースで、Inspectは「国が後援する機関が先頭に立って開発したAI安全性テストプラットフォームが、より幅広い利用のためにリリースされた初めての事例」であると主張した。
「AI の安全性テストにおけるコラボレーションが成功するには、評価に対する共通のアクセス可能なアプローチが必要です。Inspect がその基礎となることを期待しています」と Safety Institute の会長である Ian Hogarth 氏は声明で述べています。「世界中の AI コミュニティが Inspect を使用して独自のモデル安全性テストを実行するだけでなく、オープンソース プラットフォームを適応および構築して、全体的に高品質の評価を作成できるようになることを期待しています。」
以前にも書いたように、AI ベンチマークは困難です。今日の最も洗練された AI モデルはブラック ボックスであり、そのインフラストラクチャ、トレーニング データ、その他の重要な詳細は、モデルを作成した企業によって秘密にされているため、特に困難です。では、Inspect はどのようにしてこの課題に取り組んでいるのでしょうか。主に、新しいテスト手法に拡張可能で拡張可能であることです。
Inspect は、データ セット、ソルバー、スコアラーの 3 つの基本コンポーネントで構成されています。データ セットは評価テストのサンプルを提供します。ソルバーはテストを実行する作業を行います。スコアラーはソルバーの作業を評価し、テストのスコアをメトリックに集計します。
Inspect の組み込みコンポーネントは、Python で記述されたサードパーティ パッケージによって拡張できます。
Mozilla の研究員であり、著名な AI 倫理学者である Deborah Raj 氏は、X の投稿で、Inspect を「AI の説明責任のためのオープンソース ツールへの公的投資の力を証明するもの」と呼びました。
AI スタートアップ企業 Hugging Face の CEO である Clément Delangue 氏は、Inspect を Hugging Face のモデル ライブラリと統合するか、ツールセットの評価結果を掲載した公開リーダーボードを作成するというアイデアを提案しました。
Inspect の発表は、米国の政府機関である国立標準技術研究所 (NIST) が、テキストや画像を生成する AI を含むさまざまな生成 AI 技術を評価するプログラムである NIST GenAI を開始した後に行われた。NIST GenAI は、ベンチマークを発表し、コンテンツの真正性を検出するシステムの作成を支援し、AI が生成した偽情報や誤解を招く情報を見分けるソフトウェアの開発を促進することを計画している。
4月、米国と英国は、昨年11月に英国のブレッチリー・パークで開催されたAI安全サミットで発表された約束に従い、高度なAIモデルのテストを共同で開発するための提携を発表した。協力の一環として、米国は独自のAI安全研究所を設立する予定であり、AIと生成AIのリスクの評価を幅広く担当することになる。
私たちは、すべての報道と取材において最高の倫理基準を維持するよう努めています。私たち StartupNews.fyi は、私たちの仕事で起こり得るあらゆる潜在的な利益相反について、読者に透明性を保ちたいと考えています。私たちが取り上げる投資家の中には、競合他社や私たちが取り上げる企業を含む他の企業とつながりがある可能性があります。しかし、それが私たちの報道の誠実さや公平性に影響を及ぼすことはないことを読者に保証したいと思います。私たちは、正確で偏見のないニュースと情報を読者に提供することに尽力しており、すべての仕事において倫理と原則を守り続けます。皆様の信頼とサポートに感謝します。
英国で最近設立されたAI安全機関であるUK Safety Instituteは、産業界、研究機関、学界がAI評価を開発しやすくすることで「AIの安全性を強化する」ように設計されたツールセットをリリースしました。
Inspect と呼ばれるこのツールセットは、オープンソース ライセンス、具体的には MIT ライセンスの下で利用可能であり、モデルのコア知識や推論能力など、AI モデルの特定の機能を評価し、その結果に基づいてスコアを生成することを目的としています。
安全研究所は金曜日にこのニュースを発表するプレスリリースで、Inspectは「国が後援する機関が先頭に立って開発したAI安全性テストプラットフォームが、より幅広い利用のためにリリースされた初めての事例」であると主張した。
「AI の安全性テストにおけるコラボレーションが成功するには、評価に対する共通のアクセス可能なアプローチが必要です。Inspect がその基礎となることを期待しています」と Safety Institute の会長である Ian Hogarth 氏は声明で述べています。「世界中の AI コミュニティが Inspect を使用して独自のモデル安全性テストを実行するだけでなく、オープンソース プラットフォームを適応および構築して、全体的に高品質の評価を作成できるようになることを期待しています。」
以前にも書いたように、AI ベンチマークは困難です。今日の最も洗練された AI モデルはブラック ボックスであり、そのインフラストラクチャ、トレーニング データ、その他の重要な詳細は、モデルを作成した企業によって秘密にされているため、特に困難です。では、Inspect はどのようにしてこの課題に取り組んでいるのでしょうか。主に、新しいテスト手法に拡張可能で拡張可能であることです。
Inspect は、データ セット、ソルバー、スコアラーの 3 つの基本コンポーネントで構成されています。データ セットは評価テストのサンプルを提供します。ソルバーはテストを実行する作業を行います。スコアラーはソルバーの作業を評価し、テストのスコアをメトリックに集計します。
Inspect の組み込みコンポーネントは、Python で記述されたサードパーティ パッケージによって拡張できます。
Mozilla の研究員であり、著名な AI 倫理学者である Deborah Raj 氏は、X の投稿で、Inspect を「AI の説明責任のためのオープンソース ツールへの公的投資の力を証明するもの」と呼びました。
AI スタートアップ企業 Hugging Face の CEO である Clément Delangue 氏は、Inspect を Hugging Face のモデル ライブラリと統合するか、ツールセットの評価結果を掲載した公開リーダーボードを作成するというアイデアを提案しました。
Inspect の発表は、米国の政府機関である国立標準技術研究所 (NIST) が、テキストや画像を生成する AI を含むさまざまな生成 AI 技術を評価するプログラムである NIST GenAI を開始した後に行われた。NIST GenAI は、ベンチマークを発表し、コンテンツの真正性を検出するシステムの作成を支援し、AI が生成した偽情報や誤解を招く情報を見分けるソフトウェアの開発を促進することを計画している。
4月、米国と英国は、昨年11月に英国のブレッチリー・パークで開催されたAI安全サミットで発表された約束に従い、高度なAIモデルのテストを共同で開発するための提携を発表した。協力の一環として、米国は独自のAI安全研究所を設立する予定であり、AIと生成AIのリスクの評価を幅広く担当することになる。
私たちは、すべての報道と取材において最高の倫理基準を維持するよう努めています。私たち StartupNews.fyi は、私たちの仕事で起こり得るあらゆる潜在的な利益相反について、読者に透明性を保ちたいと考えています。私たちが取り上げる投資家の中には、競合他社や私たちが取り上げる企業を含む他の企業とつながりがある可能性があります。しかし、それが私たちの報道の誠実さや公平性に影響を及ぼすことはないことを読者に保証したいと思います。私たちは、正確で偏見のないニュースと情報を読者に提供することに尽力しており、すべての仕事において倫理と原則を守り続けます。皆様の信頼とサポートに感謝します。
ウェブサイトのアップグレードが進行中です。不具合がありましたら、office@startupnews.fyi までご連絡ください。
重要なスタートアップ情報を毎日受信ボックスにお届けします。
重要なスタートアップ情報を毎日受信ボックスにお届けします。
StartupNews.fyi は、インドのスタートアップと世界中のニュースに焦点を当てた、インドを代表するニュースおよびテクノロジー メディア企業です。

元記事: https://startupnews.fyi/2024/05/12/u-k-agency-releases-tools-to-test-ai-model-safety/

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください