ブラックジャック3D/ゲッティイメージズ

アレクサンドラ・ケリー

アメリカ国立標準技術研究所は、合成コンテンツのリスクから国際標準の開発まで幅広いトピックを網羅した人工知能のガイダンスと展開に関する一連の新しい草案文書を発表した。
火曜日に発表された 4 つの新しい文書が、NIST の AI 中心のガイダンスの拡大ポートフォリオに追加されました。これらの文書は、ジョー・バイデン大統領の 2023 年の AI に関する大統領令の 180 日が経過する中、NIST 自身を含む複数の機関が、同大統領令に規定された任務を最終決定している中で発表されました。
「生成型 AI は、変革をもたらす可能性のあるメリットがある一方で、従来のソフトウェアとは大きく異なるリスクももたらします」と、商務省標準技術担当次官兼 NIST 所長のローリー・ロカシオ氏はプレスリリースで述べた。「これらのガイダンス文書は、ソフトウェア作成者にこれらの固有のリスクについて知らせるだけでなく、イノベーションをサポートしながらリスクを軽減する方法を開発するのにも役立ちます。」
NIST の 4 つの新しい文書は、AI RMF 生成 AI プロファイル、生成 AI およびデュアルユース基盤モデル向けの安全なソフトウェア開発プラクティス、合成コンテンツによってもたらされるリスクの軽減、AI 標準に関するグローバルな取り組み計画です。
1 つ目は、AI RMF ジェネレーティブ AI プロファイルです。これは、ジェネレーティブ AI ソフトウェアがデジタル ネットワークにもたらすリスクを組織が特定できるようにガイドし、個々の組織のニーズに合わせて調整された一連のアクションを作成するのに役立ちます。これは、2023 年初頭にリリースされた既存の AI RMF の補足となることを目的としています。AI RMF ジェネレーティブ AI プロファイルには、化学兵器、生物兵器、核兵器、ハッキング、マルウェア、フィッシングの脅威など、さまざまなリスクが含まれています。
生成型 AI とデュアルユース基盤モデル向けのセキュアなソフトウェア開発プラクティスの出版物は、セキュアな AI と自動化されたソフトウェア開発に焦点を当てています。このドキュメントでは、特定の AI アルゴリズムの出力に悪影響を与える可能性のある悪意のあるトレーニング データに関する懸念にも対処しています。トレーニング データの取り扱いと、そのようなデータの安全な収集に関するガイダンスを提供し、AI システムが安全かつ公平に動作することを保証します。
NISTの合成コンテンツによるリスク軽減に関する計画案は、2024年11月の選挙を前に発表されたもので、当局はAIによって作成された合成コンテンツが大きな脅威になると述べている。この計画案には、デジタル透かしやメタデータ記録など、偽のメディアを区別するために合成コンテンツを認証、検出、ラベル付けする方法が含まれている。
AI 標準に関する世界的取り組み計画では、米国が他国と協力して AI システムの開発と実装を導く一連の標準を開発するという目標を概説しています。これらの標準に関する世界的合意を形成することで、AI システムの使用と革新が透明かつ責任あるものとなることが保証されます。
NIST の標準草案文書では、最終的な標準化作業に何を含めるべきかについてのフィードバックを求めています。これらのトピックには、透かし、科学的研究開発、評価指標などが含まれます。
NIST は、4 つのドラフト文書のほかに、偽造コンテンツと本物コンテンツを区別するためのベンチマーク メトリックと手法に主に焦点を当てた、生成 AI 分野への新たな研究の導入を開始するためのパイロット NIST GenAI 評価プログラムの開始も発表しました。
NIST GenAI の評価は、同機関の米国 AI 安全研究所の活動に役立つだろう。
「このパイロットは、人間によるコンテンツと合成コンテンツの違い、そして評価結果がユーザーにどのように両者を区別させるかという研究課題に取り組んでいます」とホームページには書かれている。
4つの草案文書に対するコメント期間が開かれており、最終版は今年後半に発表される予定だ。

次の記事: 政府のAIとテクノロジー分野の雇用急増のこれまでの状況

あなたに特化したコンテンツの作成にご協力ください:

元記事: https://www.nextgov.com/artificial-intelligence/2024/05/nist-delivers-draft-ai-guidance-generative-ai-pilot-program/396243/