2024年4月29日月曜日は、ジョー・バイデン米大統領が人工知能の安全でセキュリティが高く、信頼できる開発と利用に関する大統領令を発令してから180日目であり、商務省では活発な動きが見られた。特に重要なのは、国立標準技術研究所(NIST)が発行した4つのガイダンス報告書草案で、「人工知能(AI)システムの安全性、セキュリティ、信頼性の向上を支援することを目的としている」という。
これらのレポートは、NIST の既存の AI リスク管理フレームワーク (RMF) の更新から、世界的な取り組みのための AI 標準の開発まで多岐にわたり、内容は充実していますが、段階的です。AI テクノロジーとその開発および使用の状況を整理し始めるガイドラインと推奨事項は、合わせて 200 ページ以上あります。
「生成型 AI は、変革をもたらす可能性のあるメリットがある一方で、従来のソフトウェアで見られるリスクとは大きく異なるリスクももたらします」と、商務省標準技術担当次官兼 NIST 所長のローリー E. ロカシオ氏は発表のプレスリリースで述べています。「これらのガイダンス文書は、ソフトウェア作成者にこれらの固有のリスクについて知らせるだけでなく、イノベーションをサポートしながらリスクを軽減する方法を開発するのにも役立ちます。」
一連のガイドライン草案には限界があるものの、ジョージタウン大学のセキュリティおよび新興技術センター (CSET) の戦略および基礎研究助成金担当ディレクターのヘレン・トナー氏は、特に状況を考えると、この作業は基礎的なものだと見ている。「NIST は資金不足、人員不足で有名です。リソース不足のため、本部ビルが文字通り崩壊しつつあるという報告があります」とトナー氏は述べた。この現実と、ホワイトハウスからの 6 か月の期限を合わせると、「実に英雄的です」。
トナー氏は、この 4 つの草案は正しい方向への一歩だと考えている。「これらは、包括的なものや実際に問題を解決するものになることを意図したものではなく、またそうしようともしていません。むしろ、壁にレンガを積み上げるようなもので、それがテクノロジーをよりよく理解し、共通の語彙や概念を共有できるようになることを期待しています」と彼女は述べた。
今週は、米国における AI ガバナンスのプロセスに一般市民が関与する機会でもあります。各ドラフト出版物の冒頭で、NIST はパブリック コメント期間を告知し、各レポートのトピックに固有のフィードバックを歓迎しています。出版時点ではパブリック コメント期間が有効であり、すべてのコメントは 2024 年 6 月 2 日までに受領される必要があります。以下は、4 つのドラフト ガイダンス ドキュメントのそれぞれの概要です。
合成コンテンツによるリスクの軽減
NIST の「合成コンテンツによるリスクの軽減」に関するレポートでは、「デジタル コンテンツの透明性」、つまりデジタル コンテンツの起源と履歴に関する情報を文書化してアクセスするプロセスに対する技術的アプローチの概要が示されています。
これまでで最も長いレポートでは、合成コンテンツのリスクを管理および軽減するために、次の 4 つのアプローチを採用しています。
調査対象となる標準、ツール、方法、およびプラクティスには、デジタル透かしやメタデータ記録などのコンテンツ認証と出所追跡、およびトレーニング データ フィルタリングや暗号ハッシュなどの合成 CSAM および NCII の技術的緩和策が含まれます。
トナー氏は、この報告書の技術的な特異性は、合成コンテンツに関する混沌とした散在した一連の議論を明確にし、まとめるのに役立つと考えている。「これは、人々が試みているさまざまなことと、これらのさまざまなアプローチの長所と短所をまとめた、本当に素晴らしい概要です」と彼女は述べた。また、NIST は一連のソリューションを提示しているわけではない。その代わりに、さらなる研究開発の機会を概説することに焦点を当てている。トナー氏によると、これらの AI 技術を取り巻く不確実性を考えると、これはこの報告書の強みである。
NIST は、合成コンテンツによってもたらされるリスクの軽減に関するレポートについて、レポートには含まれていない CSAM および NCII を防止するための最新のデータ追跡技術や技術的緩和策などに関するフィードバックを求めています。
AI標準に関する世界的な取り組み計画
「AI 標準に関するグローバルな取り組み計画」では、主要な国際同盟国やパートナー、標準策定組織と協力して AI 関連のコンセンサス標準を作成し、実装するための協調的な取り組みを求めています。この計画では、新しい技術や新興技術の開発と採用の両方において標準が重要であり、特に AI においては国際的な関係者が標準エコシステムにガイダンスを求めていることが説明されています。NIST は、少なくとも現段階では、正式な標準の作成前、作成中、作成後の活動に取り組むことが自らの役割であると考えています。
NIST のレポートは、技術に関する安全性、相互運用性、競争は、標準が広く受け入れられ、実装されて初めて達成できると強調しています。「一部の AI 標準は政府の規制によって義務付けられますが、その有効性は一般的に、組織がそれらの標準を自発的に採用するかどうかにかかっています。組織がそれを採用するのは、関連する標準が実装可能で有用であると判断された場合のみです」とレポートは述べています。
AI 標準も基礎技術もまだ未熟な開発段階にあるため、レポートでは、標準を厳格な技術基盤に根付かせることの重要性を強調しています。レポートによると、標準が「基礎となる科学より先を行く」と、役に立たなかったり、逆効果になったり、矛盾が生じたりする可能性があります。そのため、NIST は AI 標準は「科学に裏打ちされた一連の作業」が存在する場合にのみ開発されるよう指導しています。
この計画の取り組み目標には、次のような AI 標準が含まれます。
NIST は、標準化と加速研究の優先順位を次の 3 つのカテゴリに分類しています。
トナー氏は、こうした優先順位のカテゴリーが特に役立つと考えている。「人々は何年も前から AI 標準を求めており、米国が AI 標準をリードするよう求めてきました。そして、常に標準を定めようと奮闘してきました」と彼女は言う。「しかし、この会話では常に、実際に何を標準化しているのか、非常に不明確でした。標準と言うとき、何かを標準化している必要があります。」この文書は、特定の領域をリストアップし、「それらをほぼ準備レベルに圧縮する」という点で役立つとトナー氏は付け加えた。
さらに大統領令では、商務省に、米国の規格関係者が国際的なパートナーとどのように交流できるかという、世界的な関与の計画を策定するよう求めています。その勧告には、規格やガイドラインの実施を支援するツールの開発と広範な共有、およびセクターを超えて適用可能な水平規格の促進などが含まれています。
NIST は、標準化作業のトピックの優先順位付け、活動や行動など、さまざまな要求に関して、AI 標準に関するグローバルな取り組み計画に関するフィードバックを求めています。
AI リスク管理フレームワーク: 生成型人工知能プロファイル
「人工知能リスク管理フレームワーク:生成型人工知能プロファイル」ドラフトレポートは、GAI のリスクを管理することを目的としており、バイデン政権の大統領令により義務付けられた NIST の AI リスク管理フレームワーク (AI RMF) の「補助リソース」として機能します。2023 年 1 月に最初にリリースされた AI RMF は、企業や組織による自主的な使用を目的としており、信頼できる考慮事項を AI 製品、システム、サービスにさらに適切に組み込むことを目指しています。
NIST によると、GAI プロファイルは、AI RMF の「ユースケース」および「部門横断的なプロファイル」として機能することを目的としており、組織が目標、法的および規制上の要件、ベスト プラクティスに沿って AI リスクを最も効果的に管理する方法を決定するのに役立ちます。これは、2,500 人を超えるボランティアの技術専門家で構成される NIST の AI パブリック ワーキング グループからの一般からのフィードバックと協議、およびフレームワークの最初の情報要求 (RFI) プロセスに基づいて作成されました。
このレポートでは、パブリック ワーキング グループによって特定された 10 のリスク カテゴリを紹介および説明し、組織がそれらのリスクを統制、マッピング、測定、管理するのに役立つ一連のアクションを示します。これらのカテゴリには次のものが含まれます。
GAI プロファイルは、一連の表で、「情報セキュリティ」や「毒性、偏見、均質化」などのカテゴリにわたるリスクに対処するために組織が取るべき具体的な行動を概説しています。これらの行動表は、NIST の RMF に規定されているカテゴリとサブカテゴリに対応しています。GAI プロファイルは、GAI リスク管理のために NIST が「取るべき最小限の行動」と見なす「基礎」カテゴリも示しています。
また、この報告書は、GAI のリスクの多くは未知であるとも慎重に説明しています。報告書によると、GAI の潜在的な規模、複雑さ、機能、および GAI の利害関係者、用途、入力、出力の多岐にわたることから、関連するリスクを適切に調査または評価することが困難になっています。また、リスク推定の課題は、「GAI トレーニング データの可視性の欠如」と AI 測定および安全科学の未熟な状態の両方によって悪化していると指摘しています。
NIST は、生成人工知能プロファイルの用語集、リスク リスト、およびアクションに関するフィードバックを求めています。
生成 AI とデュアルユース基盤モデルのための安全なソフトウェア開発プラクティス
このセキュア ソフトウェア開発フレームワーク (SSDF) コミュニティ プロファイルは、生成 AI とデュアルユース基盤モデルにセキュアな開発プラクティスを組み込むための補助リソースです。その目的は、これらのテクノロジに固有のカスタマイズされた推奨事項と「セキュアなソフトウェア開発プラクティスを記述するための共通言語」の両方を提供することです。また、NIST の敵対的機械学習に関するレポートや、2024 年 1 月の「AI モデル固有のセキュリティ上の課題」に関するワークショップなど、多数の専門知識のソースを活用および統合します。
プロファイルの大部分は、実践に関する推奨事項と参照、それが AI モデル開発に有益である理由、実践の実行に関連するタスクを示すチャートです。また、各タスクを優先度別に分類し、相対的な重要度を低、中、高の 3 段階に分けます。
NIST は、特許請求に関するセキュア ソフトウェア開発プラクティス コミュニティ プロファイルに関するフィードバックを求めています。
テクノロジーと民主主義の交差点における問題やアイデアに関するニュースレターにご参加ください
購読者リストへの登録が完了しました。

元記事: https://techpolicy.press/nist-unveils-ai-draft-guidance-reports