AI関連の活動が活発化し始めていることは確かです。今週初め、商務省の国立標準技術研究所(NIST)は、AIシステムの安全性、セキュリティ、信頼性を向上させるための新しいガイダンスの草案を発表しました。このガイダンスは、2023年10月30日にバイデン大統領が発令した「人工知能の安全でセキュリティが確保され、信頼できる開発と利用に関する大統領令」(大統領令)に定められたいくつかの指令と180日間の目標に基づいています。
NISTは、組織が(1)生成AIがもたらす固有のリスクに対処すること、(2)生成AIとデュアルユース基盤モデル向けの安全なソフトウェア開発プラクティスを実装すること、(3)デジタルコンテンツの透明性を促進し、AIによって作成または変更された「合成」コンテンツの増加に対抗することを支援するため、3つの草案出版物を発行しました。NISTはまた、AI標準の世界的な開発と実装の推進に焦点を当てた草案出版物も発行しました。これら4つのNIST出版物は、今年後半に最終版を提出する前に一般からのコメントを求めるためにNISTが公開した初期草案です。各出版物には、NISTがフィードバックを求める特定のトピックが含まれています。各出版物へのコメントの締め切りは2024年6月2日です。
NIST は、これら 4 つの草案に加えて、「世界中の研究コミュニティによって開発された生成 AI 技術を評価する」プログラムである「NIST GenAI」も発表しました。最後に、商務省の AI イニシアチブの一環として、米国特許商標庁 (USPTO) は 2024 年 4 月 30 日に別途コメント要請書を発行し、i) 先行技術、ii) 当該技術分野における通常の技能を有する者の知識 (PHOSITA として知られる)、iii) 請求された発明の特許性の定義と解釈に対する AI の影響についてフィードバックを求めました。USPTO は、2024 年 7 月 29 日までに書面によるコメントを受け取る必要があります。
組織の業種に関係なく、連邦政府と州政府が AI の安全、透明性、公正な使用を確保することに熱心であることは明らかです。NIST のガイダンスはまだ最終版ではありませんが、そのガイダンス文書は、提案されているものも最終版も含め、その他の AI 関連の法律、規制、ガイドラインとともに、政府の監督と期待がどこに向かっているかを示しています。組織は、AI の開発と展開の両方を検討するフレームワークの開発を開始するのが賢明でしょう。
NIST が発行した最初の草案は、生成 AI プロファイル (GAI プロファイル) であり、組織が生成 AI によってもたらされる固有のリスクを特定できるようにすることを目的としています。GAI プロファイルは、組織固有の目標と優先事項に従って、生成 AI によってもたらされるリスクを管理するためのアクションを提案しています。GAI プロファイルでは、生成 AI に固有の、または生成 AI によって悪化する 12 のリスクも特定しており、これには次のものが含まれます。(1) 化学、生物、放射線、核 (CBRN) 情報へのアクセス、(2) 作話 (「幻覚」とも呼ばれる)、(3) 危険または暴力的な推奨事項、(4) データ プライバシー、(5) 環境への影響、(6) 人間の弱点または偏見をもたらす人間と AI の構成、(7) 情報の完全性、(8) 情報セキュリティ、(9) 知的財産権の侵害、(10) わいせつ、品位を傷つける、または虐待的なコンテンツ、(11) データ入力および出力における毒性、偏見、均質化。 (12)バリューチェーンとコンポーネントの統合を損なう透明性の欠如。GAIプロファイルは、NISTが昨年リリースしたより広範なAIリスク管理フレームワーク(AI RMF)の補足となることを目的としており、組織が上記の生成AIのリスクを軽減するために実装できる50ページのアクション項目のグリッドが含まれています。
NIST の第 2 草案出版物である、生成 AI およびデュアルユース基盤モデル向けのセキュアなソフトウェア開発プラクティス (GAI SSDF ガイド) は、企業が生成 AI およびデュアルユース基盤モデル向けのセキュアなソフトウェア開発プラクティスを実装できるように設計されています。このガイドは、NIST が 2022 年に公開したセキュア ソフトウェア開発フレームワークを補強するものです。GAI SSDF ガイドでは、ソフトウェア開発ライフサイクル全体で推奨されるベスト プラクティスを拡張し、生成 AI またはデュアルユース基盤モデルを作成、取得、または使用する人向けのメモと推奨事項を追加しています。GAI SSDF ガイドは、AI モデルのソフトウェア設計に対するリスクベースのアプローチを計画および実装するための出発点を提供します。GAI SSDF ガイドでは、開発者と AI ユーザーがトレーニング データ、データ収集プロセス、品質保証メトリックにどのように対処して、AI の汚染、バイアス、均質性、改ざんを防ぐべきかについても説明しています。
NIST の第 3 版草案「合成コンテンツのリスクの軽減」では、デジタル コンテンツの透明性を促進し、AI によって作成または変更された「合成」コンテンツの増加に対抗する方法に関する技術的アドバイスを提供しています。このガイドでは、既存の標準、ツール、方法、および実践を分析しています。また、コンテンツの認証とその出所の追跡、合成コンテンツのラベル付け、生成 AI による児童性的虐待資料や実在の人物による同意のない画像の作成の防止、ソフトウェアのテスト、およびそのような合成コンテンツの監査と維持のためのさらなる標準と技術の開発も提案しています。これらの技術は、科学に裏付けられた標準を通じて、デジタル コンテンツに対する一般の信頼を向上させることを目的としています。
NIST の 4 番目の出版物である「AI 標準に関するグローバル エンゲージメント計画 (エンゲージメント計画)」は、AI 標準の世界的な開発と実装の推進に重点を置いています。以前、大統領の大統領令は、米国政府に、世界中の人々に対する「不平等の悪化、人権の脅威、その他の危害」などのリスクを軽減しながら AI の利点を追求するよう指示していました。このエンゲージメント計画は、グローバル AI 標準の達成という精神に基づき、同盟国やパートナーとの取り組みを調整し、AI 関連のコンセンサス標準、協力、情報共有の開発と実装を推進する計画を確立しています。
前述のとおり、NISTは「NIST GenAI」も発表しました。NISTのGenAIプログラムは、生成AIツールを集中的に評価することで、(1)ベンチマークデータセットの作成を監視し、(2)さまざまなモダリティ(テキスト、音声、画像、動画、コードなど)のコンテンツ真正性検出技術の開発を促進し、(3)さまざまな分析テストを実施し、(4)偽情報や誤解を招く情報のソースを特定できる技術の開発を促進することを目指しています。
NIST GenAI の最初のパイロットは、「テキストからテキスト」および「テキストから画像」の場合に AI が合成コンテンツと人間が生成したコンテンツをどのように区別できるかを測定および理解することを目的としています。NIST GenAI は、学術機関、業界、その他の研究機関からの多様なチームを歓迎し、NIST GenAI プログラムを通じて生成 AI 研究に貢献していただきます。パイロットに参加する人は、人間が作成したコンテンツと区別がつかない合成コンテンツを生成するシステムの能力をテストするか、大規模言語モデルおよび生成 AI モデルによって作成された合成コンテンツを検出するシステムの能力をテストされます。パイロット参加登録は 5 月に開始され、提出期限は 2024 年 8 月です。
マナットは、今年後半も AI 関連の連邦および州の動向を注意深く監視し、規制環境の変化に関するガイダンスを提供していきます。こうした動きは今後も続くと予想されます。一方、生成 AI モデルの実装を計画している企業は、ガイドラインや規制の変更に引き続き注意を払い、推奨されるベスト プラクティスを適用する必要があります。
詳しい情報とリソースについては、当社の人工知能専用ウェブページをご覧ください。
免責事項: この更新は一般性があるため、ここで提供される情報はすべての状況に当てはまるとは限らず、特定の状況に基づいた具体的な法的助言なしに行動しないでください。
© マナット・フェルプス・アンド・フィリップス法律事務所 | 弁護士広告
2024年リーダーズチョイスアワードを見る

元記事: https://www.jdsupra.com/legalnews/nist-releases-new-draft-guidance-to-3584617/