• 7月26日、米国政府の国立標準技術研究所(NIST)は、人工知能(AI)の開発と実装に関連する4つのガイダンス文書を発行
  • AIリスク管理フレームワーク:生成型AIプロファイル(RMF GAI)には、生成型AI(GAI)に関連するリスクとその管理方法が記載
  • 生成型AIおよび二重利用基盤モデルの安全なソフトウェア開発プラクティス(SSDF)は、安全な開発プラクティスに関する推奨事項を追加
  • AI標準に関するグローバルな関与計画(AIプラン)は、AI関連の合意標準、協力、情報共有の促進を提案
  • 二重利用基盤モデルの誤用リスクの管理に関するガイドライン(MMRD)は、誤用リスクの特定、測定、軽減の包括的なガイドラインを提供

私見:NISTのガイダンス文書は、AIモデルの開発と展開時に生じるリスクを減らすためのベストプラクティスを定義しようとしています。これにより、AIモデルの開発や展開に従事する者は、法令遵守から逸脱することで保険または責任リスクが生じる可能性があることに留意すべきです。

元記事: https://natlawreview.com/article/nist-issues-ai-risk-management-guidance