- 2024年4月、NISTのITLがAIシステムの社会的リスクと影響を評価する新しい取り組み、ARIAプログラムを発表
- ARIAはNISTのAIリスク管理フレームワークを活用し、世界中の開発者にAIモデルとシステムを厳格に評価する機会を提供
- ARIAはNISTの長年にわたる公開AIリスク管理方法論の最新の展開
- NISTはAI RMFの発行以来、AIリスク管理戦略の発展と運用化を図るためにARIAプログラムを立ち上げ
- ARIAに提出されたモデルは3つの評価レベルを経て、展開後に妥当性、信頼性、安全性、セキュリティ、プライバシー、公平性が確認される
- ARIA 0.1 Pilot Evaluationは大規模言語モデル(LLMs)に関連するリスクと影響に焦点を当てる
- ARIA 0.1の提出物はモデル、レッドチーム、フィールドテストを受け、技術的および社会的な堅牢性に焦点を当てた一連のメトリクスで評価される
- ARIA 0.1の提出物は7つの設計制約に準拠する必要がある
私の考え: NISTのARIAプログラムは、AIリスク管理の進化において重要な役割を果たしており、ARIA 0.1の導入は大規模言語モデルに関連するリスクに焦点を当てた重要なステップとなっています。NISTの取り組みは、AIの潜在的および実際の危険の緩和に関する公共および私的セクターでの議論に中心的な位置を占めており、これからもAI関連の展開に関心を持つステークホルダーはNISTの動向を注視すべきです。