- 2024年4月、AIリスク、AIソフトウェア開発、AIグローバル基準開発に関する3つの最終文書を公開
- AIリスク管理フレームワーク(RMF)AIプロファイルは、生成型AIプラットフォームを使用して危険な武器を開発し、有害なコンテンツを引用し、誤った結果を生産し、機密情報を明らかにする可能性を含む危険を特定および管理するために設計
- 安全なソフトウェア開発プラクティスには、AIシステムのデータをより安全にするための推奨事項が含まれる
- グローバルAI基準の計画は、透明性、アクセス、AIの倫理的展開に関連するグローバルAI基準の開発に焦点を当てている
- NISTは、敵対的な攻撃の影響を測定するためのソフトウェアパッケージをリリース
自己監督を行い、幅広いコンテキストで適用可能であり、国家安全保障に脅威をもたらす可能性のあるタスクで高いパフォーマンスを発揮するまたは簡単に修正されたり修正されたりする可能性がある。現在のモデルには最大で1014のパラメータが含まれていますが、大きな計算上のポテンシャルを持ちながらも、武器の開発や攻撃的なサイバー攻撃を促進するために利用される可能性があります。ガイダンスは主に開発者を対象としていますが、目標と推奨事項はモデルのライフサイクル全体で利用者によっても活用できます。