要約
- 米国国立標準技術研究所(NIST)は、悪意のあるデータによる人工知能(AI)モデルの「毒入れ」に対する耐性をテストするツール「Dioptra」を再リリースする。
- この動きは、バイデン大統領のAIの安全で信頼性の高い開発に関する行政命令から9か月後に行われ、NISTがモデルテストを支援するという要件に直接応えている。
- Dioptraは2年前に初めてリリースされ、中小企業や政府機関を支援することを目的としている。
- NISTは、AIプログラムが安全であることを確認するための取り組みを組織が取ることが重要であり、Dioptraはリスクを軽減しつつ革新を支援すると主張している。
感想
AIの利点は大きいが、悪意のあるデータが注入されることで深刻な結果を招く可能性があるため、NISTがこのようなツールを提供することは重要だと考えます。Dioptraのようなテストツールは、AI開発者が独自のリスクを認識し、そのリスクを軽減する方法を開発するのに役立つでしょう。
元記事: https://www.zdnet.com/article/this-tool-tests-ais-resilience-to-poisoned-data/