- 大規模言語モデル(LLM)に誤ったデータソースを入力すると、データポイズニングが発生する
- LLMは情報を「忘れる」ことができないため、セキュリティリーダーが正しい情報のみを供給するように管理する必要がある
- AIエンジンが何を知っているか、学んでいる情報が真実の情報源から来ているかどうかをどう信頼できるか
- GenAIの興奮の中で、モデルに供給されるデータのセキュリティと信頼性に注意を向ける必要がある
- AIを訓練する際に最大のサイバーセキュリティリスクが生じる
私の意見:
- AIを使用してセキュリティコードを最適化することは効果的だが、悪意ある結果を生み出す可能性があるため注意が必要
- 機械に機密データを供給する創造的なユースケースでは、プライバシーとセキュリティ上のリスクがある
- AIによって書かれたコードと人間が書いたコードを区別することが重要であり、明確な区別やタグ付けメカニズムが必要
- AIによる最適化された機密タスクのコードは慎重に検討されるべきであり、AIに教えた情報を忘れさせることは不可能である
元記事: https://www.infosecurity-magazine.com/opinions/ai-prove-trustworthiness-box/