要約:

  • ハーバードの3人の学者によると、現行の米国法は、コンピュータシステムを違法に侵害する者に対処しておらず、大規模な言語モデル(LLM)に対するセキュリティテストを行う研究者を起訴の対象にする可能性がある。
  • コンピュータ不正使用及び虚偽行為法(CFAA)は、プロンプトインジェクション攻撃に適用されず、LLMの悪用が違法領域にどのように入るかを明確にするのが難しいとされている。
  • 米最高裁判所の2021年の判決により、CFAAは情報を適切に獲得した個人にのみ適用されるとされ、LLM AIには適用されない可能性がある。
  • 法的決定をLLMに適用することは困難であり、セキュリティ研究者やAIシステムのレッドチームメンバーがAIの制約を破る場合には、違法アクセスとして扱われる可能性がある。

感想:

現行の法律が新たな技術に追いついておらず、セキュリティ研究者が適切に行動することが難しくなっていることが明らかです。特に、AIに関する法的問題にはまだ不明確な点が多く残されており、今後の裁判や議論が重要であると感じます。


元記事: https://www.theregister.com/2024/08/08/lawyers_say_us_cybersecurity_law/