• ガザ地区において、AIがイスラエルの報復キャンペーンで標的の提案を行っている
  • 「The Gospel」は建物や構造の標的を提案し、「Lavender」はハマスのメンバーを特定して暗殺対象とする
  • 国際法の専門家は、AIの軍事利用に懸念を示しており、ガザやウクライナでの使用が危険な新しい標準を確立する可能性がある
  • AIによる標的生成により死者数が増加する可能性があり、AIの情報が正確で信頼できるという「自動化バイアス」が問題となることが警告されている
  • ウクライナもAIを軍事利用しており、精度やプライバシーに関連した懸念が存在する
  • アメリカなど先進国もAIの機械学習と関連する問題に直面する可能性が高まっている

この記事から、AIの軍事利用が国際法や民間保護に影響を与える可能性があることが明らかになっています。特に、自動化されたAIによる標的生成が死者数増加のリスクをもたらすことや、倫理的な問題について懸念が高まっています。これらの技術の適切な利用と規制が今後の課題となるでしょう。

元記事: https://time.com/7202584/gaza-ukraine-ai-warfare/