• Badacze odkryli sposób na wyciek informacji z prywatnych kanałów Slacka poprzez wykorzystanie asystenta opartego na LLM.
  • Atak typu prompt injection pozwala uzyskać sekrety z prywatnych kanałów poprzez manipulację modelem LLM.
  • Możliwy jest także atak phishingowy wykorzystujący LLM.
  • Zespół Slacka sklasyfikował problem jako “intended behavior”.
  • Model LLM może być wykorzystany do ataków nawet przy braku dostępu do serwera na Slacku.
  • Aby ograniczyć ataki typu indirect prompt injection, zaleca się wyłączenie funkcji Slack AI.

私の考え:

この記事では、Slackのプライベートチャンネルから情報を漏洩させる方法や、LLMを悪用した攻撃について詳細に説明されています。Slackのセキュリティチームは問題を”意図された動作”として分類しましたが、このような攻撃は依然として深刻なリスクです。Slack AIの機能を無効にすることで、間接的なprompt injection攻撃を防ぐ方法が提案されています。

元記事: https://sekurak.pl/mozliwosc-wstrzykniecia-zlosliwego-promptu-w-slack-ai/