• スイスのスタートアップ、Lakeraは、悪意のあるプロンプトやその他のセキュリティ脅威から生成AIアプリケーションを保護することに焦点を当て、ヨーロッパのベンチャーキャピタル企業であるAtomicoが主導する2,000万ドルのシリーズA資金調達ラウンドを確保した。
  • ChatGPTなどの人気アプリケーションに示される生成AIは注目を集めているが、特に企業環境ではセキュリティとデータプライバシーに関する重要な懸念が生じている。
  • 大規模言語モデル(LLMs)は生成AIを支え、機械が人間の言語に似たテキストを理解し生成することを可能にする。しかし、これらのモデルは出力を導くためにプロンプトが必要であり、AIを意図しない行動に誘導することができるため、「prompt injections」として知られるこの脆弱性が成長し続けている。
  • 2021年にチューリッヒで設立され、2023年10月に公式に立ち上げられ、初期の1,000万ドルの資金調達を行ったLakeraは、データ漏洩やprompt injectionsなどのLLMの脆弱性から組織を保護することを専門としている。
  • Lakeraは、「低遅延AIアプリケーションファイアウォール」と表現される「Lakera Guard」を中核として提供しており、この技術は生成AIアプリケーションへのトラフィックを安全に保護し、プロンプトが検討されセキュアに処理されることを確実にする。
  • 同社のアプローチは、Hugging Faceなどのオープンソースデータセット、独自の機械学習研究、および「Gandalf」という対話型ゲームといった革新的なツールから得られた洞察を統合している。このゲームは、ユーザーがシステムを誤魔化してパスワードを明らかにしようとすることを試みさせ、潜在的な脅威に対するLakeraの防御策を磨くのに役立っている。
  • 全体として、Lakeraの革新的なソリューションは、新興脅威に対抗し、安全かつ信頼性の高いAIオペレーションを確保することを目指して、企業環境での生成AIアプリケーションのセキュリティと信頼性を強化する。

私の考え:
生成AIの進化は素晴らしいが、セキュリティ上の懸念も同様に重要である。Lakeraの取り組みは、この課題に焦点を当て、企業環境における生成AIの安全性を向上させる可能性があると感じる。

元記事: https://ciolook.com/swiss-ai-startup-lakera-secured-20m-investment-to-secure-businesses-from-llm-threats/