• MLCommonsが「AILuminate」という新しいベンチマークを発表
  • AILuminateは大規模言語モデル(LLMs)の安全性を評価するために設計された
  • 12のハザードカテゴリにわたる24,000以上のテストプロンプトに対するLLMsの応答を評価
  • MLCommonsはAIリスクと信頼性に関するグローバル基準を進めるために取り組んでいる
  • AILuminateはオープンソースであり、Apache 2.0ライセンスのもとGitHubにリリースされている

MLCommonsがAIの安全性を評価するための新しいベンチマークであるAILuminateを発表しました。このベンチマークは大規模言語モデル(LLMs)の安全性を評価するために設計されており、24,000以上のテストプロンプトに対するLLMsの応答を評価します。MLCommonsはAIリスクと信頼性に関するグローバル基準を進めるために取り組んでおり、AILuminateはオープンソースであり、Apache 2.0ライセンスのもとGitHubにリリースされています。

元記事: https://www.hackster.io/news/mlcommons-launches-a-first-of-its-kind-benchmark-to-measure-and-monitor-llm-ai-safety-412b25a8846c