- MLCommonsが「AILuminate」という新しいベンチマークを発表
- AILuminateは大規模言語モデル(LLMs)の安全性を評価するために設計された
- 12のハザードカテゴリにわたる24,000以上のテストプロンプトに対するLLMsの応答を評価
- MLCommonsはAIリスクと信頼性に関するグローバル基準を進めるために取り組んでいる
- AILuminateはオープンソースであり、Apache 2.0ライセンスのもとGitHubにリリースされている
MLCommonsがAIの安全性を評価するための新しいベンチマークであるAILuminateを発表しました。このベンチマークは大規模言語モデル(LLMs)の安全性を評価するために設計されており、24,000以上のテストプロンプトに対するLLMsの応答を評価します。MLCommonsはAIリスクと信頼性に関するグローバル基準を進めるために取り組んでおり、AILuminateはオープンソースであり、Apache 2.0ライセンスのもとGitHubにリリースされています。