• AI企業は、自主的にシステムの能力やリスクに関する情報を共有することを信頼できないと、現職および元従業員が述べる。
  • ソウルで開催された第2回グローバルAIサミットでは、16社がFrontier AI Safety Commitmentsに署名し、技術の安全な開発を進めるための措置を取ることに同意。
  • 一つの主要な自主的なコミットメントにより、リスクが十分に緩和されない場合、AIシステムの開発や展開を行わないと述べられている。
  • しかし、ソウルで安全コミットメントに署名した最初の2社であるOpenAI、Anthropic、DeepMindからの現職および元従業員のグループは、現在の自主的な取り決めだけではAI開発企業の効果的な監督を確保するには不十分であると述べている。
  • AI企業に対し、より透明性と責任を求める一方、規制当局が必要な措置を支持すると指摘。

私の考え:AI技術の進化に伴い、リスク管理と透明性がますます重要になってきました。AI企業は、自主的な取り決めだけではなく、より厳格な規制措置が必要とされる時代に差し掛かっているように感じます。

元記事: https://www.computerweekly.com/news/366588454/AI-firms-cant-be-trusted-to-voluntarily-share-risk-information