要約:

  • OpenAIのSuperalignmentチームの多くの主要メンバーが最近辞任した。
  • 辞任理由は、計算リソースの配分に関する問題で、OpenAIが約束した20%のリソースを受け取れなかったため。
  • Jan Leike氏とIlya Sutskever氏が指導していたSuperalignmentチームは、技術的にスーパーインテリジェントAIを統治することを目指していた。
  • OpenAI、Google DeepMind、およびAnthropicなどのAI安全研究者は、将来のAIの制限ではなく、安全なAIの開発に焦点を変えている。
  • アメリカでは、超知能AIの開発を防ぐために政府に制限を設けることを強く支持する声が多い。

感想:

OpenAIのSuperalignmentチームの辞任や、AIの安全性に対する懸念が高まっている状況が示唆されています。AIの将来における安全性が重要視される一方で、技術の進歩と規制のバランスも重要であると感じます。


元記事: https://www.techtimes.com/articles/304774/20240519/superintelligent-ai-safe-top-experts-raise-red-flags-openai.htm