イリヤ・サツケバーは、OpenAIの創設者の1人であり、AIの安全性プロトコルに関する意見の相違から同社を離れ、新しいスタートアップであるSafe Superintelligence(SSI)を立ち上げました。SSIでは、人工知能に関連する可能性のある危険性に取り組み、その使用に関する安全対策を強化する計画です。彼の究極の目標は、安全性を最優先にしつつ生産性を高めるAIシステムを開発することです。

SSIの中心的な使命は、安全な超知能を創造することであり、この野心的な取り組みが組織の唯一の目標および最終製品となります。彼らは、この単一の使命にすべての努力とリソースを集中することで、AIの新たな領域を開拓することを目指しています。

サツケバーのAIに対する安全性への取り組みは、OpenAIの最高科学責任者を務めていた時から顕著であり、Superalignmentチームの一員でした。新しい事業でこの安全性への重点を高めることを計画しています。

サツケバーによれば、SSIの集中的なアプローチは安全性、セキュリティ、進歩を確保するのに役立ちます。これにより、管理上の気晴らしや短期的なビジネスの圧力による欠点を防ぎ、製品サイクルに影響を与えることがありません。安定性が一貫した開発を可能にし、チームが使命であるシステムの安全性とセキュリティに独占的に集中できます。さらに、従来の製品サイクルの圧力がないため、より画期的な進歩が延長された研究時間を通じて実現できます。

SSIには、元AIおよび検索プロジェクトリーダーであるダニエル・グロスと元OpenAIの戦略家であるダニエル・レビーがサツケバーと共に参加します。運用拠点はカリフォルニア州パロアルトとイスラエルのテルアビブに設立される予定です。

過去のOpenAIでの経験から、サツケバーは、先進的なAI研究に関する制限についての紛争を巡って共同創業者でCEOのサム・アルトマンとの関係を断ち切るという物議を醸す決定に関与していました。この出来事の後、サツケバーはこの論争の的となったエピソードへの参加について公の謝罪を行いました。

元記事: https://www.baselinemag.com/news/openai-co-founder-launches-safe-superintelligence-startup/