ベンジ・エドワーズ – 2024 年 5 月 3 日午後 7 時 04 分 UTC
著名なAI研究者で、かつてOpenAIとTeslaに所属していたアンドレイ・カルパシー氏は木曜日、ChatGPTを動かすような大規模言語モデル(LLM)が将来的には宇宙で動作したり宇宙に伝送したりできるように改造され、地球外生命体と通信できるようになるかもしれないという軽い提案をツイートした。同氏はこのアイデアは「単なる楽しみ」だと述べたが、同分野における自身の影響力を考えると、このアイデアは将来的に他の人々に刺激を与えるかもしれない。
カルパシー氏のAIに関する誠実さは、2015年にスタンフォード大学でコンピューター科学者のフェイフェイ・リー博士の指導の下で博士号を取得していることからも明らかだ。その後、研究科学者としてOpenAIの創設メンバーの一人となり、2017年から2022年までテスラでAIのシニアディレクターを務めた。2023年にカルパシー氏は1年間OpenAIに復帰し、今年2月に退社した。同氏はYouTubeにAIの概念を扱った評価の高いチュートリアルをいくつか投稿しており、AIについて語ると人々は耳を傾ける。
最近では、Karpathy 氏は「llm.c」というプロジェクトに取り組んでおり、これは OpenAI の 2019 GPT-2 LLM のトレーニング プロセスを純粋な C で実装し、プロセスを大幅に高速化し、LLM での作業に必ずしも複雑な開発環境が必要ではないことを実証しています。プロジェクトの合理化されたアプローチと簡潔なコードベースが Karpathy 氏の想像力を刺激しました。
「私のライブラリ llm.c は、プログラムを直接制御できる非常によく知られた低レベルシステム言語である純粋な C で書かれています」とカルパシー氏は Ars に語った。「これは、大規模で複雑なコードベースで記述される、これらのモデルをトレーニングするための一般的なディープラーニングライブラリとは対照的です。したがって、llm.c の利点は、非常に小さくシンプルであるため、宇宙安全として認定するのがはるかに簡単であることです。」
カルパシー氏は、遊び心のある思考実験(「LLM はいつか宇宙で稼働する必要があるのは明らか」と題する)の中で、まず LLM のコードを、NASA が宇宙向けソフトウェアに採用した「10 のルールの力」に似た、厳格な安全基準を満たすように調整するという 2 段階の計画を提案した。
彼はこの最初の部分を深刻だとみなした。「私たちは llm.c を強化して NASA のコード標準とスタイル ガイドに合格させ、コードが超安全で、宇宙で実行できるほど安全であることを証明しました」と彼は X の投稿に書いた。「LLM のトレーニング/推論は原則として超安全なはずです。これはただ 1 つの固定された浮動小数点配列と、その上で 1 つの境界付きで明確に定義されたダイナミクスのループです。再帰などのために、メモリを未定義の方法で拡大または縮小する必要はありません。」
これは重要なことです。なぜなら、ソフトウェアを宇宙に送り込む場合、厳格な安全性と信頼性の基準に従って動作する必要があるからです。Karpathy 氏は、彼のコード llm.c は、その中核にシンプルさと予測可能性を念頭に置いて設計されているため、これらの要件を満たしている可能性が高いと示唆しています。
ステップ 2 では、この LLM が宇宙環境で安全であると判断されると、理論的には、アレシボ メッセージ (1974 年に地球からメシエ 13 球状星団に送信された無線メッセージ) やボイジャーのゴールデン レコード (1977 年に 2 機のボイジャー宇宙船で送信された 2 つの同一の金のレコード) などの歴史的な取り組みと同様に、宇宙での AI アンバサダーとして使用できます。アイデアは、LLM の「重み」(基本的にはモデルの学習パラメータ) をバイナリ ファイルにパッケージ化し、それを「起動」して、解読する可能性のあるエイリアンのテクノロジーと対話できるようにすることです。
「これはSFの可能性であり、考えてみると面白いことだと私は考えています」と彼はArsに語った。「星々を旅するのは人間ではなく、AIの代表者であるという考え。あるいは、同じことが他の種にも当てはまるかもしれないのです。」
Ars Orbital Transmission メーリングリストに参加して、毎週の最新情報をメールで受け取りましょう。登録する →