- Metaは6月30日に「LLM Compiler」というモデルを発表
- 既存のCode Llamaに基づき、コードの最適化に焦点を当てたモデル
- 7兆パラメータと13兆パラメータの2つのバージョンを提供
- LLM Compilerはコードの最適化タスクに特化した事前学習モデル
- 巨大なLLVM-IRとアセンブリコードトークンのコーパスでトレーニング
- 開発者は他のAIモデルと組み合わせて関連モデルを自由に使用可能
MetaがLLM Compilerを通じてコード最適化の分野での新たな進展を達成したことは興味深い。このモデルはコンパイラをシミュレートしてコードを最適化したり、「最適化されたコードを元の言語に戻す」ことが可能である点が特筆される。また、LLM Compilerは巨大なコーパスでトレーニングされ、開発者にとってコード最適化の潜在能力を77%実現できるとされている。このようなツールがコード生成やコンパイルの能力を向上させるためにどのように活用されるか、今後の展開が注目される。