• 大規模言語モデルは生成AIの一部であり、次の単語を予測することでテキストを生成する。
  • ファウンデーションLLMをそのまま使用するか、ファインチューニングやRAG(Retrieval Augmented Generation)を通じてコンテキストに合わせることができる。
  • LLMの欠点として、長いコンテキストウィンドウが後半の生成に幻覚を生じさせることが挙げられる。
  • LLMの圧縮技術としては、量子化、プルーニング、蒸留が好まれる。
  • 生成AIの採用に対する主なブロッカーは、データプライバシーと幻覚懸念。
  • LLMの主な利用例は、文書処理、コード生成、AIチャットボット、音声合成、言語翻訳など。
  • LLMは単一モダリティ(テキスト)または複数モダリティ(テキスト、音声、画像、ビデオ)を扱うことができる。
  • LLMとLLMベースのアプリケーションを説明可能にすることでユーザーの信頼を得ることができる。
  • 商用コード生成ツールの例として、GitHub CopilotやCursor AIが挙げられる。
  • クラウドLLMサービスとして、MicrosoftのAzure OpenAI Service、AmazonのAmazon Bedrock、GoogleのVertex AIが提供されている。
  • Llama3.1 LLMには8B、70B、405Bの3つのバリアントがあり、それぞれパラメータの数が異なる。

生成AIの分野は急速に進化しており、様々な応用が期待されています。LLMはテキスト生成において優れた性能を持つ一方、計算能力に限界があるため、外部ツールやクラウドサービスの活用が重要です。データプライバシーや幻覚懸念などの課題がある中で、より安全かつ効果的にLLMを活用するためには、技術の進化と倫理的な観点からの検討が欠かせません。

元記事: https://timesofindia.indiatimes.com/blogs/data-science-vibes/cracking-a-generative-ai-interview/