- AppleはSiriにアップグレードを提供し、Apple Intelligenceの展開の一環としてコンテキストをよりよく理解し、フォローアップクエリを行うことが可能になりました。
- Bloombergの最近の報告によると、Appleは「SiriのためのLLM」に取り組んでおり、AI音声アシスタントがGoogle Gemini Voice、Meta AI Voice、またはChatGPT Advanced Voiceのように会話を行うことを可能にすることを目指しています。
- Appleは現在、Apple Intelligenceをパワーするためにオンデバイスの言語モデルを使用していますが、これはChatGPTのようなクラウドベースのモデルを使用しているため、効果的な会話型AIをサポートするには不十分です。
- Bloombergによると、LLM Siriは完全に新しいApple AIモデルを使用し、App Intentsに大きく依存することができるようになるでしょう。
私の考え:
AppleはSiriを改善するために新しいAIモデルを開発しており、ChatGPTと同様の会話能力を持たせることを目指しています。これにより、Siriがより現代的で競争力のある音声アシスタントになる可能性があります。しかし、新機能の実装には時間がかかるため、一時的な解決策として他のパートナーとの連携を模索しています。