Microsoft の Phi-3 言語モデル ファミリがついに登場しました。サイズからして明らかに別格で、多くの面で Llama 3 や Mixtral などの最近リリースされたモデルよりもはるかに優れていることがすでに証明されています。サイズが小さいため、Phi-3 は Windows PC でローカルに簡単に実行できます。Ollama と LM Studio を使用して実行する方法は次のとおりです。
Ollama は、LLM を実行して実験できるソフトウェア フレームワークです。これを使用して、Microsoft の Phi-3 を Windows 上でローカルに実行する方法を説明します。
まず、Ollama をダウンロードしてインストールしましょう。手順は次のとおりです。
次に、Ollama を使用して Phi-3 モデルをダウンロードします。
ターミナル アプリ内でチャットを開始できます。プロンプトを入力して Enter キーを押すだけです。モデルをテストした領域をいくつか紹介します。
検閲耐性のテスト

複雑なトピックの理解をテストする

ターミナル アプリを使用して Windows 上の Microsoft Phi-3 とチャットするのが好きではなく、専用のインターフェイスを使いたい場合は、LM Studio が最適です。LM Studio で Phi-3 を設定し、ローカルでモデルとチャットを開始する方法は次のとおりです。
LM Studio 自体から Phi-3 を検索してダウンロードすることはできません。Phi-3 guff ファイルを別途入手する必要があります。方法は次のとおりです。
次に、ダウンロードした Phi-3 モデルをロードします。次の手順に従います。
これで完了です。プロンプトを入力してください。インターネット接続の有無に関係なく、Windows PC 上で Microsoft の Phi-3 モデルとローカルにチャットできるようになります。
Windows PC 上で Microsoft の Phi-3 をローカルに実行することに関してよくある質問をいくつか考えてみましょう。
コマンド プロンプトで Ollama 経由で Phi-3 をダウンロードする際に問題が発生した場合は、コマンド ollama run phi3 を再度入力するだけです。ダウンロードは、以前に実行された時点から再開されます。
このガイドが、Ollama と LM Studio を介して Windows PC 上で Microsoft の Phi-3 モデルをローカルに実行する際に役立つことを願っています。それでは次回まで!
このブログを購読し、新しい投稿の通知をメールで受け取るには、メールアドレスを入力してください。
あなたのメールアドレスは公開されません。必須項目は*でマークされています
次回コメントするときに、このブラウザに自分の名前、メールアドレス、ウェブサイトを保存します。
フォローアップのコメントをメールで通知します。

元記事: https://translate.google.com/translate?sl=auto&tl=ja&hl=ja&u=https://nerdschalk.com/how-to-run-microsoft-phi-3-ai-on-windows-locally/