2026年2月2日月曜日

VSCode で copilot の無料プランの上限が来たらローカル LLM を使おう

VSCode で copilot の無料プランの上限が来たらローカル LLM を使おう

概要

ollama を使います

環境

  • M2 mac mini macOS 26.2
    • ollama 0.14.3
    • codegemma 7b
  • VSCode 1.108.2

ollama の起動

インストールはこちら

LISTEN ポートを公開する場合はこちら

モデルのダウンロード

  • ollama pull codegemma

ollama run はしなくて OK です
API でモデルを指定して呼び出すだけなのでインタラクティブモードで放置しておかないで大丈夫です

VSCode の設定

ollama のエンドポイントを指定します
json は以下

{
  "github.copilot.chat.byok.ollamaEndpoint": "http://192.168.1.65:11434"
}

ここで一度 VSCode を再起動することをおすすめします

copilot 設定

  • 右ペインのチャットにある「Auto」から「Manage Models」を選択
  • 一覧に Ollama 上の codegemma モデルが表示されることを確認
  • 目のマークがあるのでクリックして有効にする

使用するモデルの選択

「Auto」ではなく追加したモデルを選択しましょう

Agent モードは使えない

copilot chat のプラグインにある「Agent」は使えないので「Ask」に切り替えましょう

動作確認

あとはいつも通りソースコードなどを選択して質問しれば回答してくれます

マシンスペックにもよりますが M2 mac mini + codegemma:7b で質問したらすぐにレスポンスが返ってきました

最後に

copilot + ollama を試してみました
Agent モードが使えないのは辛いです
次回は copilot + Continue を試してみます

参考サイト

0 件のコメント:

コメントを投稿