概要
ollama を使います
環境
- M2 mac mini macOS 26.2
- ollama 0.14.3
- codegemma 7b
- VSCode 1.108.2
ollama の起動
インストールはこちら
LISTEN ポートを公開する場合はこちらも
モデルのダウンロード
- ollama pull codegemma
ollama run はしなくて OK です
API でモデルを指定して呼び出すだけなのでインタラクティブモードで放置しておかないで大丈夫です
VSCode の設定
ollama のエンドポイントを指定します
json は以下
{
"github.copilot.chat.byok.ollamaEndpoint": "http://192.168.1.65:11434"
}
ここで一度 VSCode を再起動することをおすすめします
copilot 設定
- 右ペインのチャットにある「Auto」から「Manage Models」を選択
- 一覧に Ollama 上の codegemma モデルが表示されることを確認
- 目のマークがあるのでクリックして有効にする
使用するモデルの選択
「Auto」ではなく追加したモデルを選択しましょう
Agent モードは使えない
copilot chat のプラグインにある「Agent」は使えないので「Ask」に切り替えましょう
動作確認
あとはいつも通りソースコードなどを選択して質問しれば回答してくれます
マシンスペックにもよりますが M2 mac mini + codegemma:7b で質問したらすぐにレスポンスが返ってきました
最後に
copilot + ollama を試してみました
Agent モードが使えないのは辛いです
次回は copilot + Continue を試してみます


0 件のコメント:
コメントを投稿