VSCode + Continue でエージェント開発をする
概要
前回 VSCode + copilot + ollama でローカル開発する方法を紹介しました
Ask モードしか使えないのが残念でした
今回は VSCode + continue + ollama で Agent 開発してみます
環境
- M2 mac mini macOS 26.2
- ollama 0.14.3
- codegemma 7b
- llama3.1 8b
- VSCode 1.108.2
Continue のインストール
VSCode の拡張一覧から「continue」で検索しインストールすれば OK です
https://github.com/continuedev/continue
Continue の設定
- 左メニューから Continue のアイコンを選択
- 右上の歯車マークを選択
- Configs
- Local Config の歯車マークを選択
- YAML を以下のように編集 (IP部分は適宜変更)
name: Local Config
version: 1.0.0
schema: v1
models:
- name: codegemma
provider: ollama
model: codegemma:latest
apiBase: http://192.168.1.65:11434
roles:
- chat
- edit
- apply
- autocomplete
動作確認
あとは Continue のチャット画面に移動しチャットすれば OK です
「Agent」になっておりかつ先程設定したモデルが選択されていることを確認してからチャットしましょう
M2 mac mini 上では特にストレスなくレスポンスが返ってきました
トラブルシューティング: Agent モードが使えない
「Agent might not work well with this model」という警告が出ている場合は Agent モードが使えません
codegemma は tools に対応しているモデルではないようです
https://ollama.com/library/codegemma に「Tools」というタグが付与されていないと Agent モードは使えません
なのでモデルを変更しましょう
ただ Tools が使えるモデルは比較的大きめなのでマシンスペックが必要になるので注意しましょう
公式のおすすめモデルは https://docs.continue.dev/ide-extensions/agent/model-setup です
name: Local Config
version: 1.0.0
schema: v1
models:
- name: llama3.2
provider: ollama
model: llama3.2:latest
apiBase: http://192.168.1.65:11434
roles:
- chat
- edit
- apply
- autocomplete
capabilities:
- tool_use
- image_input
最後に
コンテキストの渡し方 (現在選択中のファイルや別のファイル) を送信する方法などは copilot chat プラグインとは少し違うので注意しましょう
また ollama を使う場合エージェントモードが使えるモデルと使えないモデルがあり使えるモデルはそれなりの大きさのモデルが必要になるようです
gemma3 などは使えませんでした
この辺り最適なモデルの選択などは続けていきたいです
エージェントモードで動かすと回答の処理や Continue の挙動がおかしくなるのでその場合は素直に Chat モードを使いましょう
参考サイト