概要
Ollama を使ってローカルで動かします
環境
- macOS 15.3.2
- ollama 0.6.2
- Openhermes v2.5
ollama インストール
- brew install ollama
ollama 起動
- ollama services run ollama
Openhermes 起動
- ollama run openhermes
この時点でインタラクティブモードになり質問することもできます
Open-WebUI 起動
-
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
動作確認
localhost:3000 にアクセスすると UI を経由して Openhermes を使うことができます
最後に
精度はそこそこと言った感じです
軽量で日本語にも対応してるのでローカルで動かす LLM としては十分かもしれません
ただそこまで回答に期待はしないほうがいいかもです
0 件のコメント:
コメントを投稿