但是(0.87.0)因為它hard coding provider: ollama 就是用 localhost,所以在 ~/.codex/.config.toml 寫了 provider.ollama 的 base_url 也是沒效。
所以不能用 ollama 這個 名子做 provder,要用其他的。例如:
[model_providers.ollama-remote] name = "ollama" base_url = "http://192.168.145.70:11434/v1" wire_api = "responses"這樣,用 ollama-remote 作為 provider 的 name。
另外,設定 default provider 用 ollama-remote,然後 model 是 gpt-oss:20b 是
model_provider = "ollama-remote" model = "gpt-oss:20b" model_reasoning_effort = "medium" oss_provider = "ollama-remote"這樣,直接啟動 codex 後,就會用這個自己的 ollama server 的 gpt-oss:20b 作為 model 了。
ollama server 版本要大於0.13.4 才 support responses API
claude-code 要用 local 的 ollama 的話,用環境變數就可以了。
export ANTHROPIC_AUTH_TOKEN=ollama export ANTHROPIC_BASE_URL=http://192.168.145.70:11434然後在啟動的時候指定 model:
claude --model gpt-oss:120bollama 要新版的才有支援 claude 的 api 格式.
新版 claude-code 的 web search 功能會使用 HAIKU model,所以要額外宣告環境變數。
為了確保所有 model 都用 ollama,就都宣告:
MODEL="${1:-qwen3.5:5b}"
# Export the environment variables
export ANTHROPIC_DEFAULT_OPUS_MODEL="$MODEL"
export ANTHROPIC_DEFAULT_SONNET_MODEL="$MODEL"
export ANTHROPIC_DEFAULT_HAIKU_MODEL="$MODEL"
export CLAUDE_CODE_SUBAGENT_MODEL="$MODEL"
其實這樣 web search 還是不能用,因為還要一個 search engine。所以可能要像openclaw一樣,幫他寫一個 searXNG search 的 SKILL
沒有留言:
張貼留言