但是(0.87.0)因為它hard coding provider: ollama 就是用 localhost,所以在 ~/.codex/.config.toml 寫了 provider.ollama 的 base_url 也是沒效。
所以不能用 ollama 這個 名子做 provder,要用其他的。例如:
[model_providers.ollama-remote] name = "ollama" base_url = "http://192.168.145.70:11434/v1" wire_api = "responses"這樣,用 ollama-remote 作為 provider 的 name。
另外,設定 default provider 用 ollama-remote,然後 model 是 gpt-oss:20b 是
model_provider = "ollama-remote" model = "gpt-oss:20b" model_reasoning_effort = "medium" oss_provider = "ollama-remote"這樣,直接啟動 codex 後,就會用這個自己的 ollama server 的 gpt-oss:20b 作為 model 了。
ollama server 版本要大於0.13.4 才 support responses API
claude-code 要用 local 的 ollama 的話,用環境變數就可以了。
export ANTHROPIC_AUTH_TOKEN=ollama export ANTHROPIC_BASE_URL=http://192.168.145.70:11434然後在啟動的時候指定 model:
claude --model gpt-oss:120bollama 要新版的才有支援 claude 的 api 格式.