2026/1/17

codex-cli 使用自己的 ollama server.

codex-cli 可以用 --oss 來指定它使用 localhost 的 ollama server。 (default model: gpt-oss:20b)
但是(0.87.0)因為它hard coding provider: ollama 就是用 localhost,所以在 ~/.codex/.config.toml 寫了 provider.ollama 的 base_url 也是沒效。
所以不能用 ollama 這個 名子做 provder,要用其他的。例如:
[model_providers.ollama-remote]
name = "ollama"
base_url = "http://192.168.145.70:11434/v1"
wire_api = "responses"
這樣,用 ollama-remote 作為 provider 的 name。

另外,設定 default provider 用 ollama-remote,然後 model 是 gpt-oss:20b 是
model_provider = "ollama-remote"
model = "gpt-oss:20b"
model_reasoning_effort = "medium"
oss_provider = "ollama-remote"
這樣,直接啟動 codex 後,就會用這個自己的 ollama server 的 gpt-oss:20b 作為 model 了。

ollama server 版本要大於0.13.4 才 support responses API



claude-code 要用 local 的 ollama 的話,用環境變數就可以了。
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://192.168.145.70:11434
然後在啟動的時候指定 model:
claude --model gpt-oss:120b
ollama 要新版的才有支援 claude 的 api 格式.

沒有留言:

張貼留言