作者寫好了 shell script 自動安裝:
curl https://ollama.ai/install.sh | sh執行完就裝完了。
他是用 以 service 的形式,用 systemd 管理。
所以 ollama.service 和 user, group 都 create 好了。
之後,只要用 ollama 這個 command 就可以控制。
舉例來說, run model:llamma2
ollama run llama2 >>>等一下download 完model file,就會出現 提示符號等你輸入prompt
作者的blog有很多model 的執行 command.
可以直接照著試試看。
-- 例如uncensored llama2
專案的github 頁面有 "community integration",是一些其他作者的相關專案。
例如: 就是提供一個類似 chatgpt web 頁面的專案。
以ollama-webui 為例:
先把 ollam.service run 在 ip 上 (default 是 127.0.0.1):
要在 /etc/systemd/system/ollama.service.d/下 create 一個 file:
cat /etc/systemd/system/ollama.service.d/environment.conf [Service] Environment=OLLAMA_HOST=0.0.0.0:11434然後 systemctl daemon-reload, restart ollama.service.
用 systemctl status (或是 journalctl -u ollama.service)看 log,會有
routes.go:843: Listening on [::]:11434 (version 0.1.14)之後 follow ollama-webui 中,用 dockerfile 的作法:
git clone https://github.com/ollama-webui/ollama-webui.git cd ollama-webui docker build -t ollama-webui .build 好 image 後..
uninstall ollama -- 就是 uninstall systemd service
sudo systemctl stop ollama sudo systemctl disable ollama sudo rm /etc/systemd/system/ollama.service sudo rm -r /usr/share/ollama sudo userdel ollama sudo groupdel ollama sudo rm /usr/local/bin/ollama
2024/11/12 update:
新的好像是用 open-webui
安裝可以用 docker 或是手動。
手動就是...
因為要 python 3.11,所以用 conda create 一個 env
然後
pip install open-webui就會下載完所有 package 安裝。
啟動就:
open-webui serve-- 沒有 r
就會在 http://0.0.0.0:8080 上。
她會自己找到同一台機器上的 ollama service。都不用設定。
沒有留言:
張貼留言