10989 shaares
11 private links
11 private links
Une interface web pour dialoguer avec un llama local. Ce sera bien mieux que la ligne de commande ...
Et ça se lance (dans mon Rancher Desktop) comme ça
docker run -d -p 13000:8080 --name open-webui -e OLLAMA_BASE_URL=http://host.rancher-desktop.internal:11434 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/op
en-webui:main
(je ne suis pas sûr que la variable d'environnement OLLAMA_BASE_URL soit bien prise en compte)