- WebUI docker: https://docs.openwebui.com/getting-started/quick-start/
- CUDA dirvers : https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html#prerequisites
- Ollama docs : https://github.com/ollama/ollama/blob/main/docs/README.md
- Webui+Ollama : https://docs.openwebui.com/getting-started/quick-start/starting-with-ollama
- Debug : https://github.com/open-webui/open-webui#troubleshooting
docker pull ghcr.io/open-webui/open-webui:main
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
docker rm -f open-webui
docker run -d -p 3000:8080 -e WEBUI_AUTH=False -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 -e WEBUI_AUTH=False --gpus all -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Option User > Settings > Admin Settings > Connections > "Manage OpenAI API Connections => Paste
cat /usr/share/ollama/.ollama/PUBLICSKEYS.pub
docker run -d --network=host -e WEBUI_AUTH=False -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
-
Détecter enmplacement par défaut
docker info Docker Root Dir: /var/lib/docker
-
Stopper docker
sudo systemctl stop docker.service sudo systemctl stop docker.socket
-
BKP
sudo cp /lib/systemd/system/docker.service /lib/systemd/system/docker.serviceBKP
-
EDITER
sudo vi /lib/systemd/system/docker.service
Ajouter --data-root à la ligne
ExecStart=/usr/bin/dockerd --data-root /media/nvme/DOCKERS/.IMAGESBASE -H fd:// --containerd=/run/containerd/containerd.sock [save]
-
Déplacement des images
sudo rsync -aqxP /var/lib/docker/ /media/nvme/DOCKERS/.IMAGESBASE
-
Redémarrage de Docker
sudo systemctl daemon-reload sudo systemctl start docker
-
Editer le service Ollama
sudo systemctl edit ollama.service
-
Décommenter la ligne et indiquer la destination des modèles
[Service] Environment="OLLAMA_MODELS=/media/nvme/MODELSIA/ollama"
-
Redémarrage du service Ollama
sudo systemctl daemon-reload sudo systemctl restart ollama
- Webaccess OpenWebUI => http://localhost:3000/
- Python deployement => http://localhost:8080/