Open WebUI installieren  Bild © PCMasters.deOpen WebUI installieren (Bild © PCMasters.de)

Anforderungen und Optionen

  • Betrachtete Plattformen: Ubuntu 24.04, Debian 12.
  • Mindestanforderungen an die Hardware: 16 GB RAM, ~50 GB freier Speicherplatz. Eine Grafikkarte ist optional. Moderne CPUs mit AVX-512 und DDR5 helfen beim Durchsatz (lscpu | grep -o avx512 und dmidecode -t memory | grep -i DDR5).
  • Topologien: **Einzelner Host mit Ollama und Open WebUI auf demselben Server oder geteilter Host mit Ollama auf einem Server, WebUI auf einem anderen - erfordert Netzwerkzugriff auf den Ollama-API-Port.

Ollama installieren und ausführenOllama installieren und ausführen (Bild © PCMasters.de)

Schritt 1 – Ollama installieren und ausführen

Der einfachste Weg ist es, das Installations-Script zu nutzen:

bash
curl -fsSL https://ollama.com/install.sh | sh

Instinct Mi50 proxmox Baremetal OllamaInstinct Mi50 proxmox Baremetal Ollama (Bild © PCMasters.de)

Manueller Pfad (große Ebene):

  • 1.Grafikkarten-Treiber (optional): Überprüfe NVIDIA CUDA mit nvidia-smi; installiere bei Bedarf die entsprechenden nvidia-kernel-open-545 und cuda-drivers-545.
  • 2.AMD-Unterstützung: Lade den ROCm-fähigen Ollama-Tarball herunter und extrahiere ihn nach /usr.
  • 3.Laufzeit: Lade den Standard-Ollama-Tarball herunter, entpacke ihn in /usrund erstelle einen gesperrten Dienstnutzer (ollama).
  • 4.systemd-Dienst: Erstelle /etc/systemd/system/ollama.service, führe ExecStart=/usr/bin/ollama serve als Nutzer/Gruppe ollamaaus.
  • Standardbindung: 127.0.0.1:11434 (nur lokal).
  • Netzwerkzugriff (optional): Stelle Environment=„OLLAMA_HOST=0.0.0.0:11434“ und öffne den Port in der Firewall.

Aktivieren und überprüfen, ob Ollama als Dienst funktioniert:

bash
sudo systemctl daemon-reload
sudo systemctl enable --now ollama
systemctl status ollama
ollama --version

Ollama Modell installierenOllama Modell installieren (Bild © PCMasters.de)

Schneller Test auf dem System unter Verwendung eines Modells:

bash
ollama run qwen3
# Modell später entfernen:
ollama rm <modellname>

Die verfügbaren Modelle, wie qwen3 sind auf der OLLAMA-Seite zu finden und können dort auch überprüft werden.

</modellname></section></div>

Schritt 2 – Open WebUI installieren (manuell oder Docker)

Open WebUI bietet ein Chat-Frontend und kommuniziert mit der Ollama-API.

Die manuelle Installation sieht wie folgt aus. Installiere die Voraussetzungen und klone:

bash
sudo apt update &amp;&amp; sudo apt install -y npm python3-pip python3-venv git
git clone https://github.com/open-webui/open-webui.git
cd open-webui &amp;&amp; cp -RPp .env.example .env

Ollama-Endpunkt stellen:

  • Gleicher Host: localhost:11434 in .envbeibehalten.
  • Geteilter Host: durch http://:11434ersetzen.

Frontend erstellen und Backend vorbereiten:

bash
npm i &amp;&amp; npm run build
cd backend
python3 -m venv venv &amp;&amp; source venv/bin/activate
pip install -r requirements.txt -U
bash start.sh

Der Standard-WebUI-Port ist 8080 → Zugriff unter http://:8080.

Docker installieren

Gleicher Host wie Ollama:

bash
sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:main

Separater Host: Stell sicher, dass der Ollama-Server 11434 freigibt und ordentlich durch eine Firewall geschützt ist, dann:

bash
sudo docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://<ollama-host>:11434 \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:main
Der Standard-WebUI-Port für Docker ist 3000 → http://<server>:3000.

</server></ollama-host></server></ollama-host></section></div>

Schritt 3 – Firewall-Ports öffnen

Überprüfe die Listener mit:

bash
sudo ss -tulpn | grep LISTEN

# z. B. 127.0.0.1:11434 (Ollama), 0.0.0.0:8080 oder 3000 (WebUI)

Mit ufw auf Ubuntu:

bash
sudo ufw status
sudo ufw allow proto tcp to any port 8080 # manuelle WebUI
sudo ufw allow proto tcp to any port 3000 # Docker WebUI

# Wenn Ollama extern verfügbar gemacht wird:
sudo ufw allow proto tcp to any port 11434

Modelle hinzufügen und mit dem Chatten anfangenModelle hinzufügen und mit dem Chatten anfangen (Bild © PCMasters.de)

Schritt 4 – Modelle hinzufügen und mit dem Chatten anfangen

Erste Anmeldung: Erstelle den ersten Admin-Nutzer in Open WebUI. Modelle aus der Benutzeroberfläche abrufen:

  • Admin-Bereich → Einstellungen → Modelle → Herunterladen, z. B. llama3 oder DeepSeek.

Fehlerbehebung: Wenn die Benutzeroberfläche meldet, dass sie Ollama nicht erreichen kann, vergewissere dich, dass der Dienst aktiv ist und die API-URL mit deiner Topologie übereinstimmt.

Chatten: Wähle das Modell im Composer aus; füge mehrere Modelle hinzu, um parallele Antworten zu bekommen.

Open WebUI mit Docker installierenOpen WebUI mit Docker installieren (Bild © PCMasters.de)

Open WebUI aktualisieren

Bei Updates des Frameworks muss man manchmal auch das Open WebUI mit Docker aktualisieren:

bash
docker rm -f open-webui
docker pull ghcr.io/open-webui/open-webui:main