ollama-help
Ollama & Open WebUI Hilfe
Hallo <Benutzername>,
Willkommen zur schnellen Einführung in Ollama und Open WebUI. Diese Hilfe soll dir einen Überblick geben, wie du die beiden Tools installieren, konfigurieren und effektiv nutzen kannst.
1. Was ist Ollama?
Ollama ist ein leichtgewichtiges, lokal installierbares Framework für die Nutzung von Large Language Models (LLMs). Es ermöglicht dir, Modelle wie gpt-4o-mini, gpt-3.5-turbo oder Open‑Source‑Modelle von Hugging Face zu laden, auszuführen und in deine Anwendungen zu integrieren.
1.1. Hauptfunktionen
- Modelle lokal hosten – keine Cloud‑Abhängigkeit.
- Python API sowie REST‑Interface.
- Unterstützt Docker, Windows, macOS, Linux.
- Automatische Modell‑Downloads aus dem Ollama Hub.
2. Was ist Open WebUI?
Open WebUI ist ein Open‑Source Web‑Interface, das als Frontend für Ollama fungiert. Es bietet eine moderne UI, Chat‑History, Multi‑User‑Support und viele weitere Features.
2.1. Hauptfunktionen
- Drag‑&Drop‑Chatfenster.
- Konfigurierbare Prompt‑Templates.
- Persistente Chat‑History.
- API‑Schnittstelle für eigene Anwendungen.
- Benutzer‑ und Rechteverwaltung.
3. Installation
3.1. Ollama installieren
- Besuche die offizielle Download‑Seite.
- Wähle das passende Paket für dein Betriebssystem.
- Führe die Installationsdatei aus. Auf Linux kannst du auch das Skript benutzen:
curl -fsSL https://ollama.com/install.sh | sh
- Starte Ollama:
ollama serve
- Lade ein Modell herunter (z. B.
gpt-4o-mini):ollama pull gpt-4o-mini
3.2. Open WebUI installieren
- Klone das Repository:
git clone https://github.com/open-webui/open-webui.git cd open-webui
- Installiere die Abhängigkeiten:
pip install -r requirements.txt
- Starte den Server:
python app.py
- Standard‑URL: http://localhost:8080
4. Konfiguration
4.1. Ollama
- Konfigurationsdatei:
~/.ollama/config.yaml - Beispiel:
api: host: "localhost" port: 11434 models: - name: "gpt-4o-mini" path: "/opt/models/gpt-4o-mini"
4.2. Open WebUI
- Umgebungsvariablen:
.env - Beispiel:
OLLAMA_HOST=localhost:11434 OPENAI_API_KEY=your_api_key PORT=8080
5. Nutzung
5.1. Chat mit Ollama (CLI)
ollama run gpt-4o-mini "Erkläre mir den Unterschied zwischen einer Docker‑Container-Architektur und einer Virtualisierung."
5.2. Chat über Open WebUI
- Öffne die Web‑App.
- Wähle das gewünschte Modell aus dem Dropdown.
- Tippe deine Frage ein und drücke Enter.
- Die Antwort erscheint in Echtzeit.
5.3. Beispiel-Code in Python
import ollama
response = ollama.chat(
model="gpt-4o-mini",
messages=[
{"role": "system", "content": "Du bist ein hilfreicher Assistent."},
{"role": "user", "content": "Erkläre mir Open WebUI."}
]
)
print(response["message"]["content"])
6. Troubleshooting
- Modell nicht geladen: Prüfe, ob das Modell im richtigen Pfad liegt und ob
ollama serveläuft. - Open WebUI startet nicht: Stelle sicher, dass alle Python‑Abhängigkeiten installiert sind und die Umgebungsvariablen korrekt gesetzt sind.
- Verbindungsfehler: Überprüfe Firewall‑Einstellungen und ob
OLLAMA_HOSTdie korrekte IP/Port-Adresse enthält.
7. Ressourcen & Community
Reality‑Sound Demo
© Mixmeister (2026-01-25)