Online Streams
MusikStübchen
Cover
tech-house
Cover
©
Shoutbox
Name:

Nachricht:

Sicherheits-Code:


Sicherheitscode eingeben:



user
14.01.2026 um 23:59
Willkommen
ollama-help
Ollama & Open WebUI Hilfe

Ollama & Open WebUI Hilfe

Hallo <Benutzername>,

Willkommen zur schnellen Einführung in Ollama und Open WebUI. Diese Hilfe soll dir einen Überblick geben, wie du die beiden Tools installieren, konfigurieren und effektiv nutzen kannst.


1. Was ist Ollama?

Ollama ist ein leichtgewichtiges, lokal installierbares Framework für die Nutzung von Large Language Models (LLMs). Es ermöglicht dir, Modelle wie gpt-4o-mini, gpt-3.5-turbo oder Open‑Source‑Modelle von Hugging Face zu laden, auszuführen und in deine Anwendungen zu integrieren.

1.1. Hauptfunktionen

  • Modelle lokal hosten – keine Cloud‑Abhängigkeit.
  • Python API sowie REST‑Interface.
  • Unterstützt Docker, Windows, macOS, Linux.
  • Automatische Modell‑Downloads aus dem Ollama Hub.

2. Was ist Open WebUI?

Open WebUI ist ein Open‑Source Web‑Interface, das als Frontend für Ollama fungiert. Es bietet eine moderne UI, Chat‑History, Multi‑User‑Support und viele weitere Features.

2.1. Hauptfunktionen

  • Drag‑&Drop‑Chatfenster.
  • Konfigurierbare Prompt‑Templates.
  • Persistente Chat‑History.
  • API‑Schnittstelle für eigene Anwendungen.
  • Benutzer‑ und Rechteverwaltung.

3. Installation

3.1. Ollama installieren

  1. Besuche die offizielle Download‑Seite.
  2. Wähle das passende Paket für dein Betriebssystem.
  3. Führe die Installationsdatei aus. Auf Linux kannst du auch das Skript benutzen:
    curl -fsSL https://ollama.com/install.sh | sh
    
  4. Starte Ollama:
    ollama serve
    
  5. Lade ein Modell herunter (z. B. gpt-4o-mini):
    ollama pull gpt-4o-mini
    

3.2. Open WebUI installieren

  1. Klone das Repository:
    git clone https://github.com/open-webui/open-webui.git
    cd open-webui
    
  2. Installiere die Abhängigkeiten:
    pip install -r requirements.txt
    
  3. Starte den Server:
    python app.py
    
  4. Standard‑URL: http://localhost:8080

4. Konfiguration

4.1. Ollama

  • Konfigurationsdatei: ~/.ollama/config.yaml
  • Beispiel:
    api:
      host: "localhost"
      port: 11434
    models:
      - name: "gpt-4o-mini"
        path: "/opt/models/gpt-4o-mini"
    

4.2. Open WebUI

  • Umgebungsvariablen: .env
  • Beispiel:
    OLLAMA_HOST=localhost:11434
    OPENAI_API_KEY=your_api_key
    PORT=8080
    

5. Nutzung

5.1. Chat mit Ollama (CLI)

ollama run gpt-4o-mini "Erkläre mir den Unterschied zwischen einer Docker‑Container-Architektur und einer Virtualisierung."

5.2. Chat über Open WebUI

  • Öffne die Web‑App.
  • Wähle das gewünschte Modell aus dem Dropdown.
  • Tippe deine Frage ein und drücke Enter.
  • Die Antwort erscheint in Echtzeit.

5.3. Beispiel-Code in Python

import ollama

response = ollama.chat(
    model="gpt-4o-mini",
    messages=[
        {"role": "system", "content": "Du bist ein hilfreicher Assistent."},
        {"role": "user", "content": "Erkläre mir Open WebUI."}
    ]
)

print(response["message"]["content"])

6. Troubleshooting

  • Modell nicht geladen: Prüfe, ob das Modell im richtigen Pfad liegt und ob ollama serve läuft.
  • Open WebUI startet nicht: Stelle sicher, dass alle Python‑Abhängigkeiten installiert sind und die Umgebungsvariablen korrekt gesetzt sind.
  • Verbindungsfehler: Überprüfe Firewall‑Einstellungen und ob OLLAMA_HOST die korrekte IP/Port-Adresse enthält.

7. Ressourcen & Community


Reality‑Sound Demo


© Mixmeister (2026-01-25)