Zum Inhalt springen

Ollama.

KI-Modelle lokal laufen lassen

Website ↗
[C] CONTENT

Wie wir den Partner einsetzen.

Ollama ist unser Standard-Werkzeug für lokale LLM-Deployments. Ein Container, ein Modell-Pull, und Sie haben Mistral, Qwen, Phi oder Gemma auf Ihrer eigenen Hardware - inklusive OpenAI-kompatibler API.

Einsatzszenarien:

  • Sensible Kundschaft (Kanzleien, Arztpraxen, öffentliche Auftraggeber), die keine Daten an Dritte schicken darf
  • Air-Gapped-Deployments in Produktionsumgebungen
  • Prototypen, bevor Sie sich für Hyperscaler entscheiden
  • Kostenlose lokale Chatbots auf stärkerer Workstation-Hardware

Typische Hardware bei uns: Proxmox-Knoten mit NVIDIA-GPU (RTX 4090 / A5000) oder Apple Silicon Macs für Inferenz im kleinen Team.

[K] KONTAKT

Ollama im Einsatz besprechen.