Lokale KI & Self-Hosting Workshop
Eigene KI-Modelle, eigene Infrastruktur, eigene Regeln. In diesem Workshop lernt Ihr IT-Team, wie Sie mit Docker, Ollama und llama.cpp lokale KI-Systeme aufbauen und betreiben — unabhängig von Cloud-Anbietern, DSGVO-konform und auf Hardware, die Sie kontrollieren.
Cloud-KI ist bequem — aber sie bedeutet Abhängigkeit: von Preiserhöhungen, von Verfügbarkeit, von Datenschutz-Entscheidungen, die jemand anderes trifft. Lokale KI-Modelle und Self-Hosting geben Ihnen die Kontrolle zurück — und dank Open Source sind die Werkzeuge dafür mittlerweile erstaunlich ausgereift.
In diesem Workshop lernt Ihr IT-Team, wie Sie KI-Modelle auf eigener Hardware betreiben. Sie installieren Ollama und llama.cpp, vergleichen verschiedene Open-Source-Modelle und lernen, deren Leistung für Ihre Anforderungen zu optimieren. Parallel bauen Sie eine Docker-basierte Infrastruktur auf, mit der Sie KI-Tools, Vektordatenbanken und Automatisierungsplattformen selbst hosten.
Ein besonderer Fokus liegt auf der praktischen Umsetzbarkeit: Welche Hardware brauchen Sie wirklich? Wie vergleichen sich lokale Modelle mit Cloud-APIs? Wo lohnt sich Self-Hosting, und wo bleibt die Cloud die bessere Wahl? Sie erarbeiten eine realistische Einschätzung für Ihr Unternehmen.
Am Ende des Workshops hat Ihr Team die Kompetenz, lokale KI-Infrastruktur eigenständig aufzubauen, zu warten und weiterzuentwickeln — unabhängig von Cloud-Anbietern und mit voller DSGVO-Konformität.
Auf einen Blick
- •Workshop: Lokale KI-Modelle und Infrastruktur auf eigener Hardware betreiben
- •Zielgruppe: IT-Teams und Systemadministratoren mit Linux-Kenntnissen
- •Technik: Ollama, llama.cpp, Docker, Vektordatenbanken, Automatisierungstools
- •Fokus: Unabhängigkeit von Cloud-Anbietern, DSGVO-Konformität, realistische Kosten-Nutzen-Bewertung
- •Preis: Ab 800 €/Tag — 8 Stunden, Online oder Inhouse
Die Ausgangslage
Viele Unternehmen sind bei KI vollständig auf Cloud-Dienste angewiesen — mit steigenden Kosten, Datenschutzrisiken und der Abhängigkeit von wenigen Anbietern. Gleichzeitig sind lokale Open-Source-Modelle mittlerweile leistungsfähig genug für viele Unternehmensanwendungen. Doch den IT-Teams fehlt oft das Know-how, um diese Modelle auf eigener Infrastruktur zu installieren, zu konfigurieren und produktiv zu betreiben.
Was Sie lernen werden
Lokale KI-Modelle (Ollama, llama.cpp) installieren und konfigurieren
Docker-basierte Infrastruktur für KI-Tools und Vektordatenbanken aufbauen
Hardware-Anforderungen realistisch einschätzen und Kosten-Nutzen bewerten
Performance lokaler Modelle durch Quantisierung und GPU-Optimierung verbessern
Lokale KI-Infrastruktur sicher betreiben, monitoren und warten
Zielgruppe
Dieser Workshop richtet sich an IT-Teams, Systemadministratoren und technische Projektleiter, die KI-Infrastruktur unabhängig von Cloud-Anbietern aufbauen wollen. Linux- und Kommandozeilenkenntnisse werden vorausgesetzt, Docker-Erfahrung ist hilfreich aber nicht zwingend.
Voraussetzungen
Grundlegende Linux- und Kommandozeilenkenntnisse
Ihre Vorteile
1Unabhängigkeit von Cloud-Anbietern
Keine Preiserhöhungen, keine Verfügbarkeitsprobleme, keine externen Datenschutz-Entscheidungen. Sie betreiben Ihre KI auf Ihrer eigenen Hardware.
2Volle DSGVO-Konformität
Alle Daten bleiben in Ihrem Netzwerk. Lokale KI-Modelle verarbeiten Informationen, ohne dass sie Ihr Unternehmen verlassen.
3Realistische Kosten-Nutzen-Bewertung
Sie erfahren, wo Self-Hosting sinnvoll ist und wo die Cloud die bessere Wahl bleibt — für fundierte Investitionsentscheidungen.
4Open Source auf Enterprise-Niveau
Die Open-Source-Modelle und Tools, die Sie hier kennenlernen, ermöglichen KI-Fähigkeiten, die bis vor kurzem nur mit teuren Enterprise-Lizenzen zugänglich waren.
Der Ablauf
Grundlagen: Lokale KI-Landschaft
Überblick über Open-Source-Modelle, Hardware-Anforderungen und den Vergleich mit Cloud-Diensten — was ist heute realistisch machbar?
Ollama und llama.cpp einrichten
Installation, Konfiguration und Modellverwaltung: Sie bringen lokale Sprachmodelle auf Ihrer eigenen Hardware zum Laufen.
Docker-basierte Infrastruktur aufbauen
Container für KI-Tools, Vektordatenbanken und Automatisierungsplattformen aufsetzen — reproduzierbar und wartbar.
Performance und Optimierung
Modell-Quantisierung, GPU-Nutzung, Caching und Lastverteilung — damit Ihre lokale KI auch unter Realbedingungen performant läuft.
Betrieb und Wartung
Monitoring, Updates, Sicherheit und Backup-Strategien für den dauerhaften Betrieb Ihrer lokalen KI-Infrastruktur.
Zu diesem Thema bieten wir auch
Klingt nach Ihrer Idee?
Lassen Sie uns gemeinsam prüfen, ob sich Ihre Idee jetzt rechnet.