BeratungDigitalisierungSchulung

Lokale KI & Self-Hosting Workshop

Eigene KI-Modelle, eigene Infrastruktur, eigene Regeln. In diesem Workshop lernt Ihr IT-Team, wie Sie mit Docker, Ollama und llama.cpp lokale KI-Systeme aufbauen und betreiben — unabhängig von Cloud-Anbietern, DSGVO-konform und auf Hardware, die Sie kontrollieren.

Cloud-KI ist bequem — aber sie bedeutet Abhängigkeit: von Preiserhöhungen, von Verfügbarkeit, von Datenschutz-Entscheidungen, die jemand anderes trifft. Lokale KI-Modelle und Self-Hosting geben Ihnen die Kontrolle zurück — und dank Open Source sind die Werkzeuge dafür mittlerweile erstaunlich ausgereift.

In diesem Workshop lernt Ihr IT-Team, wie Sie KI-Modelle auf eigener Hardware betreiben. Sie installieren Ollama und llama.cpp, vergleichen verschiedene Open-Source-Modelle und lernen, deren Leistung für Ihre Anforderungen zu optimieren. Parallel bauen Sie eine Docker-basierte Infrastruktur auf, mit der Sie KI-Tools, Vektordatenbanken und Automatisierungsplattformen selbst hosten.

Ein besonderer Fokus liegt auf der praktischen Umsetzbarkeit: Welche Hardware brauchen Sie wirklich? Wie vergleichen sich lokale Modelle mit Cloud-APIs? Wo lohnt sich Self-Hosting, und wo bleibt die Cloud die bessere Wahl? Sie erarbeiten eine realistische Einschätzung für Ihr Unternehmen.

Am Ende des Workshops hat Ihr Team die Kompetenz, lokale KI-Infrastruktur eigenständig aufzubauen, zu warten und weiterzuentwickeln — unabhängig von Cloud-Anbietern und mit voller DSGVO-Konformität.

Auf einen Blick

Preis
Ab 1.200 €/Tag
Dauer
8 Stunden
Ort
Online oder Inhouse
Niveau
Fortgeschrittene
  • Workshop: Lokale KI-Modelle und Infrastruktur auf eigener Hardware betreiben
  • Zielgruppe: IT-Teams und Systemadministratoren mit Linux-Kenntnissen
  • Technik: Ollama, llama.cpp, Docker, Vektordatenbanken, Automatisierungstools
  • Fokus: Unabhängigkeit von Cloud-Anbietern, DSGVO-Konformität, realistische Kosten-Nutzen-Bewertung
  • Preis: Ab 800 €/Tag — 8 Stunden, Online oder Inhouse

Die Ausgangslage

Viele Unternehmen sind bei KI vollständig auf Cloud-Dienste angewiesen — mit steigenden Kosten, Datenschutzrisiken und der Abhängigkeit von wenigen Anbietern. Gleichzeitig sind lokale Open-Source-Modelle mittlerweile leistungsfähig genug für viele Unternehmensanwendungen. Doch den IT-Teams fehlt oft das Know-how, um diese Modelle auf eigener Infrastruktur zu installieren, zu konfigurieren und produktiv zu betreiben.

Was Sie lernen werden

Lokale KI-Modelle (Ollama, llama.cpp) installieren und konfigurieren

Docker-basierte Infrastruktur für KI-Tools und Vektordatenbanken aufbauen

Hardware-Anforderungen realistisch einschätzen und Kosten-Nutzen bewerten

Performance lokaler Modelle durch Quantisierung und GPU-Optimierung verbessern

Lokale KI-Infrastruktur sicher betreiben, monitoren und warten

Zielgruppe

Dieser Workshop richtet sich an IT-Teams, Systemadministratoren und technische Projektleiter, die KI-Infrastruktur unabhängig von Cloud-Anbietern aufbauen wollen. Linux- und Kommandozeilenkenntnisse werden vorausgesetzt, Docker-Erfahrung ist hilfreich aber nicht zwingend.

Voraussetzungen

Grundlegende Linux- und Kommandozeilenkenntnisse

Ihre Vorteile

1Unabhängigkeit von Cloud-Anbietern

Keine Preiserhöhungen, keine Verfügbarkeitsprobleme, keine externen Datenschutz-Entscheidungen. Sie betreiben Ihre KI auf Ihrer eigenen Hardware.

2Volle DSGVO-Konformität

Alle Daten bleiben in Ihrem Netzwerk. Lokale KI-Modelle verarbeiten Informationen, ohne dass sie Ihr Unternehmen verlassen.

3Realistische Kosten-Nutzen-Bewertung

Sie erfahren, wo Self-Hosting sinnvoll ist und wo die Cloud die bessere Wahl bleibt — für fundierte Investitionsentscheidungen.

4Open Source auf Enterprise-Niveau

Die Open-Source-Modelle und Tools, die Sie hier kennenlernen, ermöglichen KI-Fähigkeiten, die bis vor kurzem nur mit teuren Enterprise-Lizenzen zugänglich waren.

Der Ablauf

1

Grundlagen: Lokale KI-Landschaft

Überblick über Open-Source-Modelle, Hardware-Anforderungen und den Vergleich mit Cloud-Diensten — was ist heute realistisch machbar?

2

Ollama und llama.cpp einrichten

Installation, Konfiguration und Modellverwaltung: Sie bringen lokale Sprachmodelle auf Ihrer eigenen Hardware zum Laufen.

3

Docker-basierte Infrastruktur aufbauen

Container für KI-Tools, Vektordatenbanken und Automatisierungsplattformen aufsetzen — reproduzierbar und wartbar.

4

Performance und Optimierung

Modell-Quantisierung, GPU-Nutzung, Caching und Lastverteilung — damit Ihre lokale KI auch unter Realbedingungen performant läuft.

5

Betrieb und Wartung

Monitoring, Updates, Sicherheit und Backup-Strategien für den dauerhaften Betrieb Ihrer lokalen KI-Infrastruktur.

Klingt nach Ihrer Idee?

Lassen Sie uns gemeinsam prüfen, ob sich Ihre Idee jetzt rechnet.

Hier könnte ein Cookie-Banner stehen.

Tut es aber nicht — diese Website verwendet keine Cookies. Stattdessen: unser KI-Berater.

Datenschutzerklärung →