Shadow AI ist nicht einfach eine Governance-Frage — es ist ein fundamentales Sicherheitsproblem, das deutsche Unternehmen unterschätzen. Die Technologie ist zu attraktiv: Mitarbeiter können ChatGPT oder ähnliche Dienste sofort nutzen, ohne komplexe Installationen oder IT-Freigaben abzuwarten. Das führt zu massenhafter unkontrollierter Adoption, besonders in Bereichen wie Kundenservice, Softwareentwicklung und Verwaltung.
Die Datenlecks beginnen oft harmlos. Ein Entwickler debuggt Code und kopiert Skripte mit hardcodierten API-Keys in ChatGPT. Ein Kundenservice-Mitarbeiter verarbeitet Kundendaten in Claude, um schneller Anfragen zu bearbeiten. Ein Finanzanalyst nutzt eine unapprovisierte KI-Anwendung für Budgetprognosen. Sobald diese Daten eine externe KI-Plattform erreichen, verliert das Unternehmen die Kontrolle — und möglicherweise die Sichtbarkeit. Es gibt keine Audit-Trails, keine vollständige Nachverfolgung. Unter der DSGVO oder bei Unternehmen mit sensiblen Kundendaten kann dies zu meldepflichtigen Datenschutzverletzungen führen.
Ein zweites großes Risiko: Entwicklungs-Teams integrieren KI-APIs oder Drittanbieter-Modelle direkt in Anwendungen ein — ohne formale Security-Reviews. Diese Integrationen öffnen neue Angriffsflächen, die Sicherheitsteams nicht überwachen können. Jede unapprovisierte KI-Anwendung kann ungeprüfte oder sogar manipulierte APIs enthalten. Gleichzeitig werden Zugänge über persönliche Konten oder Geräte außerhalb der organisatorischen Sicherheitskontrollen abgewickelt.
Die technische Komponente verschärft das Problem: KI-Plattformen laufen über HTTPS-Verbindungen, die Standard-Firewall-Regeln nicht inspizieren können — ohne spezielle SSL-Inspection-Technologie, die viele deutsche Organisationen gar nicht deployt haben. KI-Schnittstellen verhalten sich zudem anders als traditionelle Anwendungen, weshalb Standard-Sicherheitstools ihre Aktivitäten nicht angemessen protokollieren.
Hinzu kommt ein Identity-Access-Management-Alptraum: Mitarbeiter erstellen mehrere Konten auf verschiedenen KI-Plattformen. Entwickler verbinden KI-Tools mit Systemen über Service-Accounts. Diese nicht-humanen Identitäten (NHIs) bleiben unüberwacht und unkontrolliert — ein klassischer Weg zu unbefugtem Zugriff.
Deutsche Unternehmen sollten aufhören, KI-Tools kategorisch zu blockieren. Stattdessen braucht es ein aktives Management: Sichtbarkeit schaffen, Richtlinien entwickeln, Identitäten governancen, Audit-Trails etablieren. Security-Teams müssen den Übergang von “alles blockieren” zu “sicher ermöglichen” vollziehen — eine Aufgabe, die viele noch nicht bewältigen.
