Roland Stritt, CRO bei FAST LTA aus München
Offiziell ist KI in vielen Unternehmen noch „in der Pilotphase“, inoffiziell längst Alltag – diese „Schatten-KI“ ist produktiv und bequem, aber aus Sicherheitssicht ein Blindflug
In vielen Unternehmen läuft die KI-Revolution bereits auf Hochtouren. Drei von vier Knowledge-Workern nutzen KI im Job. Mehr als die Hälfte nutzt jedoch Tools, die der IT-Abteilung und den Compliance-Verantwortlichen nicht bekannt sind. Mit Microsoft 365 Copilot und AI Agents verschärft sich die Situation dramatisch. Es geht nicht mehr nur um Tools, die Texte schreiben, sondern Agenten, die selbstständig auf Unternehmensdaten zugreifen und diese verändern, Workflows auslösen und Entscheidungen vorbereiten oder treffen sowie über Plugins und Konnektoren tief in Fachanwendungen eingreifen.
Analysten sprechen bereits von „Agent Sprawl“ – einer unkontrollierten Flut von Agenten, bei der Security- und Governance-Teams die Übersicht verlieren: Wer hat sie erstellt? Auf welche Daten greifen sie zu? Welche Aktionen führen sie aus? Die Datenlage ist eindeutig: Mitarbeiter greifen auf KI zurück nicht aus Rebellion, sondern aus pragmatischen Gründen – Produktivität, Zeitersparnis, weniger Routinearbeit. Wer KI einmal regelmäßig nutzt, will sie nicht mehr missen. Die Konsequenz restriktiver Regeln ist nicht weniger KI, sondern mehr Schatten-KI – über private Accounts, US-Clouds und BYOD-Geräte. Besonders brisant: Auch Führungskräfte und IT-Profis greifen überdurchschnittlich oft zu nicht freigegebenen Tools.
Roland Stritt, CRO beim deutschen Hard- und Softwarehersteller FAST LTA, erläutert, warum Kontrolle statt Verbot der bessere Weg ist:
„Die Frage ist nicht mehr „KI ja oder nein“, sondern: Wie können Unternehmen KI sicher, souverän und nachvollziehbar nutzen?
- Sichtbarkeit schaffen – mit kontrollierter, lokaler KI
Ohne Transparenz über genutzte KI-Tools und Agenten bleibt jede Risikoabschätzung theoretisch. Erforderlich ist ein zentraler, definierter Zugangspunkt: Mit einer lokalen Appliance wie Silent AI bündeln Unternehmen ihre KI-Nutzung an einem kontrollierten Ort – statt Dutzender Schatten-Tools im Browser. Silent AI wird direkt an bestehende Wissensquellen wie Office 365/SharePoint, Confluence, Jira, Websites oder Fileshares angebunden, ohne dass Dokumente in eine externe Cloud geladen werden. So bleibt sichtbar, welche Daten überhaupt in der KI genutzt werden.
- Governance auf Agenten ausweiten – Rollen und Rechte respektieren
Wenn KI-Agenten Entscheidungen vorbereiten oder Aktionen ausführen, müssen sie denselben Governance-Regeln folgen wie menschliche Nutzer. Silent AI respektiert das vorhandene Berechtigungsmodell (z.B. Active Directory), sodass Mitarbeitende in der KI nur auf die Inhalte zugreifen, die sie auch in den Quellsystemen sehen dürften. Durch Retrieval-Augmented Generation (RAG) aus lokalen Vektordatenbanken werden Antworten aus den bereitgestellten Datensätzen generiert – inklusive konkreter Quellenverweise direkt zurück in die Fachanwendung. Nachvollziehbare Antworten mit Quellen machen KI-Ausgaben auditierbar und reduzieren Halluzinationen deutlich.
- Schatten-KI durch souveräne Alternativen ersetzen
Schatten-KI verschwindet nur, wenn eine sichere, ebenso komfortable Alternative bereitsteht. Silent AI läuft vollständig On-Premises als Appliance im eigenen Rechenzentrum. Es gibt keine Cloud-Anbindung, kein Datentransfer in die US-Jurisdiktion, kein Risiko durch CLOUD Act etc. Volle Datensouveränität und Compliance sind gewährleistet, denn Daten, Fragen und Antworten verlassen das Unternehmen nicht. Die Appliance ist auf europäische Regularien wie DSGVO und EU AI Act ausgerichtet und eignet sich damit gerade für den Mittelstand, KRITIS-Betreiber und den öffentlichen Sektor. Für sensible Anfragen steht der Incognito-Modus bereit. Besonders kritische Fragestellungen können ohne Protokollierung im User-Profil ausgeführt werden, ohne dass Daten das System verlassen.
- Risiken von Agenten begrenzen – mit lokaler RAG-Architektur
KI-Agenten, die unkontrolliert in M365 und SaaS-Landschaften agieren, sind schwer zu „einzufangen“. Eine lokale RAG-Architektur hilft, den Aktionsradius zu begrenzen. Antworten kommen dann aus den eigenen Daten, nicht aus dem Internet. Silent AI kombiniert ein schlankes lokales LLM mit Retrieval-Augmented Generation aus lokalen Vektordatenbanken. So werden Antworten auf das eigene Wissensuniversum begrenzt und externe Halluzinationsquellen ausgeschlossen. Es ist zudem kein Nachtraining nötig. Statt komplexem Feintuning werden nur Vektordatenbanken erzeugt und aktualisiert – ressourcenschonend, reproduzierbar und ohne unkontrolliertes „Anlernen“ sensibler Inhalte. Das senkt sowohl die technische Komplexität als auch regulatorische Risiken.
- Backup, Resilienz und KI zusammendenken
Wenn KI und Agenten Inhalte massenhaft erzeugen, verändern oder löschen, wird sauberes, unveränderliches Backup zur Pflicht – nicht nur gegen Ransomware, sondern auch gegen Fehlkonfigurationen. Entscheidend ist die Integration in bestehende Zero-Loss-Strategien: FAST LTA kommt aus der Welt der sicheren Sekundärspeicher und Zero-Loss-Backups. Silent AI baut auf derselben Philosophie von Datensicherheit, Nachvollziehbarkeit und Langfristigkeit auf. Ebenso wichtig ist die Versionierbarkeit von Wissensständen. Durch lokale Datenhaltung, definierte Update-Zyklen und Kopplung an Backup- und Archivsysteme lassen sich KI-Ergebnisse immer wieder auf einen geprüften Wissensstand zurückführen – ein wichtiger Baustein für Audits und Forensik.
Fazit: Jetzt handeln, bevor der Kontrollverlust komplett ist
Die KI-Revolution in Unternehmen ist keine Zukunftsvision mehr – sie passiert gerade, mit oder ohne offizielle Freigabe. Die Frage ist: Wollen die Unternehmen sie gestalten oder nur reagieren, wenn es zu spät ist? Unternehmen, die jetzt souveräne KI-Infrastrukturen aufbauen, gewinnen nicht nur Sicherheit und Compliance – sie schaffen auch die produktive, angstfreie KI-Nutzung, die ihre Mitarbeiter bereits suchen.“
Disclaimer:
„Für den oben stehenden Beitrag sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Nutzer verantwortlich. Eine inhaltliche Kontrolle des Beitrags seitens der Seitenbetreiberin erfolgt weder vor noch nach der Veröffentlichung. Die Seitenbetreiberin macht sich den Inhalt insbesondere nicht zu eigen.“