
Datenschutz und DSGVO:
Generative KI im Spannungsfeld der Regulierung
Künstliche Intelligenz im Arbeitsalltag: Effizient – aber auf wessen Kosten?
Der Einsatz von generativer KI wie ChatGPT oder Claude verändert unsere Arbeitswelt radikal. Laut PwC nutzen bereits 45 % der Unternehmen und 38 % der Berufstätigen generative KI-Tools im Berufsalltag (PwC, 2024). Besonders Büroangestellte greifen vermehrt auf KI zurück – ganze 56 % laut SnapLogic (2021).
Gründe dafür sind klar: schnellere Bearbeitung von Aufgaben, kreative Impulse und qualitativ hochwertigere Ergebnisse. Doch während Effizienzgewinne gefeiert werden, wird ein Punkt oft übersehen: die Preisgabe sensibler Daten.
Versehentlich geteilt – und für immer verloren?
Ein kurzer Check der Rechtschreibung, eine spontane Analyse einer Excel-Tabelle oder ein JavaScript-Fehler – viele geben dabei sensible Daten ein, ohne groß nachzudenken. Doch was passiert mit diesen Daten?
Laut Cyberhaven (2024) stieg der Anteil sensibler Unternehmensdaten, die in Sprachmodelle eingegeben wurden, innerhalb eines Jahres von 11 % auf 27 %.
Und schlimmer: Rund 73 % dieser Eingaben erfolgen über private Konten, nicht über unternehmensgeprüfte Zugänge. Private KI-Accounts dürfen diese Daten jedoch oft zum Training ihrer Modelle verwenden – ein massives Risiko.
38 % der KI-Nutzer:innen geben offen zu, bereits sensible Daten ohne Wissen des Arbeitgebers geteilt zu haben (Cyberhaven, 2024).
Die häufigsten Kategorien:
45,77 % Kundendaten
27 % personenbezogene Daten von Mitarbeitenden
15 % rechtliche oder finanzielle Details
6,88 % sicherheitsrelevante Informationen
5,64 % sensibler Code (Harmonic, 2025)
Das Problem: Wenn Effizienz zum Risiko wird
Die Integration von generativer KI in den Arbeitsalltag bringt erhebliche Datenschutzrisiken mit sich:
Unkontrollierte Datenweitergabe: Mitarbeitende geben sensible Informationen wie Kundendaten, Mitarbeiterdaten oder Geschäftsgeheimnisse in KI-Tools ein, oft ohne Wissen der IT-Abteilung.
Verstoß gegen Datenschutzgesetze: Solche Praktiken können gegen die Datenschutz-Grundverordnung (DSGVO) verstoßen, insbesondere wenn Daten ohne angemessene Rechtsgrundlage verarbeitet oder an Dritte weitergegeben werden.
Nichteinhaltung von Transparenzpflichten: Unternehmen sind verpflichtet, Betroffene über die Verarbeitung ihrer Daten zu informieren. Die Nutzung von KI-Tools ohne entsprechende Information verletzt diese Pflicht.
Unsere Lösung: Lokale Open-Source-Sprachmodelle als datenschutzkonforme Alternative
Die Implementierung lokal gehosteter Open-Source-Sprachmodelle bietet eine effektive Lösung:
Das Unternehmen behält die Datenhoheit, denn alle Daten verbleiben innerhalb der Unternehmensinfrastruktur, wodurch das Risiko unkontrollierter Datenweitergabe minimiert wird.
Einhaltung der DSGVO: Durch die interne Verarbeitung können Unternehmen sicherstellen, dass alle Anforderungen der DSGVO erfüllt werden, einschließlich Transparenz, Datenminimierung und Sicherheit.
Da keine Daten an externe Anbieter übermittelt werden, entfällt das Risiko von Datenübertragungen in Länder mit unzureichendem Datenschutzniveau.
Die Nutzung solcher Modelle ermöglicht es Unternehmen, die Vorteile von KI zu nutzen, ohne Kompromisse beim Datenschutz einzugehen.