Transparenz:
Vertrauen ist gut – aber wer trainiert hier eigentlich mit?

Das Problem:
KI-Modelle als Blackbox – ein Albtraum für Datenschutzbeauftragte

Große kommerzielle Sprachmodelle wie ChatGPT oder Claude brauchen Trainingsdaten – viele davon. Doch was genau passiert mit den eingegebenen Daten?
Die Antwort ist oft: "Keine Ahnung." Und genau das ist das Problem.

Die Anbieter kommunizieren ihre Datennutzung schwammig, wenn überhaupt.
OpenAI wurde 2023 in Italien vorübergehend gesperrt, weil personenbezogene Daten ohne rechtliche Grundlage für Trainingszwecke verwendet wurden.
Google geriet in die Kritik, weil sie Inhalte wie Social-Media-Posts, Fotos und Playlists zum Trainieren von KI nutzten – ohne explizite Zustimmung.

Das Ergebnis? Ein wachsendes Misstrauen:

  • 75 % der Unternehmen denken über ein Verbot von Tools wie ChatGPT nach.

  • 83 % sehen generative KI als Sicherheitsrisiko (BlackBerry, 2023).

  • 81 % der US-Verbraucher:innen glauben, dass KI-Unternehmen persönliche Daten zweckentfremden (Pew Research Center, 2023).

Und ja, DSGVO-konform ist das nicht:

Art. 5 Abs. 1 lit. a DSGVO: Datenverarbeitung muss transparent und nachvollziehbar sein.
Art. 13 DSGVO: Informationspflicht gegenüber Betroffenen.
Art. 25 DSGVO: Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellungen – spoiler: eine Blackbox ist das Gegenteil.


Unsere Lösung:
Sichtbar, sicher, selbstbestimmt – dank Open-Source-Sprachmodell

Mit einem selbst gehosteten Open-Source-Modell behalten Unternehmen die volle Kontrolle: Daten verlassen die Infrastruktur nicht, Modellverhalten und Sicherheitsmaßnahmen sind transparent dokumentierbar. So werden nicht nur die Anforderungen der DSGVO erfüllt – etwa zu Transparenz (Art. 13), Zweckbindung (Art. 5) oder Technikgestaltung (Art. 25) – sondern auch das Vertrauen von Kund:innen und Mitarbeitenden gestärkt.
Ohne versteckte Datennutzung, ohne Abhängigkeit von Drittanbietern.


Das Ergebnis?

Vertrauen. Kontrolle. Sicherheit.

Interessante Artikel zum Thema Sprachmodelle: