Zum Inhalt springen

Die Illusion der DSGVO-Konformität: Warum Chatbots und KI in der Cloud nicht sicher sind

Bild, das die komplexe Beziehung zwischen den USA, der EU und Fragen des Datenschutzes visuell darstellt, mit Schwerpunkt auf dem Cloud Act und der NSA

In meiner Rolle als KI-Berater begegne ich in letzter Zeit immer wieder der Behauptung, dass Anbieter von KI- und Chatbot-Lösungen mit der DSGVO-Konformität ihrer Produkte werben. Auf den ersten Blick scheint dies eine beruhigende Versicherung für Unternehmen im Einsatz dieser Systeme zu sein, doch bei genauerer Betrachtung entpuppt sich diese vermeintliche Konformität als trügerisch. Offenbar ist vielen nicht klar, dass es nicht ausreicht, ein in Deutschland gehostetes Frontend vor OpenAIs APIs zu hängen, um datenschutzkonform Chatbots betreiben zu können.

Daher möchte ich in diesem Artikel ein kritisches und fundiertes Licht auf die aktuelle Landschaft der KI- und Chatbot-Anwendungen zu werfen, insbesondere im Hinblick auf die Einhaltung der Datenschutz-Grundverordnung (DSGVO) und die Herausforderungen, die der US Cloud Act für Unternehmen und Organisationen in Deutschland und der EU darstellt.

Exkurs: Wieso DSGVO- und TTDSG-Konformität NICHT Optional sind

In unserer digitalisierten Welt sollte die Frage nach der Notwendigkeit der DSGVO-Konformität und der Einhaltung des Telekommunikation-Telemedien-Datenschutz-Gesetzes (TTDSG) längst nicht mehr zur Diskussion stehen. Diese gesetzlichen Regelungen sind nicht nur wünschenswert, sondern absolut unerlässlich, um den Schutz und die Privatsphäre der Nutzer in einem digitalen Zeitalter zu gewährleisten, in dem Grenzen leicht überschritten werden können.

Die Datenschutz-Grundverordnung (DSGVO) stellt einen umfassenden Rahmen dar, der darauf abzielt, die Kontrolle der Bürger über ihre persönlichen Daten zu stärken und gleichzeitig das regulatorische Umfeld für internationale Geschäfte zu vereinheitlichen. Da Unternehmen und Organisationen zunehmend auf Daten angewiesen sind bietet die DSGVO eine geeignete Richtschnur, um sicherzustellen, dass diese Daten auf eine Weise verarbeitet werden, die Transparenz, Sicherheit und die Einwilligung der Nutzer respektiert.

Ebenso verhält es sich mit dem TTDSG, das spezifische Regelungen für den Datenschutz im Bereich der elektronischen Kommunikation bereithält. In einer Ära, in der fast jede Interaktion online stattfindet, von sozialen Medien bis hin zu E-Commerce, ist es entscheidend, dass Nutzer darauf vertrauen können, dass ihre Kommunikation und die dabei übertragenen Daten geschützt sind.

Die Einhaltung dieser Gesetze ist nicht nur eine rechtliche Verpflichtung, sondern auch ein Zeichen des Respekts gegenüber den Grundrechten und Freiheiten jedes Einzelnen. Es geht darum, ein Gleichgewicht zwischen den enormen Möglichkeiten, die die digitale Revolution bietet, und dem Schutz der Privatsphäre und der persönlichen Daten zu finden. Dieses Gleichgewicht ist essentiell für das Vertrauen, das die Grundlage jeder digitalen Transaktion bildet. Ohne dieses Vertrauen würden die Grundpfeiler der digitalen Wirtschaft und Gesellschaft ins Wanken geraten.

In einer Zeit, in der Datenschutzverletzungen regelmäßig Schlagzeilen machen und das Bewusstsein der Öffentlichkeit für diese Themen wächst, können Unternehmen es sich schlichtweg nicht leisten, in Bezug auf Datenschutz und Datensicherheit Kompromisse einzugehen. Die Einhaltung der DSGVO und des TTDSG sollte daher als grundlegender Bestandteil der Unternehmensethik und -praxis betrachtet werden, nicht nur, um Bußgelder zu vermeiden, sondern auch, um das Vertrauen und die Loyalität der Nutzer zu gewinnen und zu erhalten.

Kai Spriestersbach

Wo liegt nun das Problem bei KI-Anwendungen und Chatbots?

Wie schon Eingangs beschrieben, drängen gerade unzählige Anbieter auf den Markt, die vermeintlich datenschutzkonforme Chatbots oder andere Tools auf Basis generativer KI anbieten, dabei letztendlich jedoch die Nutzereingaben an die APIs und Dienste von OpenAI, Anthropic, midjourney, RunwayML und Co. weiterreichen. Selbst GPT-4 gehostet in Microsoft Azure Cloud am Standort Frankfurt ist nur ein Feigenblatt für das eigentliche Problem.

Das zentrale Problem in dieser Debatte ist der Cloud Act der USA: Ein Gesetz, das es amerikanischen Behörden ermöglicht, Zugang zu Daten zu fordern, die von US-Unternehmen gespeichert werden, unabhängig davon, ob diese Daten auf Servern in den USA oder irgendwo anders auf der Welt liegen. Dies stellt eine ernste Herausforderung für den Schutz personenbezogener Daten dar, besonders für solche, die unter die Kategorie der „besonders schutzwürdigen Daten“ fallen, wie sie in Artikel 9 der DSGVO definiert sind.

Meine Recherchen und Gespräche mit Datenschutzbeauftragten, insbesondere mit Blick auf die aktuellen Stellungnahmen des Bundesdatenschutzbeauftragten und die kritischen Perspektiven aus verschiedenen Bundesländern, haben deutlich gemacht, dass der Einsatz von Cloud-Diensten und KI-Technologien, die von US-Firmen bereitgestellt werden, ein komplexes Feld voller rechtlicher Unsicherheiten ist. Während einige Bundesländer wie Bayern, wo die deutschen Niederlassungen der größten US-Tech-Konzerne angesiedelt sind, eine weniger strenge Haltung einzunehmen scheinen, zeigen die Datenschutzbehörden in anderen Bundesländern, wie Berlin, eine kritischere Einstellung gegenüber der Nutzung solcher Technologien.

Interessant ist in diesem Zusammenhang auch der Ansatz einiger Staatskanzleien, die trotz der rechtlichen Unsicherheiten KI-Projekte starten. In diesen Projekten werden jedoch entweder ausschließlich Daten angewendet, die keinen hohen Schutzbedarf aufweisen, oder es wird auf tatsächlich datenschutzkonforme KI-Lösungen zurückgegriffen, beispielsweise Aleph Alphas Luminous Modelle, die in Sachen Leistungsfähigkeit jedoch nicht mit den derzeitigen Technologieführern aus den USA mithalten können.

Was ist mit dem Angemessenheitsbeschluß der EU?!

Richtig, dass es Angemessenheitsbeschlüsse für die Übermittlung personenbezogener Daten in eine Reihe von Drittländern seitens der Europäischen Kommission gibt, unter denen sich auch die Vereinigte Staaten von Amerika befinden, jedoch herrscht dadurch bestenfalls kurzfristige Rechtssicherheit, denn das aktuelle EU-US Data Privacy Framework ist Datenschützern allerdings nicht wirkungsvoll genug.

Die Schrems-Urteile haben die Diskussion um den Datenschutz und den Transfer personenbezogener Daten zwischen der EU und den USA in den letzten Jahren maßgeblich geprägt. Der Kern dieser Auseinandersetzung liegt in den wiederholten Versuchen der Europäischen Kommission, einen rechtlichen Rahmen zu schaffen, der den Datenaustausch über den Atlantik unter dem Gesichtspunkt des Datenschutzes regelt. Trotz dieser Bemühungen wurden bisherige Angemessenheitsbeschlüsse – zunächst das Safe-Harbor-Abkommen und später der Privacy Shield – vom Europäischen Gerichtshof (EuGH) für ungültig erklärt. Diese Entscheidungen beruhen auf Bedenken hinsichtlich des Schutzniveaus personenbezogener Daten, sobald diese in die USA übertragen werden, insbesondere im Licht der weitreichenden Zugriffsgesetze in den USA.

Die Kritik, die zu den Schrems I und II Urteilen führte, zentrierte sich um die Unvereinbarkeit der US-Überwachungsgesetze mit den strengen Datenschutzanforderungen der EU. Max Schrems, ein österreichischer Datenschutzaktivist, argumentierte erfolgreich, dass US-Unternehmen, die der Jurisdiktion des US-Cloud Acts und ähnlicher Gesetze unterliegen, nicht in der Lage sind, ein Datenschutzniveau zu garantieren, das dem in der EU geforderten gleichkommt. Diese Gesetze erlauben es US-Behörden, auf Daten zuzugreifen, die von Unternehmen gespeichert werden, selbst wenn diese Daten sich außerhalb der USA befinden.

Trotz der Einführung eines neuen Angemessenheitsbeschlusses bleiben die grundlegenden Bedenken also bestehen. Dieser Artikel auf noyb, geführt von Max Schrems, legt dar, warum der neue Angemessenheitsbeschluss die vom EuGH in Schrems II aufgezeigten Mängel nicht adressiert. Die Persistenz dieser Bedenken deutet darauf hin, dass eine dritte rechtliche Auseinandersetzung – ein „Schrems III – nicht nur möglich, sondern wahrscheinlich ist.

Angesichts dieser wiederholten juristischen Rückschläge müssen sich IT-Verantwortliche und Datenschutzbeauftragte in Unternehmen und Organisationen fragen, ob sie sich auf einen rechtlichen Rahmen verlassen können, der sich als instabil erwiesen hat. Die Entscheidung, personenbezogene Daten auf Basis eines Angemessenheitsbeschlusses zu übertragen, der möglicherweise erneut vom EuGH gekippt wird, birgt signifikante rechtliche und reputative Risiken.

In diesem Kontext wird deutlich, dass die Suche nach stabilen und langfristigen Lösungen für den internationalen Datentransfer eine der dringlichsten Herausforderungen im Bereich des Datenschutzes bleibt. Unternehmen müssen sich mit den tiefgreifenden Implikationen dieser Urteile auseinandersetzen und Strategien entwickeln, die nicht nur den aktuellen rechtlichen Anforderungen genügen, sondern auch zukünftigen Entwicklungen standhalten können.

Aber Microsofts Azure Cloud wirbt doch mit DSGVO-konformität

Der Azure-Vertrieb von Microsoft argumentiert gerne damit, dass sogar die Bayerische Staatskanzlei KI-Projekte mit GPT-4, gehostet von Microsoft Azure, umsetzt. Wie lässt sich dies mit den Datenschutzbedenken, die durch die Schrems-Urteile und den US Cloud Act aufgeworfen wurden, vereinbaren? Die Antwort liegt in den unterschiedlichen Ansätzen zum Datenschutz und der Art der verarbeiteten Daten:

Wenn sich Projekte auf Daten konzentrieren, die keinen hohen Schutzbedarf aufweisen, gibt es auch kein Problem mit dem Datenschutz. In der Tat verfügen Staatskanzleien über eine Vielzahl von Informationen, die nicht unter die besonders schutzwürdigen Datenkategorien fallen, wie sie in Artikel 9 der DSGVO definiert sind. Solche Daten könnten etwa allgemeine Verwaltungsinformationen oder öffentlich zugängliche Daten umfassen. Für diese Art von Daten ist der Einsatz von Cloud-Diensten wie Microsoft Azure rechtlich unproblematischer, da die Datenschutzanforderungen weniger streng sind.

Dass Microsofts Bemühungen um eine souveräne Cloud nicht ausreichen, lässt sich auch daran ablesen, dass man nun mit der Delos Cloud auf eine souveräne und sichere Cloud-Plattform für die Digitalisierung des öffentlichen Diensts in Deutschland setzt.

Wieso dann nicht je nach Anwendungsfall „sichere“ oder „unsichere“ KI einzusetzen?

Wenn wir tatsächlich eine Steigerung von Qualität und Effizienz anstreben, ist eine nahtlose Integration in die täglichen Abläufe unerlässlich. Daher sollten Unternehmen danach streben, KI- und Chatbot-Lösungen zu implementieren, die nicht nur in puncto Funktionalität mit den modernsten Systemen wie ChatGPT mithalten können, sondern auch universell einsetzbar sind.

Das Ziel muss es sein, eine Plattform zur Verfügung zu stellen, die so umfassend ist, dass sie jegliche Anforderungen erfüllt, ohne dass Mitarbeiter:innen bei jeder Aufgabe abwägen müssen, ob das Tool geeignet ist oder nicht. Insbesondere kann und darf es nicht die Aufgabe der Mitarbeiterinnen und Mitarbeiter sein, jedes mal entscheiden zu müssen, welches Schutzniveau die Daten gerade bedürfen, die verarbeitet werden sollten.

Doch in der Realität stehen Unternehmen hier vor einer großen Hürde: Die Einhaltung strenger Datenschutzrichtlinien im Hinblick auf die Zukunftssicherheit schränkt die Auswahl der verfügbaren Technologien erheblich ein:

Derzeit erfüllen nur europäische KI-Unternehmen, die explizit keine Rechenzentren amerikanischer Konzerne nutzen, diese Anforderungen!

Kai Spriestersbach

Die Werbung vieler Anbieter mit DSGVO-Konformität ihrer KI- oder Chatbot-Lösungen hält einer genauen Prüfung nicht stand, insbesondere wenn es um die Verarbeitung besonders schutzwürdiger Daten geht!

Der Cloud Act der USA schafft eine rechtliche Grauzone, in der im Zweifel US-Behörden Zugriff auf Daten haben könnten, selbst wenn diese in Rechenzentren in Deutschland oder der EU gespeichert werden.

Wirkliche Sicherheit bieten demnach nur solche KI-Tools, deren gesamte Infrastruktur von Nicht-US-Unternehmen innerhalb der EU betrieben werden.

Als Fazit meiner Auseinandersetzung mit diesem Thema möchte ich betonen, wie wichtig es ist, dass wir als Nutzer, Unternehmen und Organisationen eine bewusste und informierte Wahl treffen, wenn es um den Einsatz von KI- und Chatbot-Technologien geht. Wir müssen die realen Bedingungen und rechtlichen Rahmenbedingungen, unter denen diese Technologien operieren, verstehen und dürfen uns nicht blind auf Werbeversprechen verlassen. Datenschutz ist das Fundament unserer digitalen Gesellschaft und muss als solches geschützt und ernst genommen werden.

Datenschutzkonforme KI-Tools und Systeme

Am Ende dieses Artikels möchte ich eine Liste anbieten, mit Anbietern und Tools, die meiner Kenntnis nach wirklich ohne APIs oder Hosting von US-Unternehmen auskommen.

Leider gibt es von derartigen, echten souveränen Anbietern derzeit nur sehr wenige, so setzt beispielsweise selbst T-Systems angeblich souveräne Cloud auf Googles Cloudinfrastruktur auf, während Hyperscaler wie IONOS oder plusserver noch keine NVIDIA H100 GPU-Instanzen anbieten.

Über Hinweise und Empfehlungen an [email protected] freue ich mich daher sehr und werde die Liste laufend erweitern!

Kai Spriestersbach

Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer und digitaler Stratege mit einem Master-Abschluss in Web Science. Er ist Inhaber von AFAIK und wpfox und verfügt über mehr als 20 Jahre Erfahrung im Aufbau und der Optimierung von webbasierten Geschäftsmodellen. Als einer der erfahrensten Search Marketing Experten im deutschsprachigen Raum hat er mehr als 25 Vorträge auf SEO- und Online-Marketing-Konferenzen in Deutschland und Österreich gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt und sich als Experte für die Textgenerierung mit Hilfe künstlicher Intelligenz etabliert. Seine Karriere begann er mit einer Ausbildung zum Mediengestalter (IHK), bevor er den Bachelor of Science (B.Sc) in E-Commerce absolvierte. Anschließend erwarb er den Master of Science (M.Sc) in Web Science und forscht aktuell an der RPTU im Bereich angewandter generativer KI.

×