top of page

Datenschutzfalle ChatGPT & Co.: Warum es keine sichere Version für Unternehmen gibt

  • Autorenbild: Yasmin PREDICTA|ME
    Yasmin PREDICTA|ME
  • 6. Nov.
  • 4 Min. Lesezeit

Bei der Arbeit mit KI ist Sicherheit oberstes Gebot!
Bei der Arbeit mit KI ist Sicherheit oberstes Gebot!

Künstliche Intelligenz (KI) wie ChatGPT ist in unserem Leben angekommen – auch im Job. Viele Unternehmer wissen mittlerweile, dass die Standard- und Gratisversionen der Systeme nicht rechtssicher sind und daher nicht mit vertraulichen Informationen und firmeninternen Daten gefüttert werden sollten. Doch gerade im geschäftlichen Kontext, kursiert immer noch die Meinung, dass die KI-Versionen für Unternehmen diese Rechtssicherheit im Sinne der europäischen Gesetzgebung gewährleisten. 


Wir beleuchten heute die Gründe, warum das nicht so ist und worauf Sie bei der Nutzung von KI im Unternehmen achten sollten:


1.  Finger weg von kostenlosen Standardversionen im Unternehmen!


Bei den kostenlosen Standardversionen oder älteren Varianten von ChatGPT & Co. besteht ein massives Rechtsrisiko: Denn eingegebene Daten werden verarbeitet und standardmäßig für das Training des KI-Modells verwendet. So steht es beispielsweise in den Nutzungsbedingungen und der Privacy Policy von OpenAI.

Die Konsequenz: Firmeninterne oder personenbezogene Daten, Betriebsgeheimnisse oder andere vertrauliche Informationen, die von Mitarbeitern eingegeben werden, können in zukünftige Versionen des Sprachmodells einfließen. Dadurch können firmeneigene Daten vom KI-Modell als Antworten ausgegeben und so von Dritten genutzt werden.

Und das ist kein Kavaliersdelikt, sondern verstößt mehrfach gegen geltendes Recht:


  • Firmengeheimnisse werden öffentlich zugänglich.

  • Man begeht mit der Eingabe personenbezogener Daten sofort einen Verstoß gegen die DSGVO, weil die komplette Datenhoheit verloren geht. Einmal in offenen Systemen gelandet, hat man selbst keinen Zugriff mehr auf die Daten – kann sie also weder berichtigen noch löschen noch über ihre Verwendung Auskunft erteilen.


2. Auch persönliche Bezahl-Versionen oder Business-Accounts bieten keinen ausreichenden Schutz


Auch wenn es oft anders dargestellt wird, scheitern persönliche Bezahlversionen oder Business-Lösungen offener KI-Systeme für Unternehmen an den rechtlichen Anforderungen in der EU und Deutschland. Denn selbst wenn vertraglich vereinbart ist, dass die Daten nicht für Trainings der Modelle genutzt werden, werden sie dennoch verarbeitet. Damit bleibt mindestens der Verstoß gegen eine zentrale Anforderung der DSGVO bestehen, wenn es um die Verarbeitung personenbezogener Daten geht.

Auch eine Auftragsverarbeitungsvereinbarung (AVV) mit dem Modell-Anbieter bietet keine Rechtssicherheit. Zwar ist zum Beispiel die Löschung der Daten theoretisch möglich, wird aber in der Praxis durch den sogenannten CLOUD Act torpediert.


3. Der CLOUD-Act: Das US-Recht als Dauerrisiko


Die bekanntesten offenen Systeme gehören US-Unternehmen wie z.B. OpenAI. Die eingegebenen Daten werden demnach typischerweise auf Servern in den USA verarbeitet. Es erfolgt also ein Datentransfer in ein Drittland.

Aufgrund von Gesetzen wie dem sogenannten CLOUD Act von 2018 haben US-Behörden Zugriff auf diese Server und damit auch auf ihre Daten. Nachzulesen ist das unter anderem auf congress.gov unter dem Stichwort Cloud Act. Diese unkontrollierte Datenübertragung in die USA gilt als eines der kritischsten Verstöße gegen deutsche Rechtsprechung.


Spezialisierte Unternehmenslösungen, wie ChatGPT Enterprise oder Business entschärfen zwar vertragliche Risiken, doch das strukturelle, rechtliche Risiko der US-amerikanischen Gerichtsbarkeit bleibt bestehen.


Denn der CLOUD Act erlaubt US-Behörden, unter bestimmten Umständen weltweit Daten von US-Unternehmen auszulesen, selbst wenn diese in Europa gespeichert sind. Zwar hat der damalige Bundesbeauftragte für den Datenschutz und die Informationsfreiheit Professor Ulrich Kelber nach einem Urteil des Europäischen Gerichtshofs 2020 festgehalten, dass für den Datenaustausch mit den USA besondere Schutzmaßnahmen ergriffen werden müssen. Doch unabhängig von den daraufhin erfolgten vertraglichen Zusicherungen an europäische Firmen müssen US-Firmen wie OpenAI in der Linie den US-Gesetzen Folge leisten.


Und auch wenn das aktuelle EU-US Data Privacy Framework (DPF) von 2023 den transatlantischen Datentransfer rechtlich regelt, sehen viele Datenschutzexperten darin eine rechtliche Grauzone, da die Möglichkeit des staatlichen Zugriffs zwar formal eingeschränkt, aber eben nicht ausgeschlossen ist.


4. Menschliches Fehlverhalten und Manipulationen


Das wohl größte Risiko für Gesetzesverstöße im Umgang mit KI liegt wohl in der Eingabe vertraulicher Daten durch Mitarbeiter (z. B. interne E-Mails, Code-Ausschnitte oder Meeting-Protokolle zur Zusammenfassung). Um die falsche Wahl von Systemen und menschliches Fehlverhalten zu vermeiden, sind Unternehmen seit Februar 2025 gemäß des EU AI Acts zur KI-Kompetenz verpflichtet nachzuweisen, dass Mitarbeiter wissen,


  • Wie das genutzte KI-System funktioniert

  • Was es kann und was nicht

  • Wie es korrekt angewendet wird

  • Welche Risiken mit der KI-Nutzung einhergehen, z.B. durch sogenannte vergiftete Dokumente, die von Cyber-Kriminellen eingespeist werden und falsche Antworten provozieren und Halluzinationen Vorschub leisten.

 

Über diese internen Vorgaben hinaus müssen Unternehmen sicherstellen, dass auch externe Partner und Dienstleister, die z. B. ein System trainieren, betreiben oder konfigurieren, entsprechend geschult oder qualifiziert sind.

Spätestens ab dem 3. August 2026 wird die Einhaltung dieser Vorgaben kontrolliert. Verstöße stellen eine schwerwiegende Verletzung von Geheimhaltungspflichten dar und sind dann mit empfindlichen Geldstrafen verbunden.


Die kontrollierende Behörde ist noch nicht benannt, wird aber voraussichtlich die Bundesnetzagentur sein, wie das Handelsblatt Mitte des Jahres schreibt.


Wie kann eine sichere, rechtskonforme Lösung aussehen?


Natürlich besteht zum einen die dringende Notwendigkeit, Mitarbeiter zu schulen und klare interne Richtlinien festzulegen, um die Eingabe sensibler Daten in externe KI-Tools zu verhindern.

Die Nutzung von ChatGPT Enterprise oder Business ist der Standardversion aufgrund der vertraglichen Zusicherungen überlegen. Aber auch diese Versionen sind nicht absolut sicher.

Das strukturelle, rechtliche Risiko des US-Gerichtsstands kann nur durch den Einsatz von rein europäischen oder im eigenen Rechenzentrum betriebenen Lösungen vollständig eliminiert werden, wie neben Datenschutz-Experten und Fachanwälte für IT-Recht auch der Branchenverband BitCom in seinem Leitfaden „KI und Datenschutz“ betont.

Wer keine eigene IT-Abteilung hat, um das sicherzustellen, sollte auf einen Dienstleister vertrauen, der firmeneigene KI-Systeme in abgeschotteter technischer Umgebung anbietet. Diese KI-Systeme haben zwei essentielle Vorteile:


  1. Sie sind ganz spezifisch auf das Unternehmen trainiert, was sicherstellt, dass die KI ihre Antworten korrekt und maßgeschneidert ausliefert.

  2. Zum anderen gewährleistet die abgeschlossene Umgebung innerhalb des europäischen Rechtsraums, die sichere, unbegrenzte und sorgenfreie Arbeit mit Unternehmensdaten.

Nur so abgesichert können Unternehmen das volle Automatisierungspotenzial von KI ausschöpfen, ihre Produktivität zuverlässig steigern und wettbewerbsfähig bleiben.

 

Kommentare


bottom of page