Kurz vor dem chinesischen Neujahr positionierte sich China Anfang 2025 mit DeepSeek im internationalen Wettlauf um die größten Sprachmodelle. Medial wurde nicht nur ihre Leistungsfähigkeit und Effizienz heiß diskutiert, sondern auch ihr Compliance-Standard. Einer der Treiber war vor allem die italienische Datenschutzbehörde. Ein wahres Déjà-vu zum Frühjahr 2023, als von derselben Behörde ChatGPT kritisch unter die Lupe genommen und in Italien kurzzeitig verboten wurde. Ein Kommentar von Axel Anderl und Alexandra Ciarnau, Dorda.
Unternehmen sehen sich mit der Frage konfrontiert, ob und wann sie KI-Tools aus Drittländern in der EU rechtskonform nutzen dürfen. Grundvoraussetzung ist stets ein Compliance-Check für den konkreten Use Case, der insbesondere folgende drei Rechtsaspekte erfassen sollte. Dabei ist irrelevant, ob es sich um ein chinesisches oder amerikanisches Modell handelt:
Datenschutz Compliance
Die EU-Datenschutz-Grundverordnung (DSGVO) legt strenge Regeln für die Verarbeitung personenbezogener Daten fest. Diese gelten ausdrücklich auch für KI-Systeme und Modelle. Daher ist im ersten Schritt stets zu prüfen, ob bei Integration von DeepSeek, ChatGPT, Gemini & co in eigene Systeme ein Personenbezug hergestellt wird. Das hängt einerseits von der Wahrscheinlichkeit des Modells ab, personenbezogene Daten als Ergebnisse wieder auszugeben. Andererseits ist die Intention des Nutzers ausschlaggebend. Wenn sich beispielsweise ein HR-Leiter über einen Unternehmenschatbot erkundigt, ob ein konkreter Mitarbeiter für seine berufliche Reise im letzten Monat Tag- und Nächtigungsgelder ersetzt bekommt, erfolgt ein solcher personenbezogener Bezug. Formuliert ein Mitarbeiter hingegen KI-gestützt Werbeslogans für eine neue Kampagne, ist die Wahrscheinlichkeit einer Rückführbarkeit auf eine bestimmte Person sehr gering und sind datenschutzrechtlichen Fragen überschaubar.
Sind die Datenflüsse geklärt, geht es um die Abgrenzung der datenschutzrechtlichen Rolle als Verantwortlicher und Auftragsverarbeiter. Der Anbieter ist der, der das Sprachmodell hergestellt und auf den Markt gebracht; der Unternehmer nutzt es sodann zu eigenen Geschäftszwecken. Daher führt der Anbieter die Rechenprozesse im Auftrag des betreibenden Unternehmens aus und wird zum Auftragsverarbeiter, während das Unternehmen als datenschutzrechtlich Verantwortlicher agiert. Eine Ausnahme besteht aber für Vorgänge, die ganz klar im eigenen Interesse des Anbieters erfolgen. Das ist zB bei laufender Optimierung des gesamten Sprachmodells durch Datentraining für einen neuen Release der Fall (zB Verbesserung der OpenAI GPT 3.5 Version zu 4.0). Hier ist der Anbieter der Verantwortliche. Derjenige, der für die einzelnen Verarbeitungsschritte verantwortlich ist, muss in weiterer Folge auch den Datenfluss rechtfertigen und sich zB allfällig erforderliche Einwilligungen einholen.
Für viele Unternehmen ist vor allem das Training mit Nutzer-Eingaben (Prompts) durch den Anbieter schwierig. Wenn diese Funktion aktiviert ist, müssen Mitarbeiter sehr sorgfältig mit den Dateneingaben umgehen. Legen sie nämlich personenbezogene Date oder Know-How offen und fließen diese Informationen in den Trainingsdatenpool, riskieren Unternehmen Data Breaches oder den Verlust von Betriebs- und Geschäftsgeheimnissen. Um diese Risken auszuschließen, bieten mittlerweile einige Anbieter bei entgeltlichen Bezug von Enterprise-Lösungen auch den Ausschluss des Datentrainings an. Unternehmen sollten sich daher eingehend mit den unterschiedlichen Lizenzmodellen beschäftigen. Kostenfreie open source-Zugänge sind kritisch zu hinterfragen.
Außerdem stellt sich bei KI-Tools aufgrund ihrer globalen Verflechtung immer die Frage nach der zur (Un)Zulässigkeit des Datentransfers in Drittstaaten, wie etwa USA, Indien, Philippinen oder auch China. Jede Übermittlung außerhalb des EWR muss sicherstellen, dass im Empfängerland das EU-Datenschutzniveau eingehalten wird. Das ist beispielsweise der Fall, wenn mit dem konkreten Empfängerland ein Angemessenheitsbeschluss besteht. Alternativ müssen mit dem Datenempfänger Standardvertragsklauseln mit zusätzlichen, geeigneten Garantien zum Schutz der Daten abgeschlossen werden. Bei den großen KI-Playern haben Unternehmen mit Sitz in den USA Vorteile: Mit dem "EU-U.S. Data Privacy Framework" gibt es für zertifizierte US-Unternehmen einen Angemessenheitsbeschluss als Grundlage für den transatlantischen Datentransfer. Ob sich das konkrete Unternehmen den Regelungen unterworfen hat, kann jedermann durch Einsicht in das öffentliche Register (Data Privacy Framework List) feststellen. Mit China besteht hingegen kein vergleichbarer Angemessenheitsbeschluss. Bei Implementierung von DeepSeek bedarf es daher den Abschluss von Standardvertragsklauseln samt konkreter Garantien.
Urheberrechtliche Schranken
Weiters wirft jedes Sprachmodell die Frage auf, ob dieses unzulässig mit urheberrechtlich geschützten Materialien trainiert wurde. In diesem Fall besteht nämlich das Risiko für Unternehmen, dass die KI-generieren Ausgaben eine glatte Übernahme oder Bearbeitung eines fremden Werkes sind, Rechte Dritter verletzen und von seinen Mitarbeitern nicht ohne Zustimmung des Urhebers verwendet werden dürfen. Das ist etwa der Fall, wenn der KI-Output Gedichte von Erich Fried oder „Your Song“ von Elton John enthält. Für die Urheberrechtsverletzung durch Verwendung des KI-Output sind die Unternehmen verantwortlich, auch wenn die KI für sie eine Blackbox ist und sie nichts von Rechtverletzungen wussten. Daher haben Unternehmen ein großes Interesse daran, die Nutzungsrechte am KI-Output und Haftung bei IP-Rechtsverletzungen vertraglich klar zu regeln. Die Tech-Giganten sind angesichts der Klagswelle durch diverse Medienunternehmen, Journalisten und Autoren diesbezüglich jedoch sehr zurückhaltend und geben kaum Zusicherungen, dass der Output frei von Rechten Dritter ist. Zum Teil bieten sie aber eine betraglich begrenzte Übernahme von Verteidigungskosten an, wenn Unternehmen mit Ansprüchen Dritter konfrontiert werden.
Neue Pflichten nach der KI-VO
Schließlich ist die Verordnung über Künstliche Intelligenz (KI-VO) zu beachten. Sie regelt, welche KI-Praktiken verboten oder mit einem hohen bzw geringen Risiko verbunden sind. Abhängig davon sehen sie unterschiedliche Pflichten entlang der gesamten Wertschöpfungskette – vom Hersteller bis hin zum Betreiber – vor. Für Sprachmodelle, wie ChatGPT oder DeepSeek, sind insbesondere die Regelungen über KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI) relevant. Modell-Anbieter müssen zB Trainingsinhalte ausreichend dokumentieren, über Funktionen und Grenzen der KI informieren, eine Strategie zur Einhaltung der urheberrechtlichen Bestimmungen umsetzen und Zusammenfassungen über das trainingsrelevante Material bereitstellen. Wenn für einen Nutzer nicht offensichtlich ist, dass er mit KI interagiert, sind ChatBots außerdem entsprechend zu kennzeichnen. Weiters müssen KI-generierte Ergebnisse als solche ausgewiesen werden. Diese Pflichten treffen primär den Anbieter. Das ist meistens der Tech-Gigant selbst. Integriert allerdings das EU-Unternehmen ein Modell in seine Systeme und tritt unter eigenem Namen auf, muss es das KI-System klassifizieren und die erweiterten Pflichten einhalten.
Über die Autor*innen
Axel Anderl ist Managing Partner und Leiter des IT/IP Teams und der Digital Industries Group bei Dorda, Alexandra Ciarnau ist Rechtsanwältin und Co-Leiterin der Digital Industries Group bei Dorda.