Hintergrund der Stellungnahme
Am 4. September 2024 stellte die irische Datenschutzaufsichtsbehörde einen Antrag auf eine Stellungnahme des EDSA zur Verarbeitung personenbezogener Daten in KI-Modellen. Am 17. Dezember 2024 wurde die Stellungnahme veröffentlicht, in der sich der EDSA mit zentralen Fragestellungen zur Anonymität von KI-Modellen, der Rechtsgrundlage der Datenverarbeitung sowie den Folgen unrechtmäßiger Datenverarbeitung befasst.
Kernfragen der Stellungnahme
Der EDSA geht insbesondere auf vier wesentliche Fragen ein:
- Wann und wie wird ein KI-Modell als anonym angesehen, und welche Maßnahmen sind erforderlich, um sicherzustellen, dass keine personenbezogenen Daten verarbeitet werden?
- Wie kann ein Verantwortlicher die Angemessenheit des berechtigten Interesses als Rechtsgrundlage bei der Verarbeitung von Dritt- und Eigendaten belegen?
- Wie ist die Angemessenheit des berechtigten Interesses nach dem Training eines KI-Modells zu demonstrieren?
- Welche Auswirkungen hat die rechtswidrige Verarbeitung von Daten in der Entwicklungsphase auf die rechtliche Zulässigkeit der späteren Nutzung des KI-Modells, mit oder ohne Verarbeitung personenbezogener Daten?
Anonymität von KI-Modellen
Ein zentraler Punkt der Stellungnahme betrifft die Frage, wann ein KI-Modell als anonym gilt. Der EDSA betont, dass eine Einzelfallbewertung erforderlich ist. KI-Modelle, die mit personenbezogenen Daten trainiert wurden, können nicht als anonym betrachtet werden, wenn personenbezogene Daten aus dem Modell extrahiert werden können. Sowohl die direkte als auch die indirekte Identifizierbarkeit von Personen muss nahezu ausgeschlossen sein; die Wahrscheinlichkeit einer Identifizierung muss "unbedeutend" sein.
Unternehmen müssen nachweisen können, dass ihre Modelle anonym sind, um der Rechenschaftspflicht gemäß Art. 5 Abs. 2 DS-GVO nachzukommen. Dies erfordert geeignete technische und organisatorische Maßnahmen.
Berechtigtes Interesse als Rechtsgrundlage
Der EDSA diskutiert auch die Anwendung des berechtigten Interesses (Art. 6 Abs. 1 lit. f DS-GVO) als Rechtsgrundlage für die Verarbeitung personenbezogener Daten bei der Entwicklung und dem Einsatz von KI-Modellen. Hierbei ist der Drei-Stufen-Test anzuwenden:
- Berechtigtes Interesse: Es muss ein legitimes Interesse des Verantwortlichen oder eines Dritten vorliegen.
- Erforderlichkeit: Die Verarbeitung muss objektiv erforderlich sein, um dieses Interesse zu erreichen.
- Interessenabwägung: Die Interessen des Verantwortlichen müssen die Rechte und Freiheiten der betroffenen Personen überwiegen.
Diese Abwägung muss sorgfältig dokumentiert und nachvollziehbar sein. Unternehmen sollten prüfen, ob weniger eingriffsintensive Alternativen zur Verfügung stehen.
Konsequenzen unrechtmäßiger Datenverarbeitung
Die Stellungnahme des EDSA thematisiert auch die Folgen, wenn ein KI-Modell mit unrechtmäßig verarbeiteten personenbezogenen Daten trainiert wurde. Es werden drei Szenarien unterschieden:
Szenario 1 - Gleicher Verantwortlicher
In diesem Szenario sind KI-Anbieter und KI-Verwender eine Einheit. Das KI-Modell wurde mit unrechtmäßig verarbeiteten Daten trainiert und genutzt. Hier wäre zu prüfen, ob Training und Einsatz des Modells denselben Zweck verfolgen und wie sich die ursprüngliche Rechtswidrigkeit auf die nachfolgende Verarbeitung auswirkt. Falls die zuständige Aufsichtsbehörde Maßnahmen zur Korrektur der ursprünglichen unrechtmäßigen Verarbeitung anordnet (z. B. Löschung der Daten), kann, muss aber nicht, dies die spätere Nutzung des Modells erheblich einschränken.
Szenario 2 - Anderer Verantwortlicher
Das KI-Modell wird von einem anderen Verantwortlichen als dem Anbieter der KI eingesetzt. Dieser trägt die Verantwortung dafür, dass das Modell unter Einhaltung der Datenschutzvorgaben entwickelt wurde. Hierzu sollte eine umfassende Prüfung erfolgen, die insbesondere folgende Aspekte berücksichtigt: die Herkunft der Trainingsdaten, mögliche Verstöße gegen Datenschutzvorgaben während der Entwicklung sowie die Frage, ob eine gemeinsame Verantwortlichkeit mit dem ursprünglichen Entwickler vorliegt. Zudem sollte der Verantwortliche bewerten, ob das Modell unter Verwendung unrechtmäßig verarbeiteter Daten trainiert wurde. Geeignete Prüfmethoden umfassen unter anderem eine Analyse der Datenquellen, die Überprüfung der datenschutzrechtlichen Konformität der Modellentwicklung sowie eine Dokumentation der durchgeführten Kontrollen. Die Ergebnisse dieser Prüfung müssen nachvollziehbar dokumentiert und durch Maßnahmen zur Risikominimierung ergänzt werden, um die Einhaltung der DS-GVO sicherzustellen.
Szenario 3 - Unrechtmäßige Ursprungsverarbeitung mit anschließender Anonymisierung
Wenn vom KI-Anbieter nachgewiesen werden kann, dass das Modell vor seiner Nutzung anonymisiert wurde, findet die DS-GVO keine Anwendung mehr, sofern keine neuen personenbezogenen Daten verarbeitet werden. Dies gilt sowohl für die Anbieter als auch Verwender der KI. Die Aufsichtsbehörden sollen laut Stellungnahme des EDSA in diesem Zusammenhang jedoch genau prüfen, ob die Anonymisierung tatsächlich ausreichend ist oder ob eine Re-Identifizierbarkeit der betroffenen Personen möglich bleibt. Eine bloße Behauptung der Anonymität reicht nicht aus; es sind technische und organisatorische Nachweise erforderlich.
Die Stellungnahme unterstreicht, dass die unrechtmäßige Verarbeitung personenbezogener Daten in der Entwicklungsphase erhebliche Auswirkungen auf die spätere Nutzung eines KI-Modells haben kann. Unternehmen sollten daher frühzeitig sicherstellen, dass sämtliche datenschutzrechtlichen Anforderungen eingehalten werden, um rechtliche und operative Risiken zu vermeiden.
Handlungsempfehlungen
Die Stellungnahme des EDSA bietet Unternehmen wertvolle Orientierungspunkte für den datenschutzkonformen Einsatz von KI-Modellen. Es ist jedoch zu beachten, dass viele Aspekte einer individuellen Bewertung bedürfen und die Anforderungen hoch sind. Besonders die detaillierten Ausführungen zum berechtigten Interesse als Rechtsgrundlage sollten gründlich geprüft werden.
Allgemein empfohlen werden kann:
- Anonymität einer KI: Bei Nutzung einer KI, welche anonym sein soll, sollten mindestens vertragliche Zusicherungen der Anonymität vorliegen.
Führen Sie darüber hinaus eine Recherche durch, ob Hinweise darauf vorliegen, dass das KI-System unrechtmäßig trainiert wurde.
- Berechtigtes Interesse dokumentieren: Führen Sie eine sorgfältige Prüfung und Dokumentation des Drei-Stufen-Tests durch, wenn die einschlägige Rechtsgrundlage das berechtigte Interesse ist.
- Datenschutz-Folgenabschätzung (DSFA): Führen Sie eine DSFA durch, wenn Sie personenbezogene Daten mithilfe von KI verarbeiten und damit ein Risiko für die Betroffenen einhergeht. Für den Einsatz von Microsoft Copilot bieten wir Ihnen im audatis SHOP sowie im audatis MANAGER umfangreiche Vorlagen für die Durchführung einer DSFA an.
- Rechtmäßigkeit der Datenverarbeitung: Stellen Sie sicher, dass alle für das Training verwendeten Daten rechtmäßig erhoben und verarbeitet wurden. Haben Sie nicht selbst das Training durchgeführt, treffen Sie dennoch Überprüfungspflichten.
- Technische und organisatorische Maßnahmen: Implementieren Sie geeignete Maßnahmen, um die Anonymität und Sicherheit der Modelle zu gewährleisten, einschließlich regelmäßiger Überprüfungen und Tests.
- Transparenz und Informationspflichten: Informieren Sie betroffene Personen klar und verständlich über die Verarbeitung ihrer Daten.
- Datenquellen überprüfen: Prüfen Sie die Quellen der für das Training verwendeten Daten sorgfältig.
- Risiken minimieren: Identifizieren und minimieren Sie potenzielle Risiken für die Rechte und Freiheiten der betroffenen Personen.
- Dokumentations- und Rechenschaftspflicht: Stellen Sie die Nachweisbarkeit der getroffenen Maßnahmen zur Einhaltung der DS-GVO sicher.
- Schulungen: Schulen Sie Ihre Mitarbeitenden auf einen umsichtigen Umgang mit KI. Dazu sind Sie unter anderem auch nach dem AI-Act, welche ab Februar Anwendung findet, verpflichtet. Zur Sicherstellung der notwendigen KI-Kompetenz bis Februar 2025 haben wir im audatis MANAGER ein E-Learning erstellt, welches ab dem 06.02.2025 in der Software erworben werden kann.
- Regelungen: Treffen Sie interne Regelungen zum Umgang mit KI. Eine Vorlage hierfür finden Sie in unserem audatis Shop.