Datenschutzkonferenz gibt Leitfaden für DSGVO-konforme KI-Anwendungen

Deutsche Datenschützer wollen KI-Anwendungen überwachen und geben einen Leitfaden zur DSGVO-konformen Nutzung heraus.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Symbolbild KI auf Monitor

(Bild: everything possible/Shutterstock.com)

Lesezeit: 5 Min.

Unternehmen, Organisationen und Behörden wollen Künstliche Intelligenz einsetzen. Meist ist derzeit generative KI gemeint, die seit dem Aufkommen von ChatGPT und Co ein Hoch erlebt. Allerdings wirft der Einsatz der Großen Sprachmodelle (Large Languag Models, LLMs) rechtliche Fragen auf. Das betrifft unter anderem einen DSGVO-konformen Einsatz. Daher hat die deutsche Datenschutzkonferenz einen Leitfaden für Unternehmen herausgebracht. Dieser eignet sich laut der Herausgeber zwar auch für andere KI-Modelle, bezieht sich aber konkret auf LLMs.

Aufgeteilt ist der Leitfaden in drei Bereiche: die ausgewählten Einsatzfelder und Zwecke der KI-Anwendungen, die Implementierung und die Nutzung. Die Datenschutzkonferenz schickt sich zugleich an, die Überwachung der KI-Verordnung (AI Acts) zu übernehmen: "Die Datenschutzaufsichtsbehörden sind bereit, die Aufgabe der nationalen Marktüberwachung für KI-Systeme zu übernehmen", heißt es in einem zweiten Papier. Die Expertise im digitalen Grundrechtsschutz könne auf diese Kompetenz ausgeweitet werden.

Bei der Auswahl einer KI-Anwendung in einem Unternehmen gehört laut der Datenschutzkonferenz zwingend die Festlegung eines Zwecks dazu. Anwendungen sollen personenbezogene Daten nur dann benutzen, wenn sie auch wirklich gebraucht werden. Nicht jede KI-Anwendung nutzt automatisch personenbezogene Daten, bei Sprachmodellen ist es aber fast unmöglich, um sie herumzukommen. Als Beispiel nennen die Herausgeber die Auswertung einer Rohstoffkartierung, bei der keine personenbezogenen Daten herangezogen werden. Anders schaut es jedoch aus, wenn ein KI-Modell grundsätzlich schon durch das Trainingsmaterial personenbezogene Daten innehat.

Die Datenschutzkonferenz mahnt, dass in solchen Fällen die Menschen, die darauf aufbauende Anwendungen nutzen, eventuell keinen Einfluss haben. Dann müssen die Anwender sicherstellen, dass dadurch keine Fehler in ihren Systemen auftauchen. Sprich: Wenn eine KI-Anwendung Unfug oder fälschlicherweise Namen und Daten ausgibt, dürfen sie gegebenenfalls auch nicht mehr genutzt werden. ChatGPT und Co antworten tatsächlich manchmal ohne ersichtlichen Grund mit Namen oder Antworten aus Forenbeiträgen, die im Training verwendet wurden.

Jede KI-Anwendung, bei der personenbezogene Daten verarbeitet werden, bedarf einer entsprechenden Rechtsgrundlage – also Erlaubnis. Hat eine KI-Anwendung Auswirkungen auf eine Person, muss ein Mensch entscheiden. Eine KI darf also keinen Bewerber in einem Prozess ausschließen oder bei einem Projekt für ungeeignet aussortieren. "Unzureichende Personalressourcen, Zeitdruck und fehlende Transparenz über den Entscheidungsweg der KI‐gestützten Vorarbeit dürfen nicht dazu führen, dass Ergebnisse ungeprüft übernommen werden", heißt es im Papier.

Zudem: Technisch geschlossene Systeme seien aus datenschutzrechtlicher Sicht vorzugswürdig – gegenüber offenen Systemen, bei denen Informationen und Daten in die Cloud und zum Anbieter wandern. Anbieter müssen ihre Transparenzpflichten einhalten. Anwender, also die Unternehmen, können diese einfordern und müssen darauf aufbauend auch informierte Entscheidungen treffen. Dokumentationspflichten regelt beispielsweise auch der AI Act, der vorsieht, dass sogenannte General Purpose AI (GPAI) gesondert kontrolliert, geprüft und zertifiziert wird.

Die DSGVO regelt bekanntlich auch, dass Menschen ein Recht auf Berichtigung und Löschung haben. In der Orientierungshilfe heißt es dazu: "Für beide Rechte müssen organisatorische und technische Verfahren konzipiert werden, damit diese auch wirksam ausgeübt werden können." Allerdings ist es bisher ausgesprochen schwierig bis unmöglich, das durchzusetzen. Es lassen sich aus LLMs keine Informationen herauslöschen. Man kann den Modellen und damit auch den Anwendungen höchstens nachträglich Regeln auferlegen, dass sie etwas nicht mehr sagen dürfen. Das bedeutet aber auch, dass ein Feintuning für die KI-Anwendungen der Unternehmen selbst möglich sein muss – nicht nur auf Anbieter-Seite der KI-Modelle.

Bei der Implementierung von KI-Anwendungen sollte laut der Datenschutzkonferenz geregelt sein, ob Anbieter oder Anwender rechtlich verantwortlich ist. Auch sollte den Mitarbeitern klar gesagt werden, was sie mit welchen KI-Anwendungen machen dürfen und was nicht. Die Herausgeber gehen davon aus, dass derzeit zahlreiche Beschäftigte eigenmächtig KI-Anwendungen nutzen – und gegen den Datenschutz verstoßen. Nötig ist auch eine Datenschutz-Folgenabschätzung, die in der DSGVO bereits geregelt ist – gemeint ist eine Risikobewertung.

Möglichst viele Datenschutzaspekte sollten bereits bei der Implementierung bedacht werden, die Herausgeber schreiben von "date protection by design" und "by default". Neben dem Datenschutz müssen freilich auch alle Anforderungen erfüllt sein, die generell an IT-Systeme gelten – von Cybersecurity bis Bedienbarkeit.

Das Erstellen eines Arbeitszeugnisses kann auch ohne Namen auf eine Person zurückzuführen sein, etwa durch das Datum und den Ersteller. KI kann solche Zusammenhänge besonders gut herstellen. Bei besonders sensiblen Daten ist zusätzliche Achtung angebracht, etwa bei der Religionszugehörigkeit, Gesundheit, Sexualität und mehr. Dazu gehört auch, ob jemand regelmäßig einen bestimmten Ort besucht. Die Verarbeitung dieser Daten ist nur unter ganz bestimmten Voraussetzungen erlaubt, in der Regel jedoch verboten. Problematisch ist auch der Bias. Verstößt eine KI-Anwendung gegen das Allgemeine Gleichbehandlungsgesetz, ist sie nicht zulässig.

(emw)