Predictive Privacy auf der Telemedicus Sommerkonferenz 2022

Doppelvortrag “Prädiktive Privatheit: Kollektiver Datenschutz im Kontext von KI und Big Data” mit Prof. Dr. Hannah Ruschemeier (FernUniversität Hagen) auf der Telemedicus Sommerkonferenz 2022.

Video-Mitschnitt des Vortrages

Abstract

Aus philosophischer und rechtswissenschaftlicher Perspektive diskutieren wir in dieser Session neue Herausforderungen für den Datenschutz im Kontext von Big Data und künstlicher Intelligenz. Das zentrale Thema bildet prädiktive Analytik: Gemeint ist damit das Vermögen großer Plattformunternehmen, Informationen über über nahezu beliebige Datensubjekte vorherzusagen. Hierbei kann es sich um Informationen handeln, die das betroffene Subjekt nicht wissentlich von sich preisgegeben hat und nicht willentlich von sich preisgeben würde. So können beispielsweise Geschlecht, sexuelle Orientierung, ethnische Zugehörigkeit, Krankheiten, psychische Dispositionen usw. aus “Verhaltensdaten” (z. B. Nutzungs-, Tracking- oder Aktivitätsdaten) der Zielperson mittels Vorhersagemodellen abgeschätzt werden. Die dafür verwendeten Modelle wiederum können aus anonym verarbeiteten Daten von Social-Media-Nutzern trainiert werden.

Rainer Mühlhoff weist in seinem philosophischen Input zunächst darauf hin, dass mit prädiktiver Analytik erhebliche Missbrauchspotenziale verbunden sind, welche sich als soziale Ungleichheit, Diskriminierung und Ausgrenzung manifestieren. In Reaktion auf diese Gefahren prädiktiver Analytik stellt er sodann das ethische Konzept der “prädiktiven Privatheit” vor. Laut Definition wird die prädiktive Privatheit einer Person oder Gruppe verletzt, wenn sensible Informationen über sie ohne ihr Wissen und gegen ihren Willen vorausgesagt werden. Eine genauere Untersuchung zeigt die kollektive Struktur prädiktiver Privatheit und eines daraus abgeleiteten Schutzgutes des Datenschutzes auf: Verletzbar wird die prädiktive Privatheit eines Einzelnen durch die Informationen, die viele andere Individuen gegenüber Plattformunternehmen preisgeben, von denen sie als Trainingsdaten für Machine Learning Modelle verwendet werden. Prädiktive Privatheit für alle zu schützen bedeutet sodann die verantwortungsvolle beschränkung des “Vorhersagevermögens” großer Datenaggregatoren.

Hannah Ruschemeier adressiert in ihrem rechtswissenschaftlichen Input zentrale Rechtsfragen an die Regulierungskonzeption der DSGVO, die sich aus dem Konzept der prädiktiven Privatheit ergeben. Diese stellen sich sowohl bzgl. der betroffenen Schutzgüter, der erfassten Datenverarbeitungsvorgänge als auch der geregelten Erlaubnistatbestände. Zunächst ist die DSGVO grundrechtsorientierter Datenschutz, Grundrechte erfassen kollektive Elemente nur in wenigen Ausnahmefällen. Das Recht auf Datenschutz ist ein höchstpersönliches Individualrecht. Dies zeigt sich bereits im praktisch relevanten Erlaubnistatbestand der Einwilligung, die sich allein auf die individuellen Daten der betroffenen Person bezieht. Auswirkungen auf andere, bzw. kollektive Dimensionen, sind nicht erfasst. Diese Wertung setzt sich auch im Hinblick auf abgeleitete Daten fort; die Erstellung prädiktiver Analysemodelle ist nicht durch die DSGVO adressiert. Allein in Art. 9 Abs. 1 DSGVO ist die Differenzierung zwischen Metadaten und Analyseergebnis angelegt. Anonymisierte Daten, die Prognosen über dritte Betroffene ermöglichen, fallen nicht in den Anwendungsbereich. In der Rechtsprechung finden sich bisher nur Einzelentscheidungen zur Qualifikation von Wahrscheinlichkeitsaussagen einer prädiktiven Analyse als personenbezogene Daten. Der Vortrag analysiert ausgewählte Probleme der DSGVO im Hinblick auf prädiktive Modelle.

mehr über Prädiktive Privatheit  

Datum: