re:publica 2022: Talk on Predictive Privacy

On 10 June 2022 I will speak on Predictive Privacy at re:publica 22 in Berlin (in German).

Predictive Privacy: Wie wir den Datenschutz verbessern könnten, um soziale Ungleichheit und Diskriminierung zu bekämpfen

Big Data und KI führen zu Diskriminierung und sozialer Ungleichheit. Das liegt auch daran, dass wir beim Datenschutz zu individualistisch denken, nach dem Prinzip “jeder kümmert sich um seine eigenen Daten”. Predictive Privacy stellt einen kollektivistischen Ansatz im Datenschutz vor, der die DSGVO aktualisiert und mit Antidiskriminierung verbindet.

Zeit und Ort: 10.06.2022 13:45–14:15, Lightning Box 2

Weitere Informationen  

Ausführliche Beschreibung

Durch Big Data und KI zeichnet sich eine neue Herausforderung für den Datenschutz ab. Das Hauptproblem ist nicht mehr der Schutz der Privatsphäre der Einzelnen, sondern die Verhinderung der Diskriminierung von algorithmisch geschaffenen Gruppen. Die liberale Idee der individuellen Privatsphäre wird von Technologien überholt, die die Daten einiger (typischerweise: der Privilegierten) nutzen, um Informationen über andere abzuschätzen, die nie um Zustimmung gebeten wurden. Da dies auf gesellschaftlicher Ebene geschieht, sind wir mit einer neuen Art von strukturellen Auswirkungen der Datenverarbeitung konfrontiert, die im Mittelpunkt des Datenschutzes stehen sollten. Zu diesen strukturellen Auswirkungen gehören soziale und wirtschaftliche Ungleichheit, Beziehungen der Ausbeutung sowie sexualisierte und rassistische Gewalt.

Viele der strukturellen Auswirkungen von Big Data und KI werden durch prädiktive Analysen verursacht - Anwendungen des maschinellen Lernens, die potenziell sensible Informationen (wie Geschlecht, Ethnie, Kreditrisiken, Gesundheit, psychologische Dispositionen usw.) über beliebige Personen abschätzen können, auch über diejenigen, die diese Informationen nicht selbst preisgegeben haben. Vorhersagemodelle nutzen die großen Mengen an potenziell sogar anonymen Daten, die mit Zustimmung vieler Nutzer*innen gesammelt werden, die glauben, “nichts zu verbergen” zu haben.

Das Konzept der prädiktiven Privatheit ist die Antwort auf prädiktive Analytik. Prädiktive Privatheit erweitert den gängigen Begriff der “Privatsphäre” um Informationen, die über Personen oder Gruppen vorhergesagt werden. Die Verletzung der prädiktiven Privatsphäre durch die unbefugte Nutzung vorhergesagter Informationen ist der Kern vieler Beispiele für algorithmische Diskriminierung und soziale Sortierung. In diesem Vortrag diskutiere ich Predictive Privacy als Ausgangspunkt für eine Aktualisierung der Allgemeinen Datenschutzgrundverordnung (DSGVO) mit dem Ziel, den Datenschutz zu einem effizienten Instrument der Antidiskriminierung zu machen.

Categories:

Date: