Automatisierte algorithmisch-gesteuerte Datenverarbeitung, insbesondere so genannte künstliche Intelligenz, sorgt oft für eine zusätzliche Benachteiligung ohnehin schon benachteiligter Menschen. Das ist eines der zentralen Ergebnisse eines internationalen Workshops, den das Forum Privatheit zum Thema "Feminist Data Protection", diskriminierende Datenverarbeitung und mögliche Lösungsansätze organisierte.

Als problematisch erkannt wurde insbesondere, dass es stets eine einzelne Person ist, die sich gegen eine systematische Diskriminierung zur Wehr setzen muss. Das Datenschutzrecht kennt bisher keine kollektiven Rechte, mittels derer sich etwa die Gruppe insgesamt oder ihre Vertreter:innen gegen eine Datenverarbeitung zur Wehr setzen können. Dafür sollten bestehende Ansätze zusammen mit den Betroffenen umgesetzt werden.

Unausgereifte und diskriminierende KI darf nicht in den Praxis-Einsatz

Daneben sollte auch im Datenschutz der systemische Aspekt sozialer Ungleichheiten berücksichtigt werden. Konkret: Der Fokus sollte vom Individuum, das sich gegenüber der exzessiven Datenverarbeitung großer Digitalkonzerne behaupten muss, auf eine strukturelle Ebene verschoben werden. "Künstliche Intelligenz reproduziert und verstärkt leider oft die verschiedenen Formen der Diskriminierung, Marginalisierung und Unterdrückung, die bereits in der Gesellschaft vorhanden sind", so Dr. Felix Bieker, juristischer Mitarbeiter im Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein (ULD) und Mitglied des Forum Privatheit. So würden Systeme zur Gesichtserkennung zum Beispiel oft überwiegend mit weißen Personen "trainiert", sodass die zugrundeliegende KI insbesondere Schwarze Frauen weniger zuverlässig erkenne als weiße. Diesem Phänomen muss strukturell und nicht nur individuell entgegengetreten werden. „Es geht nicht darum, ob Technikunternehmen diskriminieren wollen, sondern darum, ob dies in der Praxis geschieht. Wo das der Fall ist, muss ein Unternehmen von sich aus ansetzen und Abhilfe schaffen“, so Bieker. Systemdatenschutz kann dabei helfen, solche Probleme noch vor dem Praxis-Einsatz zu erkennen.

Richtiger Systemdatenschutz beugt Diskriminierungen vor

Der Systemdatenschutz setzt bei dem Ungleichgewicht zwischen Nutzenden und Datenverarbeitenden an und formuliert Anforderungen an datenverarbeitende Stellen. Dazu gehören etwa die Regelungen zum Datenschutz by Design, wonach der Datenschutz bei jeder Verarbeitung von Anfang an mit eingebaut werden muss, und dem Verantwortungsprinzip, nach dem Verarbeitende die Verantwortung für die gesamte Verarbeitung tragen. Das Forum Privatheit arbeitet daran, den Systemdatenschutz weiterzuentwickeln. Die wissenschaftlichen Ansätze, mit denen die Unterdrückung benachteiligter Gruppen untersucht wird, können auch im Datenschutz eingesetzt werden, um Diskriminierungen sichtbar zu machen und Lösungen zu entwickeln. "Wenn eine datenverarbeitende Stelle in einer Behörde oder einem Unternehmen ihre Datenverarbeitung tatsächlich unter Kontrolle hat, können auch einige Formen von Diskriminierung von vornherein unterbunden oder jedenfalls früher erkannt werden, ohne dass sich eine einzelne Person erst beschweren muss", erläutert Bieker. "Das wäre ein Fortschritt für die Angehörigen marginalisierter Gruppen, wie Frauen, People of Color, Geflüchtete, queere oder arme Menschen."

Beispiele für diskriminierende Datenverarbeitung und mögliche Lösungsansätze finden Sie hier: https://policyreview.info/articles/analysis/feminist-data-protection-introduction

Einen Podcast zum Thema Feminist Data Protection mit Dr. Felix Bieker finden Sie hier: https://ae2onc.podcaster.de/download/Feminist_Data_Protection_mit_Dr_Felix_Bieker.mp3

In der Plattform Privatheit setzen sich Expert*innen aus wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Forum Privatheit als eines der Kernprojekte der Plattform wird vom Fraunhofer-Institut für System- und Innovationsforschung koordiniert. Weiterer Partner ist das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung an der Universität Kassel. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Plattform Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

Firmenkontakt und Herausgeber der Meldung:

Fraunhofer-Institut für System-und Innovationsforschung (ISI)
Breslauer Straße 48
76139 Karlsruhe
Telefon: +49 (721) 6809-0
Telefax: +49 (721) 689152
http://www.isi.fraunhofer.de

Ansprechpartner:
Prof. Dr. Alexander Roßnagel
Sprecher „Forum Privatheit“
E-Mail: nagel@uni-kassel.de
Barbara Ferrarese
Forum Privatheit
Telefon: +49 (721) 6809-678
E-Mail: presse@forum-privatheit.de
Dr. Michael Friedewald
Forum Privatheit
Telefon: +49 (721) 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de
Für die oben stehende Pressemitteilung ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel