Datenrationalität, Glaube und Diskriminierung
Die Arbeit mit Big Data findet unter neuen erkenntnistheoretischen Rahmenbedingungen mit gigantischen Datenmengen und Hochleistungsprozessoren statt: „In automatisierten Prozessen kann somit Wissen generiert werden, welches dem Menschen grundsätzlich nicht mehr zugänglich ist”.1 Dieses im Ergebnis unzugängliche, generierte Wissen stellt eine besondere Herausforderung für die Verständlichkeit und Nachvollziehbarkeit datenanalysierender Prozesse, und damit für entsprechende Bildungsmaßnahmen im Sinne einer Big Data Literacy dar. Um Big Data entsteht eine “Aura” der Objektivität oder gar eine “Mythologie” datengetriebener Einsichten. So begreifen die US-amerikanische Forscherinnen Danah Boyd und Kate Crawford Big Data als ein Zusammenspiel von Technik, Analyse und „Mythologie“:2
„Damit einher geht der weitverbreitete Glaube, dass große Datensätze uns Zugang zu einer höheren Form der Intelligenz und des Wissens verschaffen, die neue, bislang unmögliche Einsichten generieren, Einsichten, die eine Aura der Wahrheit, der Objektivität und der Genauigkeit umgibt.“ 3
Spurious Correlations – Korrelation und/oder Kausalität? Es gibt eine hohe Korrelation zwischen der Scheidungsrate und dem Pro-Kopf-Verbrauch von Margarine im US-Bundesstaat Maine zwischen 2000 und 2009. Aber gibt es eine Kausalität? Dieses und weitere amüsante Statistikbeispiele finden sich auf der Seite von Tyler Vigen.
“Big Data knackt Ihre Psyche”[Link zu Database] – In der Reihe “Unstatistik des Monats” werden statistische Aussagen in den Medien hinterfragt. In einer Ausgabe wird die Prognosegenauigkeit von Big Data Analysen behandelt und das Fazit gezogen: der “Algorithmus formalisiert Alltags-Klischees und liegt oft daneben”.7
1. Allwissenheit und/oder Diskriminierungen?
Ein „Versprechen der Allwissenheit“ 8 durch Big Data und die Grenzen der Anwendbarkeit von Big Data Analytics, insbesondere in sozialen Bereichen muss zum Gegenstand einer kritischen Medienbildung werden. Denn diese datengetriebenen Analyse können, wenn sie auf soziale Bereiche angewendet werden, problematische Effekte, wie etwa Diskrimierungen zeigen.
Algorithmen und Diskriminierung – Lorena Jaume-Palasí beschreibt in diesem Interview Künstliche Intelligenz und algorithmische Entscheidungssysteme als kollektive Technologien, die dafür ausgelegt sind, Klassifikationen zu bilden und Kollektive zu analysieren, aber nicht einzelne Individuen. Insoweit können Algorithmen nicht anders, als zu diskriminieren, weil es immer Menschen geben wird, die in keine Klassifikation hineinpassen.
Weitere Literaturempfehlung:
- Weapons of Math Destruction – Die US-amerikanische Statistikerin Cathy O’Neil veröffentlichte 2016 ihr Buch mit dem Titel “Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy”. Darin zeigt sie, wie Big Data Anwendungen “Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden” können (so der Untertitel der deutschsprachigen Ausgabe).
2. Diskriminierungen und die Daten der Anderen
Mögliche Ursachen für Diskriminierungen können in der Entwicklung der Algorithmen und Modelle, aber auch in verzerrten (Trainings-)Daten liegen oder durch menschliche Bewertungsaktivitäten entstehen. Besonders hervorzuheben ist die algorithmengestützte, statistische Diskriminierung, die sich nicht auf die Kategorisierung individueller Eigenschaften bezieht, sondern auf Gruppeneigenschaften, die durch Datenanalysen erst erzeugt werden. Diese basieren auf der Annahme, dass „jedes der Mitglieder dieser Gruppierung das Merkmal aufweisen würde“.9
“Daten, die man selbst freiwillig weitergibt, können dazu verwendet werden, sensible Informationen über andere Menschen abzuschätzen; und umgekehrt kann man selbst aufgrund der Daten, die andere über sich preisgeben, unterschiedlich behandelt werden. Es kann uns also nicht egal sein, wie unsere Mitmenschen mit ihren Daten umgehen. Und weil die negativen Auswirkungen prädiktiver Analytik nicht auf alle Gesellschaftsmitglieder gleich verteilt sind, sondern überproportional die Armen, weniger Gebildeten, Schwachen, Kranken und sozioökonomisch Benachteiligten treffen, stehen demokratische Gesellschaften hier in einer kollektiven Verantwortung“.10
In Zeiten von Big Data und prädiktiver Analytik kann sich ein Einzelner einer solchen statistischen Gruppenzuordnung kaum entziehen, denn es können die Daten der anderen und scheinbar belanglose Daten genutzt werden, um gewünschte Aussagen mit sozialen Folgen zu erstellen. Daher ist die allgemeine Sensibilisierung im Umgang mit Daten eine besondere und politische Bildungsaufgabe.
Weiteres Material zu Diskriminierung durch KI:
- Wie umgehen mit Diskriminierung durch ADM-Systeme? Das Projekt AutoCheck – Handlungsanleitung für den Umgang mit Automatisierten Entscheidungssystemen für Antidiskriminierungsstellen erarbeitet Handlungsanleitungen und Fortbildungen für den Umgang mit Diskriminierung durch Algorithmen.