Warum ich etwas zu verbergen habe?
In dieser ersten Story geht es darum, die immer wieder zu hörende Aussage “Ich habe doch nichts zu verbergen” grundsätzlich in Frage zu stellen. Dazu werden aktuelle Argumentationsmuster und historische Beispiele zusammengeführt.
„Man gebe mir sechs Zeilen, geschrieben von dem redlichsten Menschen, und ich werde darin etwas finden, um ihn aufhängen zu lassen.“
(Kardinal Richelieu, gefunden bei Bruce Schneier)„Ein sanftes Schaf ist des Wolfes Leckerbissen.“
(Alexander Solschenizyn)
“Ich habe doch nichts zu verbergen!”
1. Welche Annahmen liegen dieser Behauptung zugrunde?
Der Behauptung „Ich habe doch nichts zu verbergen“ ist in vielerlei Hinsicht fahrlässig, aber auch schicksalergeben und hilft nicht weiter bei der Adressierung der eigentlichen Probleme. Natürlich hat jeder Mensch etwas zu verbergen und das soll er auch, aber die eigentliche Frage ist, ob es zwischen den Mühlsteinen des digitalen Überwachungskapitalismus und den Erwartungen des neoliberalen Staates nicht nur etwas zu verbergen, sondern auch etwas zu gewinnen gibt, nämlich ein freies und nicht von wenigen Playern vorherbestimmtes Leben.
Das Argument beruht auf mehreren Annahmen:
Dieses Argument rekurriert auf ein Datenschutzverständnis, nachdem die Privatsphäre lediglich vor Eingriffen von außen geschützt werden müsse, um vertrauliche Güter und größere Geheimnisse vor Diebstahl oder Zweckentfremdung zu bewahren. Wenn man nun annimmt, dass es im „‘Tresor unserer Privatsphäre‘ nichts zu holen“ gibt, wie Evgeny Morozov es formuliert, „ist es egal, wie oft die Bank überfallen wird.“ 3
Die Annahme ist bei Menschen anzutreffen, die für sich beanspruchen, „normal“ oder nicht „interessant“ oder „verdächtig“ genug zu sein und deshalb glauben, weder ins Visier der Strafverfolgungsbehörden noch von Arbeitgebern oder Internet-Konzernen zu geraten.4 Häufig wird auch auf die scheinbar mangelnde Aussagekraft der eigenen Daten oder ihre Wertlosigkeit und Banalität verwiesen. In dieser Lesart erfüllt „normales“ Verhalten eine Art Schutzfunktion, die Daten scheinbar unattraktiv mache. Sie ist bei Menschen anzutreffen, die bisher keine negativen Erfahrungen mit Vorhersage-Systemen gemacht haben.
Nach Jaron Lanier sind es häufig technikaffine Menschen, die sich unbeeinflusst von den großen Tech-Konzernen wähnen. Sie würden allen Ernstes behaupten, „gigantische Supercomputer, die irgendwo in absoluter Verborgenheit operieren, hätten keinen Einfluss auf ihr Leben.“ 5 Diese Behauptung widerspräche auch allen Erfahrungen und erscheine wenig überzeugend angesichts des immensen Reichtums einiger weniger Player.
Plenty to Hide – In seinem Vortrag zeigt Andres Dewes anhand realer Datensätze, wie einfach es ist, aus scheinbar unzusammenhängenden Daten mittels Datenanalyse sehr private Dinge über Menschen herauszufinden. Er plädiert dafür, persönliche Daten nicht in erster Linie als kostbare Ressource zu betrachten, die ausgebeutet werden sollte, sondern eher als giftiges Abfallprodukt, mit dem vorsichtig umgegangen werden muss.
2. Wo ist das Problem?
Nach Morozov bezieht sich diese Vorstellung im Wesentlichen auf die Vergangenheit. Deshalb schlägt er vor, sich „von diesem theoretischen Vorurteil freizumachen“6, dass es beim Datenschutz um den Schutz von in der Vergangenheit liegenden Geheimnissen gehe, die es zu verbergen gelte, sondern um zukünftige Lebenschancen und die Möglichkeit, eine Identität jenseits von Vorhersagen frei wählen zu können. Morozov wirbt dafür, Datenschutz als Möglichkeit zu begreifen, „eine alternative Zukunft zu leben – eine, die uns von niemandem aufgezwungen wird, […] [denn] dann würden wir erkennen, dass die gegenwärtigen Prozesse, die alles quantifizieren und datafizieren, diese Möglichkeit stark einschränken.“7 Morozov warnt vor einem in der Zukunft liegenden Verlust, nämlich die „Art von Mensch […] [zu sein, die wir] als Folge all des Datenteilens wahrscheinlich nicht mehr werden.“8 Denn je mehr Daten über Menschen gesammelt werden, desto spärlicher werden die potentiellen Möglichkeiten in der Zukunft, „was wir werden könnten, jenseits der sozialen, politischen und geschäftlichen Erwartungen, die uns von den Institutionen, mit denen wir zu tun haben, auferlegt werden.“9 Im Angesicht der rechnerischen Gewissheit von Maschinenintelligenz sieht Shoshana Zuboff „unser natürliches Recht auf das Futur […] [in Gefahr,] das dem Einzelnen die Fähigkeit verleiht, sich eine Zukunft vorzustellen, vorzunehmen, zu versprechen und aufzubauen.“10 Für Jaron Lanier besiegelt der geschickte Einsatz von Big Data einen uneinholbaren Vorsprung: „Wer die leistungsfähigsten Computer hat, entscheidet in einer hochentwickelten Gesellschaft über das Schicksal aller anderen.“11
Leicht zugängliche Daten etwa aus Social-Media-Aktivitäten, aus öffentlichen Überwachungskameras oder Smarthome-Technologien wie etwa Video-Klingeln und Haustür-Kameras der Amazon-Tochter Ring werden weltweit als Trainingsdaten für maschinelles Lernen eingesetzt. Die Trainingsdatensätze sind die Grundlage dafür, menschliches Verhalten automatisiert einschätzen und nach vorgegebenen Kategorien bewerten zu können. Hierbei kann es von Interesse sein, „verdächtige“ Situationen zu identifizieren und „normales“ von „abweichendem“ Verhalten zu unterschieden. Damit besteht die Gefahr, das menschliches Verhalten im öffentlichen Raum nach den Vorgaben einiger weniger Menschen gelenkt und normiert wird. Das Künstlerkollektiv KairUs wirft mit seinem Projekt „Suspicious Behavior“ deshalb die Frage auf, ob es bei dem Training von Maschinen, die menschliches Verhalten verstehen sollen, nicht auch um die Programmierung menschlichen Verhaltens gehe.
Suspicious Behavior – Das Projekt wagt einen Blick in eine Welt, in der Künstliche Intelligenzen trainiert werden, verdächtige Situationen automatisch zu erkennen und „normales“ von „anormalem“ Verhalten zu unterscheiden. Ziel des Projekts ist es, zu zeigen, wie problematisch diese Praktiken sind und wie groß die Gefahr ist, dass auch menschliches Verhalten programmiert wird.
Neben der Einschätzung von zurückliegendem oder gegenwärtigem Verhalten ist die Ableitung zukünftigen Verhaltens durch Prognosesysteme ein weiteres großes Geschäftsfeld. Diese Systeme entziehen sich komplett der menschlichen Wahrnehmung und treffen für Menschen Entscheidungen, von denen diese gar nicht wissen, dass sie getroffen werden.
In einem lesenswerten Artikel beschreibt Rainer Mühlhoff auf wenigen Seiten, welche Umwege die großen Online-Plattformen nehmen, um an die letztlich ausschlaggebenden und schwer zugänglichen Daten der Nutzerinnen und Nutzer wie etwa Gesundheits- oder Finanzinformationen zu gelangen.12 Die sog. prädikative Analytik nutzt hierzu ungeschützte und scheinbar unwichtige Daten, etwas Verhaltens- und Nutzungsdaten, und ordnet die Einzelfälle nach statistischen Parametern Kategorien mit ähnlichen Eigenschaften zu. Es werden also nicht einzelne Menschen analysiert, sondern Kollektive, die unsichtbare Klassen bilden. Sobald für ein solches Kollektiv sowohl die einfachen als auch die sensiblen Daten vorliegen, können durch maschinelles Lernen Korrelationen ermittelt werden, die Rückschlüsse auf sensible Daten auch bei jenen Nutzerinnen und Nutzer zulassen, die diese nicht angegeben haben und von denen nur die einfachen Daten bekannt sind. Mühlhoff warnt vor den negativen Auswirkungen des Einsatzes dieser Modelle in der öffentlichen Verwaltung, die den Effekt haben, „soziale Ungleichheit zu zementieren oder sogar weiter anzufachen.“13 Dies treffe „überproportional die Armen, weniger Gebildeten, Schwachen, Kranken und sozioökonomisch Benachteiligten“14, die sich unversehens in einer sozialen Klasse wiederfinden, aus der es kaum ein Entrinnen gibt. Die Behauptung „Ich habe doch nichts zu verbergen“ schafft also überhaupt erst die Grundlage zur Erstellung von Trainingsdatensätzen und KI-basierten Prognosen. Dabei reicht es aus, wenn eine gesellschaftliche Minderheit keine Probleme damit hat, ihre einfachen und sensiblen Daten zur Verfügung zu stellen, um Rückschlüsse auf die sensiblen Informationen anderer Menschen zu ermöglichen.
Sind Algorithmen gerecht? – Lorena Jaume-Palasí und Tobias Matzner ordnen den Begriff der Künstlichen Intelligenz ein, beschreiben die Konzepte dahinter und diskutieren, inwieweit Gerechtigkeit in mathematischen Modellen überhaupt darstellbar ist. Diese Modelle bilden Kategorien, die aber die Ambivalenzen des menschlichen Lebens nicht einfach abbilden können.
#everynamecounts – Das Projekt ist sehr gut geeignet, um die Erfassung, Klassifizierung und Bewertung von Menschen während der NS-Zeit in der Schule oder in der außerschulischen Bildung zu thematisieren. Die Arbeit mit den gescannten Originaldokumenten fördert nicht nur das forschend-entdeckende Lernen, sondern rückt auch ins Bewusstsein, dass der Selektion an der Rampe die statistische Erfassung und die in ihr eingeschriebene Ideologie voranging. Eine Warnung vor der restlosen Erfassung von Menschen.
Im Angesicht einer allgegenwärtigen, paranoiden Überwachungspraxis läuft die Frage, was einzelne Personen für normal halten, ins Leere. Entscheidend ist, wer festlegt, was als normales und abweichendes Verhalten zu gelten hat. Die Entscheidungen darüber diffundieren langsam in private Unternehmenszentralen und staatliche Sicherheitsbehörden und entziehen sich Aushandlungsprozessen. Dies belegen Beispiele aus dem Lern- und Berufsalltag.
Beispiel “Online-Proctoring“
Im Juni 2021 erhielt die Münchner Proctorio GmbH den BigBrotherAward 2021 in der Kategorie Bildung. Das Unternehmen hat eine vollautomatische und „KI“-gestützte Beaufsichtigung von Online-Prüfungen in der häuslichen Umgebung der Prüflinge auf den Markt gebracht. In seiner Laudatio kritisiert Prof. Dr. Peter Wedde „automatisierte Bewertungen des menschlichen Verhaltens […] [, weil die Unschuldsvermutung] durch Formen der ‚automatisierten Verdachtsbegründung’“15 aufgehoben und das beobachtete Verhalten der Prüflinge nur noch erfasst, aber nicht mehr verstanden werde. Die Software gleiche das Verhalten der Prüflinge mit Mustern ab, die andere Menschen als „normal“ definiert und in der Software als „Normverhalten“ hinterlegt haben und könne daraus negative Schlussfolgerungen ziehen. Wedde bezieht sich auf Berichte von Studierenden, wonach die Software häufige Kopfbewegungen, lautes Vorlesen der Fragen, umherschweifende Blicke, Gesten, laute Nebengeräusche, häufiges Scrollen, Weinen vor dem Bildschirm oder schnelle Mausbewegungen als „abweichend“ und damit als verdächtig bewertet habe. Die Verdachtsstufe erhöhe sich automatisch, wenn Prüflinge Toilettenpausen einlegen oder sich in ihrem Verhalten vom Rest der Klasse unterscheiden.16
Das Beispiel zeigt, wie die Auswertung von Datenspuren menschliches Verhalten in ein eisernes Korsett zwingen kann und die Rechtfertigungslast den Individuen aufbürdet. Überdies nimmt diese Prüfungsmethode den Prüflingen ihre Autonomie und ist diskriminierend, weil aufgrund sozialer Ungleichheiten nicht alle Prüflinge die von der Software geforderten Voraussetzungen erfüllen können.
Beispiel KI-gesteuerte Kameras
Nach einem Bericht des Magazins „Vice“17 installiert Amazon seit Frühjahr 2021 KI-gesteuerte Kameras des KI-Tech-Startups Netradyne in die Fahrzeuge seiner Lieferflotte, die „Ereignisse“ wie zu dichtes Auffahren, Verstöße gegen Stoppschilder oder abgelenktes Fahren aufzeichnet und den Fahrern Echtzeitwarnungen über ihr Fahrverhalten liefert. Die Kamera besteht aus vier Linsen, von denen eine ständig auf den Fahrer gerichtet ist, ihn ständig anpiepst und bei Fehlverhalten mit einer künstlichen Stimme anspricht. Im Gespräch mit Motherboard berichten die Fahrer, dass sie für „Ereignisse“ bestraft werden, die entweder gar nicht stattgefunden haben wie etwa falsche Stoppschildverstöße, weil die Kamera Vorfahrtschilder für Stoppschilder hält, die sich ihrer Kontrolle entziehen, etwa wenn andere Verkehrsteilnehmer die Lieferwagen im dichten Verkehr schneiden oder vor ihnen abbremsen oder die ganz normales Fahrverhalten darstellen, etwa wenn sie in den Seitenspiegel oder über ihre Schulter schauen, Radiosender einstellen oder nach unten blicken. Die Kameras erfassen Vorfälle, die sie aufgrund der Komplexität des Verkehrs häufig nicht richtig einordnen und „verstehen“ können. Das hat Folgen für die Fahrerinnen und Fahrer und die von Amazon beauftragten Lieferfirmen, da es keinen Raum gibt, die Daten der Kamera zu hinterfragen oder fehlerhafte Verstöße bei Amazon anzufechten.
Jedes „Ereignis“ wirkt sich auf den Score der Fahrerinnen und Fahrer aus, an den Boni, Prämien und Sonderzahlungen gekoppelt sind. Die Auswertung der „Ereignisse“ fließen in einen Score ein, der das Verhalten in Kategorien von “fantastisch” über “gut” und “mittelmäßig” bis hin zu “mangelhaft” einordnet. Erreichen die Fahrerinnen und Fahrer in den wöchentlichen Auswertungen keine „fantastische“ Leistungsbewertung, verlieren die Amazon-Lieferdienstpartner die für das wirtschaftliche Überleben notwendigen Prämien. „Vice“ verweist auf einen Bericht des AI Now Institute, demzufolge Firmen wie Amazon durch den Einsatz von KI die Machtasymmetrien zwischen Arbeitern und Arbeitgebern verstärken, ihre Gewinne steigern und Löhne senken.18 Das Online-Prekariat wächst. Nach Schätzungen der EU arbeiten rund 28 Millionen Menschen als Soloselbständige für Tech-Firmen wie Uber, Helpling oder Deliveroo 19 Bereits 2014 hat Jaron Lanier geschrieben, dass der Einsatz von hocheffizienten Technologien „einfache Leute immer mehr ihrer Chancen“ beraube und „nicht in ein Zeitalter des Wohlstands führen“ werde.20
Die Frage, in welchen sensiblen Kontexten man Datenspuren überhaupt noch hinterlassen sollte, wird in naher Zukunft immer dringlicher werden. Mit der sog. E-Evidence-Verordnung plant die EU-Kommission eine Alternative zum Rechtshilfeverfahren und möchte Ermittlungsbehörden in EU-Mitgliedsstaaten in die Lage versetzen, in strafrechtlichen Verfahren schnell und unkompliziert auf Cloud-Daten, etwa Bestands- oder Inhaltsdaten in einem anderen EU-Land zugreifen zu können. Im Ergebnis könnte auf Anordnung eines Gerichts in einem EU-Mitgliedsstaat ein Provider in einem anderen Mitgliedsstaat dazu verpflichtet werden, personenbezogene Daten herauszugeben – und dies, ohne das die Betroffenen oder die zuständigen Justizbehörden darüber informiert werden und unabhängig davon, ob die verfolgte Tat in dem ersuchten Land überhaupt als Straftat gilt. Legales Verhalten in Deutschland wäre damit potentiell der Strafverfolgung durch ein anderes Land ausgesetzt. Das bedeutet, dass zum Beispiel Aktivistinnen, die sich von Deutschland aus für die Rechte von polnischen Frauen einsetzen, die einen Schwangerschaftsabbruch vornehmen wollen, mit Strafverfolgung seitens der polnischen Behörden rechnen müssen.
Die Behauptung „Ich habe doch nichts zu verbergen“ ist im Grunde eine Verteidigung der Datensammelpraktiken der NSA oder des Alphabet-Konzerns und kann die Nähe zu einem Ausspruch Eric Schmidts nicht leugnen. Am 11. April 2009 erklärte Schmidt, seinerzeit CEO von Google, gegenüber dem US-Fernsehsender CNBC mit Blick auf die Datensammelpraktiken des Konzerns: „If you have something that you don’t want anyone to know, maybe you shouldn’t be doing it in the first place.“21 Mit der Unterstellung, das Privatheit nur für unanständige Menschen, die etwas auf dem Kerbholz haben, nützlich sei, deklassiert Schmidt ein Menschenrecht, nämlich das in Jahrhunderten erkämpfte Recht auf freie Entfaltung der Persönlichkeit. Darum kreist auch die Behauptung „Ich habe doch nichts zu verbergen: weil man nichts Verdächtiges und Ungesetzliches im Schilde führe, habe man auch kein Problem damit, wenn die eigenen Daten frei im Netz flottieren. Der US-Sicherheitsexperte Bruce Schneier macht demgegenüber darauf aufmerksam, dass Privatheit uns vor Missbrauch durch die Machthaber schütze, selbst wenn wir uns zum Zeitpunkt der Überwachung keines Vergehens schuldig gemacht haben.22
3. Was steht auf dem Spiel?
Wer Datenspuren hinterlässt, verliert die Kontrolle über die Deutung des eigenen Lebens. Andere übernehmen dann im Verborgenen das Geschäft der Bewertung und Beurteilung, der Verhaltenslenkung, der Vergabe von Optionen und der Einschränkung von Handlungsfreiheit. Die schiere Existenz von Datenspuren lädt dazu ein, Urteile über Menschen zu fällen. Und wem wir am Ende mehr geglaubt? Den Menschen selbst oder den Urteilen über Menschen? Dem tatsächlichen Verhalten oder den Daten über menschliches Verhalten? Wenn Daten als absolute Wahrheit interpretiert werden, steht die Glaubwürdigkeit und Integrität eines jeden Menschen auf dem Spiel. Die Ansicht: „Ich habe doch nichts zu verbergen“ ist daher naiv und brandgefährlich. Sie führt dazu, sich diesen Urteilen wehrlos und ohne Not auszuliefern. Angesichts der Machtasymmetrien, die der digitale Überwachungskapitalismus hervorbringt, eine durchaus reale Gefahr. Die Geschichte über das eigene Leben wird dann von anderen erzählt.
Das zerteilte Ich – Der Beitrag von Thomas Kernert ordnet Big Data-Technologien ein in die Jahrhunderte alten Versuche, Gesellschaften zu kontrollieren, zu überwachen, Menschen zu klassifizieren, Zutritte für die Einen zu gewähren und unerwünschte Individuen fernzuhalten. Dabei stehen nicht Menschen im Zentrum der Analyse, sondern die Kategorien, denen sie zugeordnet werden. Das Subjekt ist nur noch dann von Interesse, wenn es einen Verdacht auf sich zieht.