Universität KonstanzExzellenzcluster „Kulturelle Grundlagen von Integration“

Autonomie gegen sozial-mediale Teilhabe – ein Kuhhandel?

Schon lange haben Datenschutz-Verfechter gewarnt, persönliche Daten seien bei Facebook nicht sicher. Und Krypto-AktivistInnen setzen sich seit fast 30 Jahren für Verschlüsselungstechniken ein. Angesichts des aktuellen Skandals um Cambridge Analytica stellt sich aber die Frage, ob Warnungen wie Maßnahmen nicht zum Scheitern verurteilt sind, solange User sie weitgehend ignorieren? Wie finden wir den Weg zu einer „mündigen“ digitalen Gesellschaft?
Ein Kommentar von Nicolai Ruh.

Illustration mit Mann und Schaltkreisen
Illustration von Gerd Altmann @ pixabay .

Vertrauen ist gut, Kontrolle ist besser. Muss dies nicht insbesondere für das ‚Digitale Zeitalter’ gelten, in dem Informationswege intransparent und nur mehr durch hochtechnische Lösungen – wenn überhaupt – kontrollierbar geworden sind? Zwar sind die Akteure, die ich in meiner Forschung über Netzaktivismus untersuche, eine in ihren konkreten politischen Zielsetzungen heterogene Experten-Community. Aber diese AktivistInnen eint ein Problembewusstsein dafür, dass zentralisierte ICT-Infrastrukturen für die massenhafte Manipulierbarkeit der Kommunikationserfahrung der NetznutzerInnen durch Drittparteien grundsätzlich anfällig sind. Dies schließt sowohl die Dienstanbieter selbst als auch unbekannte Dritte ein, die sich befugt oder unbefugt Zugriff auf die Unternehmensserver verschaffen können.

Außerdem kritisieren die AktivistInnen, dass ein Bewusstsein für die aus dieser Manipulierbarkeit resultierenden Gefahren fehlt. Als Ursache dieses mangelnden öffentlichen Problembewusstseins führen die IT-Experten einhellig einen Autonomieverlust der NetznutzerInnen an, der mit der zunehmenden Kommerzialisierung des Netzes einsetzte und seither stetig zunimmt. Nach dem Platzen der Dotcom-Blase Anfang der 2000er-Jahre entwickelten sich im Silicon-Valley Geschäftsmodelle, die auf der Monetarisierung von Nutzerdaten basieren. Der User, der innerhalb der Logik dieser Geschäftsmodelle nicht Kunde, sondern Produkt ist, trägt durch die Generierung von Content aktiv zur Wertschöpfung der Unternehmen bei. Die konkreten Modalitäten der Datenerhebung und -verarbeitung sind dabei Teil eines Betriebsgeheimnisses, in das der User nicht eingeweiht ist. Er ist dementsprechend vom Produkt seiner „Arbeit“ entfremdet und wird im Gegenzug durch neue Möglichkeiten sozialer Teilhabe entlohnt. Aus Sicht der AktivistInnen liegt diesem Handel die Aufgabe von Autonomie zugunsten der Bereitstellung von Funktionalität und einfacher Bedienbarkeit zugrunde.

So klagte mir ein leitender technischer Angestellter der Electronic Frontier Foundation, dass kommerzielle Anwendungen vermehrt auf erweiterte Funktionalität und einfache Nutzeroberflächen setzen, während die tatsächlichen Funktionalitäten und die Modalitäten der Datenvermittlung, auf denen letzten Endes die Wertschöpfung der Unternehmen basiert, unter der Nutzeroberfläche verborgen bleiben. Facebook und Google würden dementsprechend von den meisten NutzerInnen ausschließlich in ihrer oberflächlichen Funktionalität als Social-Media-Plattform oder Suchmaschine wahrgenommen, während ihr Geschäftsmodell von diesen Oberflächenanwendungen kaschiert wird.

Diese Geschäftsmodelle setzen eine Wissensasymmetrie zwischen Dienstanbieter und User voraus. Was Facebook konkret an seine Kunden verkauft, ist die Aufmerksamkeit seiner NutzerInnen über sogenanntes Microtargeting. Hierbei werden die User ausgehend von detaillierten Persönlichkeitsprofilen, deren Inhalte sie selbst oder ihre Freunde generieren, mit gezielten kommerziellen oder anderen Inhalten bespielt. Die unterschwellige Steuerung der Nutzer-Wahrnehmung ist also ein integraler Bestandteil des Geschäftsmodells von Facebook: Es ist ein wesentliches Feature und kein Bug.

Die Art und Weise, wie der Fall Cambridge Analytica öffentlich rezipiert wurde, legt nahe, dass dieses Geschäftsmodell von breiten Teilen der Öffentlichkeit noch nicht verinnerlicht wurde. Abgesehen von der Tatsache, dass Cambridge Analytica offensichtlich unrechtmäßig an die Nutzerdaten gelangte, wirft dieser Fall ein Schlaglicht auf die konkreten Praktiken der Datenerhebung und Verwertung, die ansonsten Teil eines Betriebsgeheimnisses sind.

Tatsächlich war ich von der Skandalträchtigkeit des Falles etwas überrascht, vor allem weil wir seit Snowden wissen, dass US-Geheimdienste massenhaften Zugriff auf die Server von US-Dienstanbietern haben und die Daten aktiv auswerten. Die neue Qualität der aktuellen Debatte besteht meiner Einschätzung nach darin, dass jetzt die konkreten Praktiken, wie die Kommunikationserfahrung manipuliert wird, ins Zentrum der Debatte rücken. Auch die Snowden-Dokumente enthielten bereits Hinweise darauf, wie Geheimdienste massenhaft Nutzerdaten sammeln und auswerten. Jedoch wurde in der öffentlichen Debatte der Aspekt der Datenerhebung überbetont und nicht im Detail auf die konkreten Auswertungspraktiken und deren Rückwirkungseffekte auf Individuum und Gesellschaft eingegangen. Es liegt nahe, dass die Reaktionen vieler User auf Snowden nach dem Motto „Ich habe nichts zu verbergen“ nicht nur einer musealen Vorstellung von Privatheit geschuldet war, sondern auch der Abstraktheit, mit der diese geheimdienstlichen Programme diskutiert wurden.

Tatsächlich sehen sich die AktivistInnen bis dato bei der Aufklärungsarbeit mit dem Problem konfrontiert, die persönlichen Auswirkungen der Big-Data-Praktiken zu plausibilisieren. Indem jetzt die spezifischen Rückwirkungen und Manipulationseffekte diskutiert werden, verliert die Debatte einiges an Abstraktion. Ich halte dies für einen zentralen Schritt hin zu einem neuen Verständnis, was Privatheit im digitalen Zeitalter bedeutet. Hierzu gehört auch, dass die Rückwirkungseffekte, die digitalisierte Lebensäußerungen auf das Individuum haben können, von diesem nicht mehr ansatzweise antizipierbar sind. Aus Sicht der IT-Experten ist dies auch den Modalitäten geschuldet, wie Daten in zentralisierten ICT-Infrastrukturen (re-)produziert und distribuiert werden. Diese Systeme bilden hochsensible Angriffspunkte für unbekannte Angreifer. Das heißt, selbst wenn Facebook die Daten seiner NutzerInnen aktiv schützen würde (wobei offen bleibt, was dies in Anbetracht des gegenwärtigen Geschäftsmodells genau heißen soll), wären die auf den Servern des Unternehmens massenhaft gespeicherten Daten immer noch heiß begehrte Ziele für Hackerangriffe.

Dementsprechend greifen aus Sicht der Cypherpunks auch die in Europa geführten Debatten um informationelle Selbstbestimmung zu kurz. So erklärte mir ein leitender Angestellter der Electronic Frontier Foundation, dass aus seiner Sicht nicht die Selbstbestimmung über personenbezogene Daten, sondern die grundsätzliche Vermeidung der Produktion von Daten mit Personenbezug zentral sei.

Tatsächlich werden innerhalb der Tech-Community seit geraumer Zeit Alternativen zu zentralisierten Diensten wie etwa dem zu Facebook gehörenden Messenger Whatsapp entwickelt. Zu nennen wäre hier etwa der auf „Ende-zu-Ende“-Verschlüsslung basierende Messenger „Signal“, der für seine Datensparsamkeit bekannt ist. Diese Systeme setzen vom Nutzer kein erweitertes technisches Know-how voraus. Signal unterscheidet sich in seiner Benutzeroberfläche nicht wesentlich von Whatsapp. Auch zu Facebook werden Alternativen entwickelt, wobei hier nach meinem Kenntnisstand noch technische Schwierigkeiten bezüglich der Skalierbarkeit distribuierter sozialer Peer-to-peer-Netzwerke zu bewältigen sind.

Viele der von mir interviewten AktivistInnen betonen, dass ein vertieftes technisches Know-how gar nicht allgemein vorausgesetzt werden müsse, um den gegenwärtigen Problemen Herr zu werden. Sich der Datensammlung und Auswertung komplett zu entziehen, ist heute auch bei besten Kenntnissen und größten Einschränkungen nahezu unmöglich. Vielmehr seien ein öffentliches Problembewusstsein und ein Wissen um die Möglichkeiten der Datensparsamkeit von zentraler Bedeutung, um die Monopolstellung zentralisierter Dienstanbieter zu brechen. Die Skandalträchtigkeit von Cambridge Analytica lässt hoffen, dass der Fall zu einer breiteren Debatte um die gesellschaftlichen Auswirkungen des Datenkapitalismus und möglicher Alternativmodelle beitragen wird.

Porträt Nicolai Ruh

Nicolai Ruh ist wissenschaftlicher Mitarbeiter am Exzellenzcluster „Kulturelle Grundlagen von Integration“. In seinem Dissertationsprojekt „The Universe Believes in Encryption – Netzaktivismus und postsoziale Imaginationen in den USA und Deutschland“ untersucht er die Perspektive der Netzaktivisten-Community.