Regel 8 | Datenkontrolle schafft Herrschaft

These: Alle Bestrebungen, den Kontrollverlust einzudämmen, führen dazu, dass die Machtbasis der Plattformen gestärkt wird. Datenkontrolle zwingt zur zentralisierten Kontrolle und schwächt somit die Zivilgesellschaft.

 

Im alten Spiel ließ sich Macht einschränken, indem die Kontrolle von Daten durchgesetzt wurde. Das Urheberrecht war dafür gedacht, die Interessen einzelner Künstlerinnen und Autoren gegenüber der Verwertungsindustrie zu schützen; Datenschutz wurde ersonnen, um das zivile Individuum vor mächtigen Institutionen abzuschirmen.

Im Neuen Spiel funktioniert diese Vorgehensweise nicht nur nicht mehr, sondern bewirkt sogar meist das Gegenteil. Mit der Durchsetzung von Urheberrechten durch die Verwertungsindustrie werden monopolartige Plattformstrukturen geschaffen, in denen die Kreativen eingesperrt sind, ohne davon zu profitieren. Auch Datenschutzforderungen führen dazu, dass sich Plattformen abschotten, was die Interoperabiltät einschränkt und den Lock-in-Effekt verstärkt. Gesetze, die die Plattformen regulieren sollen, arbeiten in Wirklichkeit ihrer Machtbasis zu.

Die drei Akteure des Anti-Kontrollverlusts

Der Kontrollverlust wird auf allen gesellschaftlichen Ebenen aktiv bekämpft. Auch für diesen „Anti-Kontrollverlust“ lassen sich drei Akteure ausmachen: Erstens sind es die Plattformbetreiber selbst, die nach zentralisierter Kontrolle streben, um ihre Geschäftsmodelle durchzusetzen. Zweitens ist es der Staat, der die Plattformen zur zentralisierten Kontrolle zwingt, um Gesetzen und dem Willen der Politik zu entsprechen. Und drittens und letztens sind wir es, die Nutzer, die die Plattformen zu mehr zentralisierter Kontrolle drängen.

Kultur wird immer mehr zur Flatrate, die über den Zugang zu Plattformen organisiert und kontrolliert wird. Das gilt für Musik (Spotify, Pandora) ebenso wie für Filme und Serien (Watchever, Netflix) und bald für Bücher (Amazon plant eine E-Book-Flatrate). Die Abhängigkeit, in die sich die Rechteverwerter durch die Plattformwerdung begeben, schadet ihnen, vor allem aber den Künstlerinnen. Ihre Werke bleiben in den Silos eingesperrt, können immer seltener alternativ verwertet werden, während die Preise immer mehr verfallen.

Dieses Problem ist allen Plattformen gemeinsam. Sie bieten Kommunikation, Kultur und Austausch an und stellen die Tools dafür bereit. Eigentlich sind sie somit darauf ausgelegt, die Kontrolle an den Enden – bei den Nutzern – zu platzieren, während die Plattform selbst idealerweise in den Hintergrund tritt. Aber genau Letzteres wird zum Problem, etwa wenn es darum geht, Werbung auszuliefern oder Geld zu verlangen: Vielleicht surfen die Nutzerinnen mit einem Browser mit Ad-Blocker, vielleicht nutzen sie eine App eines Drittanbieters auf dem Telefon, die nur die Tweets, aber keine Werbung anzeigt. Wer mit der Plattform Geld verdienen will, ob mit Werbung oder einem Bezahlmodell, muss die Nutzerinteraktion kontrollieren. Darum werden die Plattformbetreiber zu den ersten Akteuren des Anti-Kontrollverlusts.

Auch der zweite Akteur des Anti-Kontrollverlusts – der Staat, mit dem Mittel des Gesetzes – zwingt sie zur zentralistischen Kontrolle: Wenn auf ihren Plattformen Rechteverletzungen stattfinden, müssen die Plattformbetreiber reagieren, im deutschen Rechtsjargon „Störerhaftung“ genannt. Doch ab wann ist ein Recht verletzt? Nicht jeder Fall ist eindeutig, und doch müssen die Plattformbetreiber Entscheidungen treffen, um auf der legal sicheren Seite zu sein. Sie müssen in die Kommunikation eingreifen, Nutzerinnendaten weitergeben oder löschen und Nutzer sperren. Vieles davon geschieht im eigenen Ermessen. Plattformen werden immer häufiger zu Hilfssheriffs.

Die Umrüstung der Plattformen zu inoffiziellen Instanzen des Rechts bewirkt das Gegenteil von dem, was die Plattformgegner bezwecken. Am deutlichsten wird das beim Recht auf Vergessenwerden. 2014 hat der Europäische Gerichtshof in einem Urteil festgestellt, dass Menschen gegenüber Suchmaschinen unter bestimmten Umständen das Recht geltend machen können, dass Links aus dem Suchmaschinen-Index entfernt werden müssen, die bei der Suche nach ihrem Namen eigentlich auftauchen würden. Wenn ein Link unter meinem Namen bei Google auffindbar ist, der Inhalte enthält, die mich diskreditieren und die lange zurückliegen, kann ich durchsetzen, dass er nicht angezeigt wird.

Diese brachiale Durchsetzung der informationellen Selbstbestimmung Einzelner kollidiert mit der Filtersouveränität von Millionen anderer Menschen. Gleichzeitig verfügt die Suchmaschine weiterhin über die „vergessenen“ Inhalte. Sie muss über diese Schwarze Liste verfügen, weil sie sonst die betreffenden Websites wieder anzeigen würde. Firmen wie Google und Co. müssen versteckt einen umfassenden Index führen, in dem explizit als kompromittierend markierte Inhalte gesammelt sind. Wie ließe sich einer Firma noch mehr Macht geben?

So führt das Recht auf Vergessenwerden zu einer beängstigenden Verschärfung der Machtkonzentration, bei der Suchmaschinen mittels einer intransparenten, auf geheimen Listen basierenden Query Entscheidungsgewalt in unklaren Rechtsfragen bekommen. Johannes Masing, Richter am Bundesverfassungsgericht, hat es in einer Analyse treffend ausgedrückt: „Durch die Entscheidung des EuGH werden Suchmaschinenbetreiber als für Löschungsanträge Verantwortliche zu einer privaten Schiedsinstanz mit weitreichenden Entscheidungsbefugnissen über die Kommunikation im Netz erhoben. Das Urteil droht damit die bereits erhebliche Macht der Suchmaschinenbetreiber zu verfestigen.“95

Der dritte Akteur des Anti-Kontrollverlusts drängt die Plattformen, gleich exekutiv tätig zu werden, ohne dass die Normen überhaupt geklärt wären.

Die Nutzerinnen haben verständliche Bedürfnisse nach Community-Management. Accounts, von denen Stalking oder Belästigung ausgeht, sollen gesperrt werden. Auch das Bedürfnis nach Privatsphäre ist eine Legitimationsbasis für geschlossene Plattformstrukturen und zentrale Kontrollen. Insbesondere in den USA gibt es zudem den Wunsch nach einem „sauberen Facebook-Erlebnis“, zum Beispiel ohne entblößte weibliche Brüste; in Deutschland möchten wir rechtsradikale Seiten gelöscht sehen. Wir setzen die Plattformbetreiber in unklaren Gefilden des Rechts als Polizei, Gericht und Strafvollzug in einem ein. Wir ermächtigen sie zur Durchsetzung eines regionalen, auf die Plattform bezogenen Gewaltmonopols, das ihre Macht enorm erweitert.

Plattformkontrolle und Manipulation

Als in den 1950er-Jahren Fliegen zu einem Massenmarkt wurde, hatte IBM bereits zusammen mit der Air Force das SAGE-System entwickelt. SAGE war ein computergestütztes Flugabwehrsystem, das Daten verschiedener Radarstationen zusammenführen und an zentrale Stellen übertragen konnte. Interessanterweise schien es genau die Features zu besitzen, die interessant für die Buchungsabwicklung ziviler Luftfahrt waren. So entwickelte IBM zusammen mit der Fluggesellschaft American Airlines das Semi-Automated Business Research Environment (SABRE), ein Buchungssystem, das über Datenleitungen Flugdaten übermitteln, koordinieren und Sitzplatzreservierungen durchführen konnte. Das System war ein großer Erfolg und zugleich eine der ersten digital vernetzten Plattformen: Verschiedene Reisebüros und andere Fluggesellschaften schlossen sich an das System an und wickelten ihre Buchungen ebenfalls darüber ab.

1983 kam heraus, dass die Flugbuchungs-Algorithmen auf SABRE manipuliert waren. Sie bevorzugten Flüge von American Airlines bei der Buchung, indem sie selbst bei späterer Angebotserstellung im System immer oben angezeigt wurden – und wie heute die Google-Nutzer neigten die Reiseagentinnen dazu, immer die ersten Einträge zu beachten; zudem wurden Sonderangebote von Wettbewerbern im System einfach unterdrückt. Bei einer Untersuchung des US-Kongresses zu den Vorwürfen sagte Bob Crandall, der Chef von American Airlines, aus, es sei nun mal ein legitimer Konkurrenzvorsprung, das System zur Flugbuchung manipulieren zu können. Das Unternehmen hätte es schließlich selbst entwickelt.

Es ist zu hoffen, dass bei heutigen Plattformbetreibern ein größeres Problembewusstsein besteht, was die Manipulation ihrer Querys angeht. Allein: Wie wollen wir das überprüfen? Wir sind den Ergebnissen der Suchen und der Filter von Plattformen meist ausgeliefert, ohne viel darüber zu wissen, nach welchen Parametern sie zustande kommen. Das ist ein Problem, das schon lange nicht nur theoretisch existiert, sondern bereits heute enorme Auswirkungen auf den politischen Diskurs hat.

Am 9. August 2014 wurde in Ferguson, einer Stadt im US-Bundesstaat Missouri, der 18-jährige Michael Brown bei einer Polizeikontrolle erschossen. Ein Polizeifahrzeug hielt ihn an, weil er es wagte, auf der Straße statt auf dem Bürgersteig zu laufen. Während der Diskussion löste sich ein Schuss aus dem Polizeiauto. Brown floh und wurde dabei von einem der Polizeibeamten von hinten erschossen. Brown war unbewaffnet. Und Brown war schwarz. Ein Jahr zuvor hatte ein Bericht der Polizei in Missouri für Aufregung gesorgt. Er belegt, dass die Wahrscheinlichkeit, bei Polizeikontrollen festgenommen zu werden, bei Schwarzen doppelt so hoch ist wie bei Weißen.96 Rassistische Polizeikontrollen sind in den USA etwas Alltägliches. Schwarze stehen oft unter Generalverdacht.

Bereits am nächsten Tag versammelten sich vor allem die schwarzen Bürgerinnen der Stadt zur friedlichen Mahnwache, der sich sofort 150 Polizisten in vollgepanzerter Montur entgegenstellten. Die Stimmung heizte sich auf, die Lage geriet außer Kontrolle. Es kam zu Plünderungen und Straßenschlachten. Am 11. und 12. August setzte die Polizei Panzerfahrzeuge, Blendgranaten, Rauchbomben, Tränengas sowie Gummigeschosse gegen die Aufständischen ein. Die Bilder von dem martialischen Polizeiaufgebot gingen weltweit durch die Medien und natürlich auch durch die sozialen Netzwerke.

Aber nicht durch alle sozialen Netzwerke gleichermaßen. Die Wissenschaftlerin Zeynep Tufekci untersucht die politische Macht durch algorithmische Newsfilterung. In einem Beitrag auf dem Bloggingportal Medium konstatiert sie, dass die Ereignisse in Ferguson auf Facebook und Twitter sehr unterschiedlich präsent waren.97 In ihrem Facebook-Stream tauchte Ferguson kaum auf, während es auf Twitter beinahe kein anderes Thema gab. Das lag aber nicht daran, dass die Leute auf Facebook nichts dazu schrieben. Der Edgerank-Algorithmus, der laut Facebook die Neuigkeiten nach personalisierter Relevanz aufbereitet, schien das Thema einfach herausgefiltert zu haben. Auch auf Twitter findet eine algorithmische Filterung statt; zwar nicht in den persönlichen Neuigkeiten, aber die „Trending Topics“ zeigen üblicherweise Themen von allgemeiner Relevanz an, je nach Land und Region. Doch selbst hier kam Ferguson trotz enormer Präsenz nicht einmal in den USA vor.

Auch jenseits von Verschwörungstheorien ist diese Situation problematisch. Wenn Plattformen die relevanten Infrastrukturen sind, auf denen gesellschaftlicher Diskurs stattfindet, werden deren filternde Querys zum Politikum; zu einer kritischen Infrastruktur des demokratischen Diskurses, die sich auf intransparente Querys stützt, bereitgestellt von intransparenten Konzernen mit kurzem Draht zu den Geheimdiensten. Was soll da schon schiefgehen?

Strategien

Datenschützer rufen gerne nach einer besseren Kontrolle von Plattformen. Das Gegenteil ist richtig: Wir müssen jetzt den Kontrollverlust gegen die Plattformen durchsetzen.

Unsere Zukunft wird geprägt sein von Plattformen. Ob sie in eine neue Form der Tyrannei führen oder in eine neue Selbstermächtigung der Zivilgesellschaft, entscheidet sich an der Kontrolle, die wir ihnen zugestehen beziehungsweise aufbürden. Nur wenn wir den Plattformen keine oder möglichst wenig Kontrolle über die Datenflüsse zugestehen, wird die Plattform zur Infrastruktur statt zum unkontrollierten Machtapparat. Der informationelle Kontrollverlust ist nicht unser Feind, sondern unser Freund. Er bedeutet: offene Daten, die von verschiedenen – am besten beliebig vielen – externen Querys ausgewertet werden können. Nur dann verlieren die Plattformen ihre Macht. Sie verlieren ihre Macht, uns auszuschließen, denn wir können unsere Daten anderswo veröffentlichen. Die Plattformen verlieren ihre Macht, Querys nach Gutdünken zu manipulieren, da wir die Daten mit eigenen Querys auswerten und die Ergebnisse vergleichen können. Sie verlieren ihre Macht des Lock-ins, denn sie können nicht verhindern, dass wir auf den Daten andere Applikationen laufen lassen. Offene Daten sind die einzige Möglichkeit, der Plattformenfalle zu entfliehen.

Diese Freiheit hat einen Preis. Ob Privatsphäre, Community-Management, der Schutz geistigen Eigentums oder die Durchsetzung von Rechten: Langfristig werden wir auf vielen Ebenen auf zentrale Kontrolle verzichten müssen.

No Copyright

„No Copyright“ ist der programmatische Titel eines Buchs, in dem der Politikwissenschaftler Joost Smiers und die Ökonomin Marieke van Schijndel das Urheberrecht kritisch betrachten. Sie erkennen es darin als verantwortlich für die Konzentrationen auf dem Kulturmarkt und die sich daraus ergebende Blockbuster-Kultur. Es sei das Monopol an den durch das Urheberrecht verbrieften Auswertungsrechten, die zu der immer stärkeren Konzentration der Kulturindustrie auf wenige, globale Konzerne führe. Sie fordern eine radikale Abschaffung des Urheberrechts, in der Hoffnung, Kultur damit wieder zu dezentralisieren.

Dem Urheberrecht haben wir einen Großteil der Überwachungs- und Kontrollversuche des Internets durch die Politik zu verdanken. Das Internet mit dem Konzept des Urheberrechts zu vereinbaren, ist wie Segelfliegen im Vakuum: unmöglich. Trotzdem wird es versucht – mit Gewalt. Solange es das Urheberrecht gibt, werden Menschen mit Geld und Einfluss versuchen, das Internet zur Kontrollgesellschaft umzufunktionieren. Kurzfristig bleibt uns nichts anderes übrig, als mithilfe freier Lizenzen einen möglichst breiten Umweg um das Urheberrecht zu bauen und somit das Kontrollstreben im Zaum zu halten. Langfristig werden wir es loswerden müssen.

Das Internet bietet die Chance der sofortigen, globalen Gleichverteilung von Informationen. Natürlich ist das eine Utopie – aber eine Utopie, deren Verwirklichung heute keine technischen oder ökonomischen Hürden im Weg stehen, sondern vor allem (urheber-)rechtliche. Wir sind moralisch verpflichtet, diese Möglichkeiten wahrzunehmen, die sich uns bieten, und das bedeutet: alle ausschließenden Verfügungsrechte über Informationen abzuschaffen.

Der gesellschaftliche Gewinn einer Abschaffung des Urheberrechts wäre enorm. Stellen wir uns ein Netz ohne Grenzen vor, ein Weltwissen ohne Zugangsbeschränkung, eine Remix-Kultur ohne Transaktionskosten, eine ungebändigte Kreativität, in der jeder Gedanke und Text oder Film unmittelbar anschlussfähig bleibt und zu neuen Gedanken führen kann, für jede und von jedem, weltweit. Stellen wir uns eine echte Informationsgesellschaft vor.

Diese Welt liegt keinesfalls in unerreichbarer Ferne. Wenn die Preise für kulturelle Güter weiter sinken, wird das den monetären Druck aus der Debatte um das Urheberrecht nehmen. Dafür müssen wir fleißig Filesharing betreiben und unsere geistigen Erzeugnisse unter freien Lizenzen anbieten.

Das radikale Recht des Anderen

Auch wenn wir in Regel 7 dafür plädieren, Plattformen kurzfristig die Aufgaben einer notwendigen Ordnungsinstanz zuzugestehen, dürfen wir nie vergessen, welche Macht wir ihnen damit anvertrauen. Langfristig ist das problematisch. Darum brauchen wir eine Strategie, die im Gegensatz zur zentralen Durchsetzungsmacht der Plattformbetreiber Ende-zu-Ende funktioniert, also dezentral umsetzbar ist: die Filtersouveränität. In Zukunft müssen wir uns darauf verlassen können, dass wir uns mit allem und jedem verbinden und alles und jeden nach eigenen Kriterien wirksam ausblenden können. Das ist heute nur in Ansätzen der Fall und meist unter der Zuhilfenahme zentralistischer Plattformstrukturen, wie zum Beispiel das Blockieren und Abonnieren auf Twitter. Aus technischer Sicht steht aber einer wirksamen und dezentralen Erweiterung von Filter-Tools nichts im Weg.

Die Filtersouveränität wird mit zunehmender Macht der Query zum „radikalen Recht der Anderen“, oder anders ausgedrückt: Niemand hat das Recht, gelesen zu werden, und niemand hat das Recht, nicht gelesen zu werden. Diese Lösung ist radikal und wird Seiteneffekte haben, die es zu parieren gilt. Aber sie erlöst uns von der ansonsten drohenden Alternative – der Unmündigkeit und Fremdbestimmung durch zentralistische Plattformen.

Befreit alle Daten!

Es war einmal ein Königreich, in dem fast niemand sehen konnte. Die Leute kamen zurecht, denn sie kannten sich aus. Außerdem konnte etwa jeder Hundertste sehen. Diese Sehenden waren so etwas wie Spezialisten und kümmerten sich um die Aufrechterhaltung der Ordnung, sie gaben Richtungen aus und berichteten den anderen von Neuigkeiten. Die Sehenden besaßen ihre Gabe allerdings nicht von Geburt an, sondern aßen zu diesem Zweck eine bestimmte, sehr bittere Frucht. Die Menschen vertrauten den Sehenden. Es galt der Spruch: „Ein Sehender lügt niemals.“

Eines Tages ging das Gerücht um, einige der Sehenden seien nicht mehr ehrlich. Sie würden Leute in die falsche Richtung schicken und dann auslachen, wenn sie gegen eine Wand liefen. Einige der Sehenden gaben zu, dass es unter ihnen ein paar schwarze Schafe gäbe. Das ganze Königreich war beunruhigt. Wem war noch zu trauen? Einige Menschen trauten sich nicht mehr aus dem Haus, das soziale Leben litt unter dem Misstrauen. Es wurde darüber diskutiert, ob den Sehenden nicht besser das Augenlicht genommen werden sollte; ihre Macht sei zu groß. Wenn niemand etwas sehen kann, sind alle besser dran, meinten einige. Doch da rief ein kleines Mädchen: „Hier!“ und hielt den anderen die bittere Frucht unter die Nase. „Esst!“ befahl es. „Hört auf, euch über die Lügner zu beschweren und seht selbst.“

Diese Parabel aus dem Buch „Transparent Society“ von David Brin, hier von mir halb übersetzt, halb nacherzählt, gibt am besten wieder, vor welcher Entscheidung wir uns befinden. Angesichts der Macht der Plattformen versagen institutionelle Kontrollinstanzen. Wir sind den Plattformen ausgeliefert wie die Menschen in der Fabel den Sehenden. Wenn wir dem entkommen wollen, werden wir früher oder später in die bittere Frucht beißen müssen: Wir müssen die Kontrolle aufgeben und alle Daten zur offenen Aggregation und Auswertung öffnen. Nur Querys können Querys kontrollieren, und dafür braucht es offene Daten.

Die einzige Möglichkeit, effektiv zu verhindern, dass die Querys manipulativ gegen uns verwendet werden, ist Redundanz. Wäre Google die einzige verfügbare Suchmaschine, wäre tatsächlich allergrößtes Misstrauen angebracht. Aber noch kann jede – mit entsprechendem technischem und finanziellem Aufwand – selbst einen Index des Webs erstellen und nach eigenem Gutdünken sortieren. Genau das tun auch viele. Microsofts Bing, Duckduckgo, Wolfram Alpha und andere Suchmaschinen tun genau dasselbe wie Google. Um als Kontrollsuche zu dienen, spielt der Marktanteil keine Rolle. Solange sich an konkurrierenden Querys überprüfen lässt, ob Google seine Query-Macht im größeren Maßstab missbraucht, ist diese einigermaßen eingehegt. Damit die Überprüfbarkeit bestehen bleibt, braucht es Daten, die von allen ausgewertet werden können. Dank des offenen freien Webs sind diese Daten gegeben. Doch eben dieses ist auf dem Rückzug. Facebook, zunehmend auch Twitter und viele andere schirmen ihre Daten gegen Querys Dritter ab. Und das ist das eigentliche Problem.

Statt zu mehr Datenschutz müssen wir die Plattformbetreiber zum Öffnen ihrer Daten bewegen. Je offener die Daten sind und je mehr Querys auf die Daten angewendet werden können, desto besser können wir die Macht der Plattformen einhegen.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>