Kapitel 4 | Aufstieg der Plattformen

Der Kontrollverlust bedroht die herrschenden Ordnungen. Es wäre jedoch naiv zu glauben, dass er nicht auch eine neue Ordnung befördert. Die Utopie eines reinen Ende-zu-Ende-Regimes denkt die materiellen Grundlagen ihrer Möglichkeit nicht mit. Bestehende Hierarchien lösen sich auf und werden durch heterarchische – gleichberechtigte, horizontale und kurzlebige – Netzwerkstrukturen ersetzt. Gleichzeitig beobachten wir jedoch eine neue Konzentration und Zentralisierung von Macht, an der die Query ebenfalls mitwirkt: den Aufstieg der Plattformen.

Was ist eine Plattform?

Plattformen finden sich in vielen Gestalten. Abgesehen vom unaufhaltsamen Aufstieg der Social Networks – zunächst Friendster und Myspace, schließlich das weltweit erfolgreiche Facebook – sind bekannte Beispiele für Plattformen Twitter, Instagram, Airbnb, MyTaxi und Car2Go. Doch die Plattform gab es lange vor diesen Diensten: Das Internet selbst ist eine Plattform, genauso wie das sich darauf abspielende World Wide Web. Jedes Betriebssystem bildet eine Plattform. Der Begriff lässt sich aber durchaus ins Nichtdigitale erweitern: Sendefrequenzen sowie die Gesamtheit aller Zeitungskioske oder aller Telefonprovider können als Plattformen bezeichnet werden. Und wenn wir schon dabei sind – warum dann nicht auch der öffentliche Nahverkehr, den Markt oder gleich die öffentliche Ordnung?

Wie sich zeigen wird, werden außerdem Dinge, die bislang keine Plattform waren, zur Plattform. Plattformen entstehen dort, wo vorher Institutionen ihren Ordnungsanspruch erhoben. Die Plattform ist das dominierende Ordnungsprinzip der Zukunft und der neue Ort konzentrierter Macht.

Plattform als Institution

Die Institution ist nicht tot – sie hat sich nur verwandelt. Mitfahr-Apps ersetzen die Taxizentralen, indem sie das Problem der Koordination von Personen und Transportmittel über eine Plattform lösen. Twitter-Hashtags ersetzen Sondersendungen zu Ereignissen, indem sie Information und Menschen mithilfe einer Plattform zusammenbringen. Facebook ersetzt den Verein, den Club, den Stammtisch, die Brieffreundschaft etc., indem es ermöglicht, soziale Beziehungen über eine Online-Plattform zu pflegen. Website und App der Bahn ersetzen den Ticketschalter, indem sie Bahnticket und Passagier mithilfe einer Plattform verknüpfen.

Der Unterschied zwischen der klassischen Institution, wie wir sie im letzten Kapitel besprochen haben, und der Plattform ist der Sitz der Kontrolle. Während die klassischen Institutionen versuchen, das jeweilige „Problem“ direkt und in Vertretung für ihre Klienten zu lösen, stellt die Plattform ihren Teilnehmerinnen die dafür nötige Infrastruktur zur Verfügung. Es verhält sich ein bisschen wie mit verschiedenen Fortbewegungsmitteln.

Die Problemlösung mittels der klassischen Institution ist wie Zugfahren: Der Zug fährt eine festgelegte Strecke auf Schienen. Die kann ich in Erfahrung bringen, aber nicht abändern. Der Zug fährt nicht genau dann, wenn ich ihn brauche, sondern zu bestimmten Zeiten, nach denen ich mich richten muss. Wenn mein Ziel nicht zufällig ein anderer Bahnhof ist, bringt er mich auch nicht genau dorthin, wo ich hinwill. Ich kann damit ein gutes Stück in die richtige Richtung fahren; ab einem bestimmten Punkt muss ich mich um neue Transportmittel kümmern. Problemlösung via Plattform funktioniert dagegen eher wie Autofahren. Ich setze mich einfach rein, wann und wo ich will, und fahre direkt zu meinem Ziel – sofern sich dieses am Straßennetz befindet. Der Zug wird zentral gesteuert, das Auto dezentral.

Nun protestiert der eine oder die andere: „Huch? Facebook oder Twitter sind doch nicht dezentral.“ Das stimmt. Diese Plattformen sind zentral organisiert. Es gibt zentrale Rechenzentren, auf denen die Server laufen, die unsere Profildaten beherbergen. Doch auf der Plattform agieren die Nutzer autonom, das heißt: Die Ereignisse auf der Plattform organisieren sich nichtsdestotrotz dezentral. Facebook mag ein zentralistischer Großkonzern sein: Alles kommt aus einer Hand, alles ist unter einer Domain erreichbar, 1,5 Milliarden Menschen unter der Kontrolle von Mark Zuckerberg. Doch die Teilnehmer sind Ende-zu-Ende über lose, dezentrale Freundschaftsnetzwerke miteinander verknüpft. Anders als zum Beispiel in einem Forum oder einem Chatraum kommunizieren sie direkt miteinander und nicht in einen Raum hinein. Es gibt auf Facebook keine einheitliche Struktur, die alle zwangsläufig miteinander vereint. Facebook als ein riesiger Chatraum käme der Hölle ziemlich nah. Die dezentrale Netzwerkstruktur sorgt jedoch dafür, dass Facebook-Nutzer mit der Existenz der meisten anderen Facebook-Nutzerinnen nie behelligt werden. Plattformen sind im Grunde Institutionen, die ohne zentrale Kontrolle auskommen. Mit der klassischen Institution hat die Plattform die Aufgabe gemein, der Attraktor zu sein, der Menschen, Interessen und Wissen zum gegenseitigen Austausch versammelt. Darum teilen Plattform und klassische Institution auch einige Eigenschaften: Konsistenz, Verlässlichkeit und den Hang zu Standardisierungen.

Die Konsistenz spielt für die Plattform wie für die klassische Institution eine zentrale Rolle. Jede Plattform muss für ihre Nutzung Schnittstellen zur Verfügung stellen: Oberflächen, Formulare, Programmierschnittstellen. Würden sich diese Schnittstellen in ihrer Art und Benutzung täglich ändern, würde die Attraktivität für Nutzer und Entwicklerinnen sinken. Das regelhafte Verhalten der klassischen Institution stellt Inseln der Berechenbarkeit im Meer der Kontingenz her. Eingeschränkt gilt das auch für die Plattform. Sie ist darauf angewiesen, dass die Nutzer Vertrauen in ihre Konsistenz gewinnen. Eine Plattform kann sich nur dann etablieren, wenn die Teilnehmerinnen sich nicht ständig Sorgen darum machen müssen, ob sie verfügbar ist oder nicht.

Eine klassische Institution muss, um ein Problem zu bearbeiten, zunächst seine Komplexität auf wenige Standardfälle herunterbrechen. Uns begegnet diese Standardisierung zum Beispiel in Form von Formularen, die wir ausfüllen sollen. Auch die Plattform arbeitet mit und durch Standards. Das Internet zum Beispiel funktioniert nur, weil man sich auf bestimmte Protokollstandards geeinigt hat. Auch für die Nutzung vieler Dienste müssen wir deshalb standardisierte Formulare ausfüllen. Doch die Plattform bietet ein viel differenzierteres Instrumentarium an als die Institution, die einfach immer nach Schema F funktioniert. Die Ergebnisse der Institution waren so lange gut genug, wie es nichts Besseres gab.

Netzwerk

Bereits 1996 hatte Manuel Castells in seinem Buch „The Information Age: Economy, Society, and Culture“ darauf aufmerksam gemacht, dass das Netzwerk das Strukturparadigma des Informationszeitalters sei und prägte den Begriff der „Netzwerkgesellschaft“. Netzwerke sind für ihn kein neues Phänomen, sondern schon immer vorhanden. Mit dem Aufkommen der elektronischen Kommunikationsmedien haben sich die Voraussetzungen der Vernetzung aber so stark verändert, dass sie die hierarchischen Strukturen abzulösen beginnen. Das Prinzip Netzwerk ist allgegenwärtig, diese Beobachtung ist banal. Jede Beziehung lässt sich als Netzwerkstruktur darstellen und analysieren.

Vieles, was Castells für das Netzwerk beobachtet, gilt ebenso für die Plattform – bezogen auf die Form der Macht, wie sie von Plattformen ausgeübt wird. Nach Castells geschieht das unter anderem durch Inklusion und Exklusion. Zugang zu einem Netzwerk zu haben, ist eine positive Freiheit (Freiheit zu etwas), in Abgrenzung zur negativen Freiheit (Freiheit von etwas – zum Beispiel von Zwang). Der Zugang beinhaltet aber von Anfang an, dass jemand die Macht hat, diesen Zugang wieder versperren zu können. Diese implizite Macht ist leicht zu unterschätzen, da der Zugang zu Ressourcen schnell selbstverständlich scheint; wer einmal unfreiwillig ein paar Tage lang auf Internet verzichten musste, hat sie am eigenen Leib gespürt. Die Plattform ist die Struktur des Netzwerkes, seine Infrastruktur und gleichzeitig das, was sie hervorbringt.

 

1. Die Plattform als Infrastruktur des Netzwerks: Auch wenn die vernetzende Technologie heute quasi körperlos erscheint, hat das Netzwerk materielle Grundlagen. Für das Internet müssen Rechenpower, Datenleitungen, Rechenzentren bereitgestellt werden. Diese materiellen Grundlagen bilden die Plattform für das Netzwerk Internet, das selbst nur eine Sammlung von Softwareprotokollen ist, die wiederum Grundlage für weitere Netzwerke sind.

 

2. Das Netzwerk als Infrastruktur der Plattform: Sind ein oder mehrere Netzwerke vorhanden, bilden sich mit der Zeit unweigerlich neue Netzwerke, die sich dann gegen andere durchsetzen. Was wir heute so selbstverständlich Internet nennen, als hätte es nie etwas anderes gegeben, hat sich beispielsweise gegen andere bestehende Netzwerk-Systeme durchgesetzt (in Deutschland gegen BTX und Mailboxen, in Frankreich gegen Minitel). Und innerhalb des Internets (das neben dem World Wide Web, das wir mit unseren Browsern durchstöbern, auch aus E-Mail, FTP, Usenet, Internet-Telefonie etc. besteht) ergeben sich Konzentrationserscheinungen.

 

Das Internet ist dezentral aufgebaut. Viele Menschen haben allerdings eine falsche Vorstellung davon, was Dezentralität bedeutet. Sie stellen sich vor, dass die Knoten gleichmäßig miteinander vernetzt sind. Was sie sich vorstellen, heißt „Mesh-Netzwerk“. Netze entwickeln sich aber natürlicherweise „skalenfrei“. Skalenfrei ist ein Netz, wenn die Anzahl der Verbindungen nach einem Potenzgesetz so verteilt ist, dass wenige Knoten sehr viele Verbindungen, die meisten der Knoten aber nur eine geringe Anzahl an Verbindungen aufweisen. Das heißt, es bilden sich wenige, gut vernetzte Zentren heraus, auch „Hubs“ genannt.

Dass sich Netze natürlicherweise skalenfrei organisieren, hat einen ökonomischen Grund: Wenn eine Nachricht von Knoten A zu Knoten B das Netzwerk durchqueren muss, will sie möglichst wenige Verbindungspunkte (Hops) durchlaufen. Das geht besser, wenn es zentrale Mittler (Hubs) gibt, die mit vielen Knoten verbunden sind. Wäre die Anzahl der Verbindungen zwischen den Knoten gleich verteilt, würde die Nachricht viel mehr Hops für ihre Distribution benötigen. (Wie paketvermittelte Netzwerktechnik genau funktioniert, haben wir in Kapitel 2 schon besprochen.)

Durch diese Konzentration auf (verhältnismäßig) wenige Hubs entstehen die eigentlichen Strukturen in Netzwerken, und ihnen sollte unsere Aufmerksamkeit gehören: Es gibt eine dominierende Suchmaschine, wir sind fast alle auf dem einen dominierenden Social Network unterwegs, und wir bestellen fast alle bei dem größten Online-Versandhaus. Plattformen sind Ergebnisse dieser Verklumpungseffekte.

Netzwerke basieren auf Plattformen, und Plattformen bilden sich in Netzwerken. Dieses paradoxe, rekursive Verhältnis lässt sich nicht auflösen, nur beschreiben. Plattformen sind der Plattform ihre Infrastruktur.

Infrastruktur

„Public Callings“38 werden Unternehmen in Branchen genannt, die einerseits für das Funktionieren eines Gemeinwesens von außerordentlicher Bedeutung sind und andererseits bestimmte homogene Eigenschaften aufweisen. Die Branchen sind: Telekommunikation, Bankwesen, Energie und Transport. All diese Branchen stellen Infrastrukturen bereit, die entweder reine Kommunikation (auch Geld ist ein Kommunikationsmittel) oder sonstigen Austausch (zum Beispiel von Gütern oder Energie) ermöglichen. Plattformen sind Infrastrukturen, auf denen kommunikativer und somit gesellschaftlicher Austausch basiert. Aus der Infrastruktureigenschaft der Plattform ergeben sich einige ökonomische Effekte, die auch bei Schienennetzen, Telefonleitungen oder Mobilfunknetzen zu beobachten sind: Skaleneffekte und die Neigung zu „natürlichen Monopolen“.

Skaleneffekte ergeben sich aus der Tatsache, dass der Preis pro produziertem Gut sinkt, wenn man mehr davon herstellt. Die anfangs getätigten Investitionen für Maschinen, Gebäude, Forschung und Entwicklung etc. verteilen sich auf mehr Produkte, und mit steigender Stückzahl steigt die Lernkurve – Arbeitsschritte werden mit Übung schneller, Fehler werden registriert und vermieden; zudem gibt es gibt immer wieder Gelegenheiten zur Rationalisierung und Optimierung von Abläufen. (Google beispielsweise betreibt seine Rechenzentren drei bis vier mal energieeffizienter als herkömmliche Rechenzentren. Datenhaltung hat bei Google einfach einen derart hohen Stellenwert, dass das Unternehmen viel Aufwand in Forschung und Entwicklung von solchen Problemen stecken kann.) Skaleneffekte werden auch als „positives Feedback“ bezeichnet. Das funktioniert wie beim Mikrofon, wenn es einen kaum wahrnehmbaren Ton aufnimmt, dieser über eine Anlage verstärkt wird und von dort sofort wieder ins Mikrofon gelangt usw. Das geht ein paar Runden unbemerkt, bis ein schriller, sich ständig erhöhender Ton aus der Anlage fiept. Genau so, sich selbst immer weiter verstärkend, wirkt der Skaleneffekt. Je größer die Stückzahlen, die ein Unternehmen produziert, desto günstiger die Ware. Je günstiger die Ware, desto mehr Stückzahlen werden gekauft. Und so weiter.

Skaleneffekte sind einer der Gründe für „natürliche Monopole“. Wenn die Struktur einer Marktsituation dergestalt ist, dass die Investitionskosten für eine Infrastruktur extrem höher sind als die Kosten für ihren Betrieb, begünstigt das die Entstehung von Monopolen. In der Wirtschaftswissenschaft spricht man dann von einem natürlichen Monopol. Eine Glasfaserleitung zu verlegen kostet sehr viel Geld. Liegt sie aber erstmal, sind die Betriebskosten fast vernachlässigbar. Der Preis, zu dem die Nutzung der Glasfaserleitung angeboten werden kann, berechnet sich also aus den Investitionen für die Infrastruktur, geteilt durch die Anzahl der Kunden. Wenn nun ein zweites Unternehmen ebenfalls Glasfaserleitungen anbietet und wiederum enorm viel Geld in Infrastruktur investiert, gibt es zwei Anbieterinnen, die sich aber die Kunden teilen müssen. Da insgesamt doppelt so viele Mittel aufgewendet wurden, während die Anzahl der Kundinnen gleich geblieben ist, steigt der Preis unnötig. In dieser Situation ist ein Monopol das gesellschaftlich Sinnvollste.

Skaleneffekte und der Hang zu natürlichen Monopolen sind zwei der Gründe für die Konzentrationserscheinungen, die Plattformen hervorbringen. Aber es sind nicht die einzigen und nicht einmal die wichtigsten.

Netzwerkeffekt

Der wichtigste Grund für die Entstehung und das Wachstum von Plattformen sind die sogenannten Netzwerkeffekte. Die lassen sich bereits an einem Vorläufer und noch lebenden Verwandten der Plattformen studieren: dem Markt. Wie auf der Plattform begegnen sich auf einem Markt Individuen oder andere Entitäten, um sich auszutauschen. Der wesentliche Unterschied zum Markt ist aber, dass die Plattform nicht (nur) dem Güteraustausch dient, sondern alle möglichen Formen von Kommunikation miteinander verknüpft.

Auch die Marktteilnehmer brauchten immer schon eine Infrastruktur für ihren Handel. Der Marktplatz im Dorf, die rechtsdurchsetzende Instanz des Staates, die Ehre des Kaufmanns, das Geld etc. bilden die Grundlagen, auf denen Handel erst stattfinden kann. Eine weitere, sehr wesentliche Grundlage des Marktes sind die Marktteilnehmerinnen. Ein Obstverkäufer sucht Obstinteressentinnen, jemand, der Fisch einkaufen will, hätte gerne eine Auswahl an Fischständen. Darum wurde schon in frühen Städten ein zentral gelegener Markt zum sozialen Mittelpunkt. Im Laufe der Jahrhunderte bildeten sich regionenübergreifende Handelszentren aus, meist nach Warenart differenziert. Je weiter Transport und Kommunikation voranschritten und je mehr Hindernisse – wie Grenzen und Zölle – abgebaut wurden, desto weitreichender konnte die Konzentration und Differenzierung von Handelszentren geschehen.

Bei der Plattform ist das transportierte Gut die Kommunikation, und sie kann heute weitgehend unbeeindruckt von geografischen Gegebenheiten frei fließen. Anders als die frühen Märkte differenzieren sich Plattformen deswegen nicht geografisch, sondern funktional und thematisch. Wenn der Nutzen eines Netzwerkes für die Teilnehmer umso größer ist, je mehr daran teilnehmen, wirkt der Netzwerkeffekt. Wie auf dem Markt, wo sich mit jeder zusätzlichen Marktteilnehmerin die Chance erhöht, einen komplementären Handelspartner zu finden, gilt auch hier: Die Chance, jemanden zu finden, der dieselben Dinge mag, dieselben Interessen und Vorlieben hat, oder bereit ist, sich mit mir zu politischen Themen zu vernetzen, erhöht sich in dem Maß, in dem das Netzwerk wächst. Der Nutzen eines Netzwerkes gehorcht nach Robert Metcalfe der Formel: n (n − 1) / 2. Das heißt, er ist proportional zur Anzahl der Teilnehmerinnen im Quadrat.39

Wenn ich der einzige Mensch mit Faxgerät auf der Welt bin, ist der Nutzen dieses Faxgeräts gleich Null. Er erhöht sich dramatisch, wenn es einen zweiten Teilnehmer mit Faxgerät gibt. Bei fünf Teilnehmerinnen sind im Netzwerk 10 Zweierverbindungen möglich, bei zwölf bereits 66. Je mehr Faxgeräte es gibt, desto mehr Chancen habe ich, mein Faxgerät sinnvoll einzusetzen.

In ihrem Buch „Information Rules – A Strategic Guide to the Network Economy“ sprechen die Autoren Carl Shapiro und Hal R. Varian im Falle der Netzwerkeffekte ebenfalls von einem positiven Feedback. Das ist zunächst eine recht banale Erkenntnis, kann aber auf der Makroebene zu extremen wirtschaftlichen Verwerfungen führen. Wenn die Netzwerkeffekte und die Skaleneffekte der Angebotsseite zusammentreffen, entsteht das, was Shapiro und Varian einen „Double Whammy“ nennen – ein Doppelschlag. Dann entstehen Kräfte, die anders wirken, als wir es kennen. Der Double Whammy ist charakteristisch für Unternehmen in der Kommunikationstechnologiebranche – also für Plattformanbieter.

Ein gutes Beispiel dafür, wie Netzwerkeffekte auf der Makroebene wirken, findet sich in dem Buch „The Master Switch“ von Tim Wu: Als AT&T in den 1920ern (noch als Tochterfirma von Bell Systems) die Überlandleitungen in den USA verlegte, brach ein Wirtschaftskrieg aus. Wie alle Provider versorgte AT&T zunächst nur die Ballungsgebiete, da sich dort mit relativ wenig Aufwand sehr viele Haushalte vernetzen ließen. An der Peripherie aber, wo es sich nicht wirklich rechnete, Kabel zu verlegen, entstanden – aus der Ungeduld, endlich auch zu telefonieren zu können – genossenschaftliche Bauerninitiativen, die zwischen den Höfen selbstständig Telefondrähte installierten. Aus den Genossenschaften wurden mit der Zeit kleine, regionale Telefonprovider – natürlich zum Missfallen der AT&T, die versuchte, diese aufzukaufen oder mit Tricks aus dem Geschäft zu drängen.

Die US-Regulierungsbehörde FCC verdonnerte die Streitparteien schließlich zur Kooperation – und etwas Besseres hätte AT&T nicht passieren können. In den Vertragsverhandlungen waren die kleinen, lokalen Provider dem Giganten komplett ausgeliefert. Nicht, weil AT&T geschickter verhandelt oder mehr Anwälte in Stellung gebracht hätte, sondern weil für kleine Anbieter der Nutzen, sich einem großen anzuschließen, einfach viel größer ist als umgekehrt. An das AT&T-Netz angeschlossen zu werden, war ein Angebot, das die Kleinen nicht ablehnen konnten. So verloren die kleinen Plattformen ihre Eigenständigkeit und wurden von der größeren absorbiert.

Mit dem Netzwerkeffekt verhält es sich wie mit der Gravitation. 2006 wurde von einer eigens dafür einberufenen Kommission der Begriff „Planet“ neu gefasst. Pluto, jahrzehntelang das kleine, abseitige Nesthäkchen in unserem Sonnensystem, wurde von heute auf morgen der Planetenstatus entzogen. Der entscheidende Satz dazu in der neuen Planetendefinition lautet: „[Ein Planet ist ein Objekt, das] das dominierende Objekt seiner Umlaufbahn ist, das heißt, diese über die Zeit durch sein Gravitationsfeld von weiteren Objekten ‚geräumt‘ hat.“40 Pluto wurde der Planetenstatus aberkannt, weil sich in seiner Umlaufbahn teilweise größere Gesteinsbrocken als er selbst finden. Pluto hatte im Gegensatz zu AT&T seine Umlaufbahn nicht geräumt, sein Gravitationsfeld wirkte nicht stark genug.

Facebook dagegen räumt die Umlaufbahn von anderen Social Networks frei, Ebay von anderen Auktionsplattformen, Amazon von anderen Onlineversandhäusern. Der Netzwerkeffekt zeigt sich dabei als eine Art „soziale Gravitation“, darauf basierend, dass ein Netzwerk umso mehr Nutzen stiftet, je größer es ist. Das ist der Hauptgrund für die Konzentration und Monopolisierung im Internet. Für Plattformen gilt: The winner takes it all!

Netzwerkeffekte treten häufig in Form von zweiseitigen Märkten auf. Zweiseitige Märkte entstehen, wenn zwei komplementäre Interessensgruppen sich über eine Plattform austauschen, wie zum Beispiel Entwickler und Nutzer von Apps auf einem bestimmten Betriebssystem. Das Betriebssystem von Apples iPhone, iPad und iPod nennt sich iOS. Es beinhaltet einen sogenannten Appstore, in dem die Programme (Apps) von externen Entwicklern angeboten werden. Die Attraktivität der iOS-Plattform für die Nutzerinnen ergibt sich zu einem Gutteil aus den vielen angebotenen Apps. Die Beliebtheit der iOS-Plattform auf Nutzerseite eröffnet wiederum App-Entwicklerinnen einen attraktiven Markt. Beide Seiten des Marktes wirken als positives Feedback aufeinander. Die Netzwerkeffekte sind die wichtigste Eigenschaft von Plattformen und verleihen ihnen ihre stetig wachsende Relevanz.

Iteration

Nicht nur Apps und Nutzerinnen generieren positives Feedback, sondern um Plattformen herum entwickelt sich oft ein ganzer Zoo an zusätzlichen Drittangeboten: Zubehör, externe Clouddienste, Shops, Experten, Blogs zum Thema, ganze Fankulturen etc. All diese Erscheinungen wirken nutzenstiftend auf die jeweilige Plattform zurück. Es sind indirekte Netzwerkeffekte, die einerseits den Nutzen von Plattformen erhöhen, aber eben auch zum „Lock-in“ führen, also es den Kundinnen schwer machen, eine Plattform zu wechseln. Oft wird von Plattformen deswegen als „Ökosystemen“ gesprochen. So werden zum Beispiel die iOS-Plattform und die Android-Plattform (die zwei dominierenden Smartphone-Betriebssysteme) als „konkurrierende Ökosysteme“ bezeichnet.

Es lohnt sich, die Ökosystem-Analogie weiter zu denken: Kevin Kelly war der erste, der 1999 in seinem Buch „Out of Control“ auf die enge Verwandschaft unserer technischen Systeme mit Ökosystemen hingewiesen hat. Zunächst erläutert er dazu das Vorgehen der Wissenschaftler bei den Experimenten mit den künstlich hergestellten, in sich geschlossenen Ökosystemen Biosphere 1 und Biosphere 2, in denen getestet werden sollte, inwieweit und unter welchen Bedingungen hermetisch in sich abgeschlossene Ökosysteme lebensfähig sind: Nachdem sie eine stabile Bakterienkultur angelegt hatten, fügten sie nach und nach kleine Pflanzen und dann Insekten hinzu. Erst als sich dieses Verhältnis stabilisiert hatte, fingen sie an, größere Pflanzen und kleine Säugetiere und Reptilien auszusetzen. Erst ganz am Schluss durften Menschen versuchen, in den abgeschotteten Biosphären zu leben.

Ökosysteme sind vertikal aufgebaut. Kevin Kelly zeigt, wie dasselbe Prinzip bei einem insektenartigen Roboter greift, den der Künstler Ron Brooks baute: Zuerst versah Brooks die einzelnen „Beine“ mit einer eigenen, sehr einfachen Intelligenz. Jedes Bein orientiert sich lediglich an dem jeweils davor liegenden Bein und an der Umgebung. Der zentrale Computer in dem Roboter dagegen weiß nicht, wie das Bein bewegt wird. Er sagt ihm einfach: Beweg dich in diese Richtung. Daraufhin fängt das Bein an, und die anderen folgen ihm. Beinsteuerung und Insektsteuerung sind zwei verschiedene, ineinandergreifende Plattformen. Dieses Prinzip, „Iteration“ genannt, funktioniert nach einfachen Vorgaben:

1.Löse die einfachen Aufgaben zuerst.

2.Bring die Lösungen reibungslos zum Funktionieren.

3.Ziehe eine neue Schicht über das Resultat.

4.Ändere die untere Schicht nicht mehr ab.

5.Versuche auch die darüberliegende Schicht so reibungslos und einfach wie möglich zu gestalten.

6.Iteriere! (Springe zu 1.)

Das Internet funktioniert nach dem gleichen Prinzip. Die Schichten, aus denen es aufgebaut ist, heißen „Layer“. Die Basis ist der „Link-Layer“. Das sind Protokolle wie DSL, ISDN oder X.25; sie sorgen dafür, dass die Geräte überhaupt miteinander kommunizieren können. Der darüber liegende „Internet-Layer“ muss nicht wissen, wie diese Standards im Detail funktionieren, als Grundlage für das Internet-Protokoll (IP) ist nur wichtig, dass sie es tun. Dieses geht nämlich davon aus, dass die Datenleitung schon da ist, und kümmert sich nur um die Zustellung von Datenpaketen. Egal, was man ihm hinwirft, IP sendet es weiter, bis es bei der Zieladresse angekommen ist. Dem „Transport-Layer“ wiederum ist egal, wie die Datenpakete versendet werden. Das Transport Control Protocol (TCP) weiß nur, ob die Datenpakete ankommen oder nicht. Wenn sie nicht ankommen, sendet TCP sie eben so lange neu, bis sie ankommen. Darüber liegt wiederum der „Application-Layer“, die Anwendungsschicht. Das ist die Schicht, die für uns sichtbar ist und mit der wir über die Benutzeroberfläche interagieren, indem wir zum Beispiel E-Mail oder das Web nutzen. Dem Browser ist es egal, wie die darunterliegenden Daten adressiert, kontrolliert und verbunden werden. Er verlässt sich darauf, dass TCP/IP das schon irgendwie regelt, und kümmert sich nur darum, dass die Website vom Webserver heruntergeladen wird.

Das Modell aus Link‑, Internet‑, Transport- und Application-Layer ließe sich noch weiter ausdifferenzieren: Auf dem Layer des Webs laufen Facebook und Twitter. Auf Twitter dienen Hashtags zum gegenseitigen Austausch. Plattform arbeitet auf Plattform arbeitet auf Plattform. Plattformen entwickeln sich vertikal fort – sie iterieren.

Emergenz

Ein Kennzeichen von Plattformen ist es, dass auf ihrer Grundlage durch die immer wieder vollzogenen Iterationen Neues entsteht. Der Schritt der Iteration führt oft zu „Emergenzphänomen“, worunter die spontane Hervorbringung von Strukturen infolge des Zusammenspiels darunterliegender Elemente verstanden wird. Die Emergenzphänomene bilden meist nicht sofort eine neue Plattform (oder ein Layer) aus, sondern sind einfach anschlussfähig für unvorhergesehene Verknüpfungen aller Art. Sie sind der notwendige Beginn jeder neuen Plattformschicht. Emergenzphänomene treten am wahrscheinlichsten dann auf, wenn eine Plattform eine gewisse Verbreitung erreicht hat. Es gibt viele Beispiele, wie Technologie durch ihre allgegenwärtige Verbreitung das Entstehen neuer Technologien oder Nutzungsweisen provoziert. An zwei Beispielen lässt sich das gut nachvollziehen:

 

WWW: Tim Berners-Lee erfand das World Wide Web zu genau dem Zeitpunkt, als das Internet gerade zur kommerziellen Nutzung freigegeben wurde; TCP/IP war vorher dem Militär und den Universitäten vorbehalten gewesen. Schließlich hatten sich die ersten ISPs gegründet, und die ersten Privathaushalte waren mit Internetzugängen ausgestattet worden. Berners-Lee wusste also, dass er sich auf einen Standard stützen konnte, der im Aufschwung begriffen war, und entwickelte den ersten Webserver darum auf der Grundlage von TCP/IP. Dass mit seiner Entwicklung gleichzeitig der Sprung der Plattform Internet (= Basistechnologie) in die Konsumentenhaushalte gelang, trug viel zum Erfolg der Plattform WWW (= neue Technologie) bei.

 

Podcast: Der Podcast wurde eigentlich schon 2000 erfunden. Die Technik, Audiodateien per Feed im Internet zu verteilen, ist nicht gerade Raketenwissenschaft. Aber erst als Apple seinen iPod herausbrachte, konnten sich MP3-Dateien ein größeres Publikum erschließen. Podcasts werden unterwegs konsumiert, und Apple lieferte die Hardware dazu. Die weite Verbreitung der relativ homogenen Abspielgeräte war der Durchbruch für das, was erst ab diesem Zeitpunkt ein „Medienformat“ genannt werden konnte; daher auch der Name „Podcast“ – eine Mischung aus iPod und broadcast. Es dauerte noch bis 2005, bis Apple selbst den Trend erkannte und eine eigene Podcast-Verwaltung in sein Musikprogramm iTunes integrierte. Seitdem hat sich hier eine vielfältige kulturelle Nische etabliert, nicht zuletzt durch die massenhafte Verbreitung von Smartphones, die ebenfalls auf Apples Betriebssystem iOS laufen. Ohne die Verbreitung der Basistechnologie iPod als Plattform wäre diese Entwicklung aber nicht denkbar gewesen.

 

Es gibt noch viele andere Geschichten, die die Bedeutung der ubiquitären Verbreitung von Basistechnologien illustrieren: wie sich DSL gegen Glasfaser durchsetzte, weil es auf der Kupferkabeltechnologie aufbaute, die als Telefonkabel schon überall verlegt war; wie die breite Marktdurchdringung von Facebook das neue Segment „Social Gaming“ hervorbrachte, also Spiele, die im Zusammenspiel mit dem eigenen Freundesnetzwerk funktionieren; oder wie die iOS-Plattform (iPhone, iPad) durch den AppStore ganz neue Geschäftsmodelle in Sachen Softwareentwickung entstehen ließ – die sogenannten Apps. Nicht zu vergessen die vielen Hundert kleinen und großen Dienste, die auf der Programmierschnittstelle von Twitter oder Google Maps aufbauen.

Aber auch kulturelle Praktiken und sprachliche Idiome können Emergenzphänomene sein, wie die Abkürzungen oder Emojis bei SMS und die Hashtags auf Twitter zeigen. Oder einfach ein anderes soziales Verhalten. Bevor nicht fast jeder ein Handy hatte, wurden Verabredungen völlig anders getroffen. Sich für eine ungefähre Uhrzeit an einem nur ungefähr bestimmten Ort zu verabreden, war nicht denkbar ohne Kommunikationsgerät, das jeder ständig mit sich führt.

Disruption

Disruption bedeutet nach dem Ökonomen Clayton Christensen, dass ein bestimmter Entwicklungsspfad von Produktarten beendet ist und durch ein neuartiges Konzept ersetzt wird. Mit dieser Beendigung des Entwicklungspfads geht nicht selten der Abstieg der betreffenden Firmen einher und oft sogar der ganzer Branchen. Als Facebook im Februar 2014 für 19 Milliarden Dollar den Smartphone-Messenger WhatsApp kaufte, war das keine Investition im klassischen Sinn. Viele fragten sich, was an einer recht einfach gestrickten App einer winzigen Firma so viel wert sein konnte. Aber Facebook kaufte nicht WhatsApp, sondern sich seine Zukunft frei.

Mit WhatsApp ist nicht viel anderes möglich als chatten. Zum Chatten ist der Dienst aber außerordentlich beliebt. Besonders Kinder und Jugendliche tummeln sich auf WhatsApp, um sich mit ihren Freunden auszutauschen. In Deutschland sind laut Bravo-Trendstudie unter den Jugendlichen zwischen 12 und 19 Jahren 82 Prozent der Jungen und 92 Prozent der Mädchen auf Facebook aktiv, doch danach kommt schon WhatsApp mit 81 Prozent der Mädchen und 59 Prozent der Jungen.41 In der Nutzungshäufigkeit ist WhatsApp sogar das beliebteste Netzwerk. Auch Facebook hat eine Chatfunktion. Die Jugendlichen geben jedoch an, dass ihnen Facebook zu kompliziert sei. Sie wollen ja nur mit ihren Freunden in Kontakt bleiben. Funktionen wie Posts, Events, Sites und Gruppen stören nur, wenn nichts gebraucht wird als ein Raum, um sich ungestört auszutauschen. Als WhatsApp mit seiner Popularität ausgerechnet in der wichtigsten Zielgruppe von Facebook enorme Netzwerkeffekte aufbaute, handelte Mark Zuckerberg. Er wollte mit Facebook nicht so enden wie der einstige Marktführer MySpace – den Facebook im September 2009 in Sachen Reichweite überholte und zu dem machte, was er heute ist: Ein Nischendienst, für den sich kaum jemand interessiert.

„Wenn ich meine Kunden gefragt hätte, was sie für ein Produkt haben wollen, hätten sie gesagt: schnellere Pferde“, soll Henry Ford gesagt haben, der Erfinder der Fließbandarbeit, der als erster das Automobil zu einem Massenprodukt machte. Völlig unabhängig davon, ob der Ausspruch tatsächlich von ihm stammt, illustriert er das sogenannte „innovator’s dilemma“ sehr gut. Einerseits richtet sich das gesamte Handeln und Denken einer Firma auf die bestmögliche Befriedigung der Wünsche ihrer Kundinnen. Andererseits kann genau darin eine Falle liegen – eben dann, wenn eine Innovation möglich ist, die so anders ist, dass sie gar nicht im eigenen Markt verortet wird und nicht auf den bestehenden Kundenkreis zugeschnitten scheint. Neue Erfindungen haben zu Anfang noch keinen Markt und keine Nachfrage, denn niemand weiß, was die Innovation kann und welche Zwecke sie erfüllt. Werden die Leute gefragt, was sie sich wünschen, orientieren sie sich an dem Bekannten. Sie wollen dasselbe, was sie bereits haben, in besser, schneller und billiger: Sie wollen Pferde, nur halt schneller. Innovationen, die das befriedigen, nennt Christensen „sustainable innovations“.

Schnellere Pferde wären so eine „nachhaltige Innovation“ gewesen. Das Automobil ist dagegen eine „disruptive Innovation“, die die gesamte Branche der Kutschen praktisch ausgelöscht hat. Der traditionsreiche Brockhaus Verlag konnte sich nicht mehr lange halten, nachdem die Wikipedia gezeigt hatte, dass Nachschlagewissen kein Papier und vor allem keinen Preis braucht. Die digitale verdrängte letztendlich auch im Profibereich die analoge Fotografie. Dasselbe erlebten die Digitalkamera-Hersteller nur kurze Zeit später am eigenen Leib, als zumindest der Bedarf für spezielle Kamera-Hardware im Privatkonsumentenbereich praktisch trockengelegt wurde durch die 5-und-mehr-Megapixel-Kamera, die heute in jedes Smartphone integriert ist.

Plattformen agieren gegenüber anderen Plattformen häufig disruptiv, und das kann manchmal sehr schnell gehen, was wiederum mit dem Netzwerkeffekt zu tun hat: Positives Feedback bedeutet eben nicht nur, dass eine große Plattform stetig wächst, sondern mehr vom Gleichen: Wachstums- und auch Schrumpfungsprozesse werden beschleunigt. Sollte Facebook also eines Tages ein Abwärtstrend ereilen, wird sich dieser genauso beschleunigen, wie es auch beim Wachstum der Fall war. Plattformen öffnen und schließen sich. Plattformen entstehen auf Plattformen, und Plattformen werden von Plattformen verdrängt. Plattformen sind Ökosysteme in einem größeren Ökosystem, in dem ein ständiges Werden, Weiterentwickeln und Vergehen herrscht. Trial and Error, Iteration und Auslöschung. Wir müssen lernen, diese komplexe Biosphäre zu verstehen, die wir geschaffen haben, denn wir werden uns darin einrichten müssen.

Fassen wir zwischendurch zusammen:

Plattformen sind intern homogene, institutionelle Infrastrukturen zum gegenseitigen Austausch, die sowohl Netzwerkeffekte als auch Emergenzphänomene hervorbringen.

Die Netzwerkeffekte, die Plattformen ausbilden, führen zu einem positiven Feedback und lassen sie immer weiter wachsen. Die ebenfalls darin entstehenden Emergenzphänomene können dazu führen, dass sie sich iterativ, vertikal weiterentwickeln und einer neuen Plattform als Plattform dienen. Plattformen vereinen viele Eigenschaften, die keineswegs neu sind. Neu sind vor allem ihr Bedeutungszuwachs und ihre Allgegenwärtigkeit. Und neu sind auch die enormen Netzwerkeffekte, die diese Plattformen akkumulieren. Es stellt sich die Frage, worin der Grund dafür liegt – und bei der Betrachtung dieser Frage zeigt sich, dass die drei Treiber des Kontrollverlusts eine Menge damit zu tun haben.

Alles wird zur Plattform

Plattformen sind das dominierende Organisationsparadigma des Kontrollverlusts und gleichzeitig die Schnittstelle, durch die der Kontrollverlust auf die physische Welt zurückwirkt. Der erste Treiber des Kontrollverlusts – die Verdatung der Welt durch die Allgegenwart von Sensoren und das Aufschreibesystem U – verwandelt alles, womit er in Berührung kommt, zur Plattform. In Kapitel 3 hatten wir gezeigt, dass die Weltverdatung vor allem einen zusätzlichen, immateriellen Layer aus Daten über die Welt zieht, für dessen Güter keine Rivalität gilt. Jedes digitale Gut kann von jeder genutzt werden, ohne dass jemand dadurch Nachteile erfährt.

In der physischen Welt sind die Gegenstände weiterhin rivalisierend. Um mit diesem Umstand umzugehen, wurde das Konzept Eigentum erfunden. Im Gegensatz zum Besitz, der eine direkte Beziehung anzeigt, ist das Eigentum virtuell. „Eigentum ist die rechtliche Herrschaft über eine Sache. Besitz ist die tatsächliche Herrschaft über die Sache“, schreiben Gunnar Heinsohn und Otto Steiger in „Eigentum, Zins und Geld“.42 Jemand anders kann sich im Besitz meines Autos befinden. Wenn ich aber Eigentümer des Auto bin, kann ich zum Beispiel von der Polizei durchsetzen lassen, dass es wieder in meinen Besitz zurückgeht. Eigentum ist selbst ein virtueller Metadaten-Layer, den wir über die Welt gelegt haben und in dem wir die Eigentümer vermerken.

Zu diesem Layer fügt nun der erste Treiber des Kontrollverlusts eine weitere Datenschicht hinzu, und das wirkt wiederum auf den ersten Layer zurück: Die Verdatung der Welt hebt das Eigentum nicht auf, aber sie bietet eine neue Schnittstelle an, welche die Rivalität der Dinge verringert und dadurch die Modi ihrer Nutzung verändert. Bereits zur Jahrtausendwende machte Jeremy Rifkin in seinem Buch „Access“ Furore mit der These, das Eigentum sei im Verschwinden. Er behauptet nicht, dass es kein oder weniger Eigentum gebe. Doch lasse sich die Beobachtung machen, dass Eigentum im täglichen Leben eine immer geringere Rolle spielt. Über den Einsatz von Ressourcen entscheidet im Alltag vermehrt nicht mehr das Eigentum, sondern der Zugang.

In den Städten weicht etwa die Notwendigkeit, ein eigenes Auto zu besitzen, den vielen Car-Sharing-Diensten, die jederzeit zur Verfügung stehen, wann immer eine kleine Strecke zu überwinden ist. Auf der Smartphone-App wird das nächstgelegene Auto angezeigt, und mit einem Klick ist es gemietet und die Tür entriegelt. Dafür ist lediglich eine Registrierung bei den entsprechenden Plattformen nötig. Wer in einer fremden Stadt übernachten möchte, ist nicht mehr auf Hotels und Pensionen angewiesen, sondern hat durch Airbnb – auch kurzfristig – ein zusätzliches großes Angebot: Eine App zeigt die in der gewünschten Gegend liegenden freien Appartments an; die ganze Stadt verwandelt sich zum potenziellen Hotel, zugänglich über eine Plattform. Zum Arbeiten begeben sich heute viele Freiberufler in einen Coworking-Space. Dort gibt es einen Schreibtisch (jeden Tag einen anderen), Strom und Internet – also alles, was die freischaffende Kreative heute so braucht. Nur den Laptop muss sie selbst mitbringen. Bezahlt wird per Mitgliedschaft oder tage- oder stundenweise. Wer braucht noch ein festes Büro, wenn er eine Plattform nutzen kann?

Aus unserer Plattensammlung wurde erst eine CD-Sammlung, dann eine MP3-Sammlung, dann ein Streaming-Abo bei Spotify. Spotify bietet mir Zugang zu beinahe aller Musik, die ich hören will, ohne dass ich sie auf meiner Festplatte speichern muss. Wer speichert heute noch irgendwas? Wenn ich einen Film nochmal ansehen will, kann ich ihn mir ein zweites Mal streamen. Und wenn wir etwas speichern, speichern wir es nicht mehr auf der eigenen Festplatte, sondern in der Cloud. Dienste wie Dropbox oder Google Drive erlauben es mir, Dinge im Internet abzuspeichern und trotzdem von überall darauf zugreifen zu können. Speichern als Plattform. Die Verdatung der Welt verändert unsere Beziehung zu den Dingen, weil wir schneller, individueller und gezielter darauf zugreifen können. Es gab schon vorher die Möglichkeit, Wohnraum anzumieten, und auch ein Auto konnte vor dem Internet für Geld ausgeliehen werden. Aber außer Geld kostete es noch einiges an Aufwand für die Suche, vielleicht musste verhandelt und am Ende ein komplizierter Vertrag abgeschlossen werden. All das erhöhte die Transaktionskosten entscheidend.

Die Digitalisierung der Welt lagert diese Transaktionskosten in die Query aus. Ein Klick auf die App, und sie verbindet die Person mitsamt Positionsdaten, Kundendaten und gespeicherten Präferenzen mit dem nächstgelegenen Carsharing-Auto, der Airbnb-Wohnung, deren Spezifikationen und Preisen. Die unsichtbare Schicht aus Daten, die die Dinge und die Menschen umgibt, lässt sich schnell, unkompliziert und zu geringen Transaktionskosten arrangieren. Modelle des Tauschens und des Teilens werden direkt und günstig realisierbar, und parallel dazu verändern sich unsere Lebenssituationen, Beziehungen und Aufenthaltsorte so rasant, dass sich jede Bindung an Gegenstände für manche schon wie Ballast anfühlt.

Die „Shareconomy“, wie das Phänomen auch genannt wird, ist in Wirklichkeit die Plattformwerdung des Eigentums. Auch das Eigentum war schon immer ein virtueller Layer über den Dingen. Beim Grundbuch handelt es sich um nichts anderes als um Metadaten einer Kulturlandschaft. Das Eigentum verschwindet nicht – es wird iteriert. Der Eigentums-Layer bildet die Plattform für einen neuen funktionalen Layer. Das Konzept Eigentum wird überformt, indem es in dieser auf der Welt liegenden Datenschicht abstrahiert und seine Nutzung als Zugang neu organisiert wird. Wem das Auto, die Wohnung, der Schreibtisch etc. gehört, spielt bei der Nutzung keine Rolle mehr. Es geht nur noch um den Zugang zu der Plattform.

Kapitalismus vs. kollaboratives Gemeinwesen

Jedes gesharete Auto hat dennoch weiterhin einen Eigentümer, und dieser Eigentümer steigert seine Rendite durch die kurzfristigen Leihmodelle erheblich. Die Kurzfristigkeit reduziert einerseits die Kosten für die einzelne Benutzung, aber erhöht gleichzeitig die Kapitalrendite. Ein Carsharing-Auto kostet über 24 Stunden gesehen mehr als ein Mietwagen, ein Mietwagen über 12 Monate mehr als eigenes Auto. Eine Airbnb-Wohnung kostet über einen Monat gesehen deutlich mehr als eine normale Wohnung. Eigentum wird für die Eigentümerin wirtschaftlicher durch die erhöhte und kurzfristige Nutzbarkeit.

Jeremy Rifkin sieht dagegen ein neues wirtschaftliches Paradigma am Horizont erscheinen. In seinem Buch „The Zero Marginal Cost Society“ beschwört er das Ende des Kapitalismus. Durch das Internet of Things, erneuerbare Energien, 3-D-Drucker und die Sharing Economy gingen die Grenzkosten zur Nutzung von Energie, Information, Transport und Gegenständen langfristig gegen Null. Unter diesen Umständen werde die kapitalistische Marktordnung früher oder später kollabieren und durch eine kollaborative Gemeinwesen-Ökonomie ersetzt. Monetäres Kapital werde von sozialem Kapital ersetzt werden, zentrale Strukturen von dezentralen etc.

Keine Frage, die von Rifkin aufgezählten Entwicklungen bringen Vorteile, Flexibilität und sparen Kosten. Vielleicht wird mit dem Internet of Things und dem Trend zu erneuerbaren Energien auch der Klimawandel eingedämmt. Doch so wünschenswert sich diese Utopie auch liest, lässt sich bezüglich des Kapitalismus derzeit eher das Gegenteil beobachten. Mit den Plattformen entstehen ungekannte Konzentrationserscheinungen, die die neuen Möglichkeiten des Internets bündeln und nicht selten quasi-monopolisieren. Die wichtigsten Akteure sind in allererster Linie kapitalistische Unternehmen enormer Größenordnung, und sie verdienen nicht schlecht an der angeblich „kollaborativen Gemeinwesenökonomie“. Das gilt auch für das von Rifkin als so zentral angesehene Internet of Things.

Internet der Dinge

Mit dem Internet of Things werden unsere Dinge auch auf andere Weise zur Plattform. Sie werden auf die eine oder andere Weise Daten austauschen, sich synchronisieren und mit den Menschen kommunizieren und interagieren. Bestimmte Geräte werden nur mit bestimmten anderen Geräten kommunizieren können, und die Netzwerkeffekte werden dafür sorgen, dass sich nur wenige Hersteller am Markt durchsetzen können. Wenn wir Glück haben, wird es offene Standards geben, über die Geräte unterschiedlicher Herkunft miteinander kompatibel sind. Aber diese Hoffnung ist eher gering. In dem frühen Stadium des Internet of Things, in dem wir uns befinden, bilden sich derzeit zwei parallele Paradigmen heraus:

Google verfolgt einen cloud-zentrierten Ansatz. Sein Handy-Betriebssystem Android ist jetzt schon in vielen Dingen verbaut: Autos, Fernseher, Kühlschränke. Sie alle sollen über das Internet mit Googles zentralen Servern reden, wo die Daten zusammengeführt werden und die Geräte zentral einsehbar und steuerbar sind. Der Nutzer greift mit einer Smartphone-App darauf zu. Auch bei Apple wird das Smartphone die Schaltzentrale des Internet of Things sein. Im Gegensatz zu der Lösung, die Google auf seiner Entwicklerkonferenz I/O vorgestellt hat43, sollen die Daten bei Apple aber nicht über zentrale Server zusammenkommen, sondern die Geräte sollen sich untereinander direkt austauschen. Das Thermostat spricht mit der Heizung, beide sprechen wiederum mit dem Smartphone, und vielleicht synchronisieren sie sich noch mit dem Homeserver.

Ob wir uns für Apples Lösung entscheiden (die durch den Verzicht auf einen zentralen Server etwas privatsphäreschonender ausfällt) oder für Googles Ansatz (der über die Auswertung des Gesamtnutzerverhaltens wahrscheinlich hilfreiche Tipps, aber auch lästige Werbung generieren kann): So oder so müssen wir davon ausgehen, dass wir uns wieder für eine der Plattformen entscheiden werden müssen. Denn die beiden Systeme werden miteinander höchstwahrscheinlich wenig kompatibel sein.

Die Entfesselung der Netzwerkeffekte

Der Hauptgrund für den plötzlichen Erfolg des Plattformmodells ist der zweite Treiber des Kontrollverlusts: Die Kopiermaschine Internet lässt Kommunikation fast kostenlos werden und hebt so die letzten Beschränkungen der Netzwerkeffekte auf. Schon lange vor dem Internet gab es Organisationen, auf die die Plattform-Definition zugetroffen hätte. Der Markt, die Sprache, Währungen, das Straßennetz, das Telefonnetz – das alles sind wichtige Plattformen. Doch sie sind mehr Infrastruktur als Akteure, mehr Hilfsmittel im Hintergrund als Strukturparadigma. Was hat sich jetzt geändert, dass Plattformen eine so zentrale neue Rolle zukommt?

Die Kommunikationskosten für die Vernetzung steigen in der physischen Welt ab einer bestimmten Netzwerkgröße schneller, als der Netzwerkeffekt zusätzlichen Nutzen generiert. Denn neben dem positiven Feedback gibt es noch das negative Feedback, das wie eine Gegenkraft wirkt. Wenn ich zum Beispiel viel Sport treibe, werde ich mit der Zeit immer besser (positives Feedback). Ab einer bestimmten Anzahl von Trainingsstunden aber stellt sich auch negatives Feedback ein, nämlich die Erschöpfung. In der physischen Welt wird das positive Feedback der Netzwerkeffekte irgendwann vom negativen Feedback eingeholt. Das liegt zum Beispiel an so banalen Dingen wie der räumlichen Entfernung. Der Nutzen einer Sprache wird zwar immer größer, je mehr Menschen sie sprechen, doch kann er sich nicht auswirken, wenn es allzu aufwendig ist, mit diesen Menschen in Kontakt zu treten. Dasselbe gilt für Märkte: Dass ich mit der ganzen Welt Handel treiben kann, bleibt Theorie, wenn ich dafür enorm viel Aufwand investieren muss – der lohnt sich nur in Ausnahmefällen.

Wir haben uns längst daran gewöhnt, doch im Grunde ist es eine Revolution: Die abgebauten Barrieren führen zu mehr und grenzenloser Kommunikation. Dem Internet ist es beinahe egal, wo sich jemand aufhält: Geografische Grenzen spielen kaum mehr eine Rolle. Auf einmal gibt es ein Medium, bei dem jede Nutzerin mit dem Nutzer fast ohne Kosten in Kontakt treten kann. Für Plattformen bedeutet das, dass sie bereits früh anfangen, sich international auszurichten. Zwar werden die meisten erfolgreichen Plattformen zuerst in ihren Heimatmärkten populär, doch neue Startups bereiten sich heute sofort auf den internationalen Markt vor. Die Kommunikationskosten sinken mit zunehmender Effizienz der Kommunikationstechnologien immer weiter. Das negative Feedback wird dadurch geringer, und der Wirkungsradius der Netzwerkeffekte vergrößert sich; Märkte und Sprachen erschließen neues Potenzial.

Die Kopiermaschine Internet entfesselt die Netzwerkeffekte vollends. Facebook und Google kommen gerade erst an die Grenzen ihres Wachstums. Jeweils etwa die Hälfte aller Internetnutzerinnen der Welt tummeln sich auf Facebook und Google. Um weiter zu wachsen, bleibt den Plattformen nichts anderes übrig, als mehr Menschen zu Internetnutzerinnen zu machen. Facebook forscht darum an Satelliten und Drohnen, über die sich noch mehr Menschen an das Internet anschließen lassen würden; bei Google sollen für strukturschwache Gegenden Heliumballons als Internet-Access-Points dienen. Am Schluss wird das Wachstum der beiden nur noch von der Weltbevölkerung selbst begrenzt werden. Der Aufstieg der Plattform als dominante Organisationstruktur ist die logische Folge des Kollapses der Kommunikationskosten durch den zweiten Treiber des Kontrollverlusts.

Plattform und Query

Der dritte Treiber des Kontrollverlusts – die Verknüpfbarkeit der Daten durch die Query – hat ebenfalls wesentlichen Anteil am Aufstieg der Plattformen. Neben dem negativen Feedback der Kommunikationskosten wirkt auf die Plattformen auch dasjenige der Komplexität von großen Gruppen. Unternehmen haben schon immer dieses Problem, weswegen sie trotz steigender Skaleneffekte irgendwann nicht mehr weiterwachsen können. Ab einer bestimmten Größe sind diese organisatorisch nicht mehr sinnvoll zu bewältigen. Das lässt sich tagtäglich auch im Kleinen beobachten: Die Produktivität von Teams oder von Meetings nimmt ab einer bestimmten Gruppengröße rapide ab. Das gilt auch für Plattformen. In den 1980er-Jahren, als vor dem Internet noch per Modem anwählbare Mailboxen das vorherrschende digitale Kommunikationsmedium waren, ließ sich dieser Effekt genauso beobachten wie in den Foren und Chatrooms der 1990er-Jahre. Sie alle waren nach dem Raumprinzip strukturiert. Alle Anwesenden „sprachen“ mit allen anderen Anwesenden. Ab einer bestimmten Größe zerfielen die Gemeinschaften oder schotteten sich gegen neue Teilnehmer ab.

Da die Query, wie im vorigen Kapitel gezeigt, Komplexität „aufsaugt“, ist sie die entscheidende Zutat, die für den organisatorischen Mehrwert von Plattformen sorgt: Sie bringt das negative Feedback der Überkomplexität, die aus einer immer weiter wachsenden, vielfältig verschränkten Gruppe entsteht, zum Verstummen. Mithilfe der Query kann die Kommunikation aus den Räumen befreit und dezentral organisiert werden. Anstatt dass alle in einen gemeinsamen Raum hineinkommunizieren, kann die Query individuelle Verknüpfungen abbilden. Statt eines Raumes und einer Gruppe in diesem Raum gibt es nur noch das Netzwerk. Statt aller Mitteilungen der Gruppe lese ich nur noch die Mitteilungen derjenigen, die sich im meinem eigenen Netzwerk befinden.

Plattformen wie Facebook oder Twitter bilden die Netzwerkstrukturen in sich selbst mithilfe der Query ab – jede Verknüpfung ist ein Datenbankeintrag, jede Freundschaft eine Query. Die Query dient als Newsstream bei Twitter, Facebook und RSS, sie ermöglicht die Suche nach Personen und Accounts oder Inhalten. Sie ermöglicht das Arbeiten mit Hashtags, und Konzepte wie Carsharing oder Airbnb sind ohne Query gar nicht denkbar. Querys schaffen es, Netzwerkeffekte noch besser auszuschöpfen, indem sie die Verknüpfung zwischen den Personen wahrscheinlicher machen (zum Beispiel durch eine ausgefeilte Suche oder spontane Organisation), bestehende Verknüpfungen noch nützlicher machen (zum Beispiel durch einen Newsfeed) und das negative Feedback der Komplexität reduzieren.

Wissen als Plattform

Netzwerkeffekte können nicht nur zwischen Personen auftreten, sondern Datenmengen können durch entsprechende Querys ebenfalls Netzwerkeffekte hervorrufen. Diese zielen aber nicht in erster Linie auf Menschen, um sie an der Teilnahme am Netzwerk zu bewegen, sondern machen es attraktiv, weitere Daten anzuschließen. Wir kennen das schon: Durch mächtige Query-Technologien wie die von Google wird es überhaupt attraktiv, im Web zu publizieren; ohne sie würden die Inhalte gar nicht gefunden. Dieser Effekt machte auch die Wikipedia groß. Natürlich lebt die Wikipedia von der Mitarbeit von Freiwilligen, also von der Vernetzung von Personen. Was aber im Vordergrund steht, ist die Vernetzung des Wissens und der Expertise dieser Personen. Je mehr Informationen in einem Wiki (so heißt die kollaborative Software, auf der auch die Wikipedia basiert) bereits versammelt sind, desto attraktiver ist es für Menschen, eigenes Wissen an das vorhandene Wissen anzuschließen. Sei es, dass sie einen Artikel korrigieren, eine Lücke schließen oder ein ganzes Set von Wissen andocken. Das liegt daran, dass Wissen selbst eine Netzwerkstruktur ist. Wissen ist verknüpfte Information. Je größer das Netzwerk aus Informationen, desto mehr Anschlussstellen für weiteres Wissen bringt es hervor.

In der Wissenschaft ist dieser Effekt schon sehr lange bekannt. Wissenschaftlerin A zum Beispiel hat einen riesigen Haufen Rohdaten über eine Supernova-Beobachtung vom Hubble-Teleskop. Wissenschaftler B, C und D haben dasselbe Phänomen beobachtet, allerdings von ihren Bodenstationen aus, weswegen ihnen jeweils weniger Daten zur Verfügung stehen. Allen Wissenschaftlerinnen nutzt es aber, die Daten zusammenzuführen und – eine entsprechende Querytechnologie vorausgesetzt – Verknüpfungen zwischen ihnen herzustellen. Die Query könnte durch die Zusammenführung der Daten Beobachtungslücken schließen, Anomalien verifizieren oder Kontraste erhöhen. Allerdings profitieren die Wissenschaftler B, C und D um ein Vielfaches mehr davon, die Daten mit A zusammenzuführen, als umgekehrt Wissenschaftlerin A. A hat bei Weitem die meisten und besten Daten und bietet damit die größten Netzwerkeffekte. A hat ihrerseits ein Interesse an den Daten von B, C und D – nur ein vergleichsweise geringeres. Die Query schafft, indem sie in ihren Anfragen Daten miteinander verknüpft, innerhalb der Datenmenge Netzwerke, steigert so den Nutzen der Daten und setzt Anreize, weitere Daten anzuschließen. Kurz: Wissen generiert Netzwerkeffekte.

Das zeigt sich auch bei der Inhalte-Industrie. Nach dem Napster-Schock hatte die Musikbranche große Probleme, mit legalen Angeboten auf die illegalen Filesharing-Angebote zu reagieren. Interessanterweise war das aber gar nicht in erster Linie eine Preisfrage (Nutzer sind durchaus bereit, Geld zu bezahlen), sondern das Problem lag darin, dass die Labels und Verlage zunächst jeweils eigene Angebote zum Musikkauf ins Netz stellten. Die Kunden aber wollen sich nicht einen Nutzer-Zugang für Universal, einen für Time-Warner und für jedes Lieblingslabel noch einen weiteren einrichten, um die Musik zu hören, die sie hören wollen. Es war den meisten Kundinnen völlig egal, von welchem Label oder Verlag ein Song produziert wurde. Nur eine Query, die aus dem Vollen schöpft – aus einem zumindest annähernd vollständigen Katalog –, schafft es, die Transaktionskosten für Musikkonsum auf ein handhabbares Maß zu reduzieren, sodass sich Nutzen einstellt. Erst Apple löste das Problem, indem es mit iTunes einen allgemeinen, label- und verlagsübergreifenden Musikshop bereitstellte und der Musikbranche dafür allerdings seine Konditionen aufzwängte. Die Herausforderung war in dem Fall also weniger die Query-Technologie an sich, sondern die Bereitstellung eines möglichst vollständigen Datensets.

Dasselbe passiert derzeit mit der Bewegtbild-Branche. Während in den USA Netflix und Hulu erfolgreich die Rolle einer Art iTunes für Bewegtbild einnehmen, ist in Deutschland immer noch kein Anbieter in Sicht, der einen annähernd vollständigen Katalog für Serien und Filme anbietet. Darum ist es hierzulande immer noch am attraktivsten, illegale Angebote zu nutzen – nicht in erster Linie, weil sie umsonst sind, sondern weil ihre Query auf einen kompletteren Katalog zugreift als die aller anderen Anbieter. Die Leute gehen dorthin, wo die Query auf der größtmöglichen Datenbasis operiert.

Und genau das gilt auch für Geheimdienste. Das Wissen der Geheimdienste bildet massive Netzwerkeffekte aus, und das ist einer der strukturellen Gründe für unsere heutige Situation. In seinem Paper „Privacy versus government surveillance: where network effects meet public choice“ vertritt der britische Sicherheitsforscher Ross Anderson die These, dass die Netzwerkeffekte der NSA-Datensammlung derart groß sind, dass sich die Geheimdienste anderer Länder dem Sog gar nicht entziehen können.44 Angefangen hat es mit dem Five-Eyes-Abkommen zwischen Kanada, Großbritannien, Australien, USA und Neuseeland. Da es für Auslandsgeheimdienste in den meisten Demokratien verboten ist, ihre eigene Bevölkerung auszuspähen, haben sich die Dienste zu einer Art Ringtausch zusammengeschlossen: „Ihr überwacht unsere Bevölkerung und wir eure.“ Die Daten tauschen die Dienste dann bei Bedarf.

Wir wissen seit Snowden, dass solche Verbindungen weit über die Five Eyes hinausreichen. Der deutsche BND, der französische DGSE, die Geheimdienste der Türkei, Indiens, Schwedens und einer unbekannten Anzahl weiterer Partner tauschen in großem Umfang Daten mit der NSA. Die Erkenntnis drängt sich auf: Auch Geheimdienste sind eine Plattform. Die alles verknüpfende Querytechnologie xKeyScore verbindet sie schließlich zum alles sehenden Orakel – ein Orakel, bei dem wieder gilt: Die Kleinen profitieren von den Großen deutlich mehr als umgekehrt. Ein Geheimdienst, der nicht mit der NSA Daten tauscht, ist nach heutigen Maßstäben schlicht blind. Das erklärt auch, warum ein Dienst wie der BND bereit ist, alles zu tun, um wertvolle Daten für die NSA bereitzustellen.

Ross Anderson geht noch weiter und stellt die These auf, dass auch die Strafermittlungsbehörden dem Sog der Netzwerkeffekte des Wissens nicht lange werden standhalten können. Strafermittlungsbehörden und Geheimdienste werden verschmelzen, so seine Voraussage. Ein Vorbote dessen sei das PRISM-Programm. PRISM ist eigentlich der NSA-interne Name für eine Schnittstelle, die die amerikanische Bundespolizei FBI (Federal Bureau of Investigation) zu den Internetdiensten unterhalte. Die NSA greift also direkt über das FBI auf die Daten der Internetdienste zu. Diese Verschmelzung von Geheimdiensten und Polizei macht angesichts des ähnlichen Anforderungsprofils für Datenabfragen technisch und ökonomisch Sinn, ist aber unter dem Aspekt von Menschen- und Bürgerrechten hochproblematisch. Nicht ohne Grund sehen fast alle demokratischen Regierungen eine klare Grenze zwischen Geheimdienst und Polizei vor.

Die NSA ist das Schwarze Loch im Zentrum der Geheimdienstgalaxie. Ihre Datengravitation zieht die Daten aller anderen Geheimdienste an, und kein Geheimdienst kann sich dem widersetzen. Sie haben im Grunde dasselbe Problem wie wir. Der BND ist von der NSA und ihrem Zugang zu XKeyscore ebenso abhängig wie wir von Facebook.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>