Vom Kontrollverlust zur Filtersouveränität

von , 6.4.11

Die USA stehen diplomatisch ohne Hosen da, ein «Shitstorm» bricht über Nestlé herein, ein Blogger prangert ein Zitat des Bundespräsidenten an, der schließlich zurücktritt, private Videos von Jugendlichen verbreiten sich im Netz, das Internet verleibt sich das deutsche Straßenpanorama ein, und in Tunesien und Ägypten verabreden die Menschen sich zum spontanen Regimesturz.

Die Welt ist in Aufruhr dieser Tage, und irgendwie hat es mit dem Internet zu tun. Vor einem Jahr habe ich mich entschlossen, Ereignisse wie diese unter dem Begriff «Kontrollverlust» zu untersuchen. Das scheint etwas unsystematisch, und tatsächlich ist es nicht einfach, eine passende Definition für all diese unterschiedlichen Phänomene zu liefern.

Ich versuche es dennoch: Ein Kontrollverlust entsteht, wenn die Komplexität der Interaktion von Informationen
die Vorstellungsfähigkeiten eines Subjektes übersteigt.

Das ist an sich nichts völlig Neues, wir kennen das. Meine These ist aber nun, dass das Internet und die digitale Technik diese Kontrollverluste sowohl in ihrer Häufigkeit als auch in der Intensität ihrer Folgen um ein Vielfaches steigert. Dafür gibt es verschiedene Gründe.

Es gibt kein analoges Leben im digitalen

«Leaken» ist sozusagen die Standardeinstellung des Netzes.

Den ersten internationalen Durchbruch hatte Wikileaks mit dem Video «Collateral Murder». Man wird Zeuge, wie die Besatzung eines US-amerikanischen Apache-Hubschraubers im Irak eine Gruppe von Menschen zusammenschießt. Zwei von ihnen sind Journalisten für Reuters. Der Familenkleinbus, der hält, um die Verletzten zu bergen, wird gleich darauf auch zusammengeschossen.

Was mich hier interessiert, ist diese merkwürdige Konfiguration von «Zeugenschaft». Die Kamera im Helikopter ist zweifellos ein Kontrollinstrument. Das Oberkommando fliegt mit, bekommt alle Schritte des Apache-Teams zu sehen, und das Material kann hinterher ausgewertet werden.

Doch der Kontrollapparat wird nun zum Kontrollverlustinstrument. Kontrollverlustinstrumente können potenziell alle Apparate zum Aufschreiben von Daten sein. Sensoren, Kameras, GPS-Apparaturen etc. Denn die Menge dieser Apparate steigt unerbittlich. CCTV-Kameras überwachen den öffentlichen Raum, Handys mit Kamera und GPS sind allgegenwärtig, Kreditkartenlesegeräte erfassen beinahe alle Transaktionen und durch die Straßen fährt das Google-Street-View-Auto. Alle diese Geräte schicken immer mehr Daten auf immer größere Festplatten, in immer mehr Geräte und immer mehr ins Internet.

Grund eins für den Kontrollverlust: Die Allgegenwart von Aufzeichnungsgeräten verknüpft die digitale Welt immer enger mit der analogen. Ist man Teil der Welt, wird man Teil des Internets sein.

Public by Default

76.911 Dokumente umfassten die Afghanistandokumente, 391.832 die aus dem Irak, und 251.287 diplomatische Depeschen wurden geleakt. Aber die mutmaßliche Quelle, Bradley Manning, musste nicht 234 Aktenschränke mit einer Kolonne Lastwagen abholen lassen, sondern spazierte mit einer gebrannten Lady-Gaga-DVD aus dem Büro. Da war noch etwas Platz drauf.

Im Digitalen gibt es keinen Unterschied zwischen Schicken und Kopieren. Egal, ob wir eine E-Mail schicken oder eine Website aufrufen: Jede Operation im Digitalen ist eine Kopieroperation. Über 90% aller Befehlssätze eines Computerprozessors sind Kopierbefehle; das Internet ist somit eine riesige Kopiermaschine.

Während in einer Welt der Wände und Entfernungen noch ein großer Aufwand betrieben werden musste, um eine Information an einen Empfängerkreis weiterzuverbreiten, der über eine mittlere Ratsversammlung hinausgeht, muss man heute einen ähnlichen Aufwand betreiben, um dieselbe Information nicht sofort weltweit zugänglich zu machen.

Und wenn man eine Information wieder aus dem Netz herausbekommen will, hat man ein Problem. Nach den Versuchen der US-Regierung, Wikileaks zu schaden, indem man Dienstleister dazu brachte, Verträge mit ihnen zu kündigen, reagierten die Unterstützer von Wikileaks mit bis heute 1.426 Spiegelungen, also kompletten Kopien aller Daten des Wikileaks-Servers auf anderen erreichbaren Rechnern.

Dieser Vorgang bekam im Jahre 2003 den Namen «Streisand-Effekt». Die Schauspielerin und Sängerin Barbra Streisand versuchte damals die Website Pictopia.com gerichtlich dazu zu zwingen, eine Luftaufnahme ihres Hauses zu entfernen. Der Prozess entfachte das Interesse an dem Bild erst richtig und verbreitete es nicht nur tausendfach im Netz, sondern auch die Information, wer dort wohnt.

Grund zwei für den Kontrollverlust: Das Internet hat die Transaktionskosten für Information enorm gesenkt und tut es weiter. «Leaken» ist sozusagen die Standardeinstellung des Netzes.

Echtzeitarchäologie

Nachdem all die vielen Dokumente aus Afghanistan, dem Irak und all die ganzen Depeschen geleakt waren, stand man nun vor einem riesigen Berg an Daten. Nicht mal der Zusammenschluss der Redaktionen von SPIEGEL, Guardian und New York Times hätte ausgereicht, genug wertvolle Informationen aus diesem Heuhaufen zu destillieren, wenn nicht ein weiterer Umstand geholfen hätte: Die generelle Verknüpfbarkeit von Daten.

Der Guardian glänzte als Vorbild, als er vor allem die Kriegsdokumente zu angereicherten Landkarten und interaktiven Diagrammen verarbeitete. Indem man Metadaten wie Orts- und Zeitangaben mit weiteren Daten wie einer Landkarte und einem Zeitstrahl verknüpfte, ließen sich selbst unzugänglichste Datenberge erschließen. Das große Bild des Krieges, seine Dramatik, sein Verlauf und sein (Miss-)Erfolg wurden durch die Interaktion des Nutzers mit den Daten erfahrbar.

Andere sind noch viel weiter. Ob die Analyse von Bestandsdaten oder die Zusammenführung heterogener Daten – den Verknüpfbarkeiten sind keine Grenzen gesetzt. Der neueste Trend ist es, biometrische Gesichtserkennung in Software für den Massenmarkt einzubauen. Bei Apples iPhoto und Googles Picasa sind diese bereits Teil des Produktes und bei Facebook schon im Test. Es ist natürlich furchtbar praktisch, wenn das Fotoprogramm meine Freunde automatisch anhand ihres Gesichtes erkennt und richtig einsortiert.

Google forscht intensiv an immer besseren Algorithmen zur Gesichtserkennung, und so wird es nicht lange dauern, bis alle diese Bilder von uns, von denen wir bislang nichts wussten, durch eine entsprechende Google-Suche zu Tage gefördert werden oder uns das Google-Android-Handy automatisch auf der Straße erkennt.

Ein anderes Beispiel ist Gaydar. Im Jahr 2007 stellten Studenten vom MIT eine Software vor, mit der man recht zielsicher Homosexuelle bei Facebook ausfindig machen kann. Sie analysiert ausgehend von einer bekennenden Referenzmenge an Homosexuellen das Netz der frei zugänglichen Freundschaftsverknüpfungen und kann mit einer Trefferquote von 86% vorhersagen, ob ein einzelner Facebook-Nutzer homosexuell ist. Outing ist eine Frage des automatischen Lesens von Datenverknüpfungen geworden.

Egal ob Bilderfassungs- und Auswertungsverfahren oder Freundschaftsverknüpfung: All diese Beispiele haben eines gemeinsam. Sie basieren darauf, dass mit der digitalen Technik heute in Echtzeit Analysen und Referenzen zwischen Daten generiert werden können, die unsere bisherigen Vorstellungen übertreffen.

Der einzelne Datensatz liegt eben nicht mehr tot an seinem Speicherplatz, sondern wird durch immer neue Verknüpfungsmethoden «angereichert» und damit stets lebendiger.

Im professionellen Umfeld nennt man das dann «Data-Mining», «Targeting» oder «Monitoring» – im Privaten hat man andere Namen dafür: «Adressbuchsynchronisation», «Bilderverwaltung» oder schlicht «Google-Suche». Die ordnenden und verknüpfenden Algorithmen, die hier zum Einsatz kommen, erreichen heute schon eine ungeahnte Tiefe und Komplexität. Es ist, als würde man mit ausgefeilten archäologischen Methoden die Jetztzeit analysieren.

Grund drei für den Kontrollverlust wäre also: Daten werden übermorgen für Verknüpfungen offener sein als morgen.

Die Bibliothek von Babel

Halten wir hier einen kurzen Augenblick inne und betrachten die drei Gründe für den Kontrollverlust:

1. Die steigende Masse an Daten durch die Allgegenwart von Aufzeichnungssystemen.

2. Die steigende Agilität der Daten durch deren sinkende Transaktionskosten.

3. Die steigende Verknüpfbarbeit von Daten.

Wenn man in Betracht zieht, dass Punkt eins und zwei sich entlang von «Moores Law» exponentiell weiterentwickeln (Verdopplung etwa alle 18 Monate), kommt man unwillkürlich an den Punkt, der immer wieder schwarz an die Wand gemalt wird: die Informationsüberflutung.

Eric Schmidt, Top-Manager bei Google, behauptete unlängst, dass derzeit in 48 Stunden genauso viele Daten produziert werden, wie in der Zeit vom Beginn der Menschheit bis zum Jahre 2003. Ein Weiterdenken dieses Trends führt uns unweigerlich zu dem, was Jorge Luis Borges in seiner Erzählung «Die Bibliothek von Babel» beschrieben hat.

Ein Volk lebt dort in einer Welt, die eigentlich eine Bibliothek ist, in der alle logisch-mathematisch möglichen Bücher vorhanden sind. Alle denkbaren und undenkbaren, alle sinnvollen und nicht sinnvollen, alle geschriebenen und noch zu schreibenden Texte. Einfach alles. 1,956 * 10 ^ 1834097 Bücher à 410 Seiten.

Das Unverständnis vieler Leute gegenüber Diensten wie beispielsweise Twitter rührt aus dieser generellen Unvorstellbarkeit: «Da schreiben also Leute, wenn sie aufs Klo gehen!?» Aktiven Twitterern kommt diese Frage unsinnig vor.

Aber warum akzeptieren ausgerechnet jene, die an vorderster Front des Informationsorkans stehen, diese Informationsüberflutung schulterzuckend? Hier greift der Grund Nummer drei für den Kontrollverlust. Die Verknüpfbarkeit der Daten erlaubt uns immer besser mit den Informationsmengen des Internets umzugehen. Echtzeitalgorithmen zur Durchsuchung von großen Datenmengen schaffen ein neues Verhältnis von Sender und Empfänger und damit eine neue Öffentlichkeit in der Bibliothek von Babel.

Die Query-Öffentlichkeit

Wir müssen uns fragen: Was ist Öffentlichkeit in der Bibliothek von Babel? Wir kennen Öffentlichkeit vom öffentlichen Raum, in den man sich begeben kann, manchmal begeben muss. Wir kennen auch die mediale Öffentlichkeit der Massenmedien, in denen wir mehr oder weniger öffentlich sein können, je nach Auflage oder Quote. In der Bibliothek von Babel muss Öffentlichkeit aber neu gedacht werden. Eine dritte Form von Öffentlichkeit hat sich längst parallel gebildet. Nur war sie mit herkömmlichen Denkungsarten des Medienverständnisses nicht beobachtbar.

  • Die Öffentlichkeit der Google-Suche: Egal, ob ein Blog 3 oder 300.000 Leser am Tag hat. Wenn es über mich schreibt, wird derjenige, der nach meinem Namen sucht, den Eintrag finden. Denn die Kombination seiner Suchworte bestimmt diese Öffentlichkeit.
  • Die Öffentlichkeit der eigenen Twitter-Timeline. Es lesen nicht viele Menschen, was ich twittere, das ist auch nicht nötig. Es abonnieren sich meinen Twitter-Stream nämlich nur diejenigen, die sich wirklich dafür interessieren, was ich schreibe. Die Öffentlichkeit meiner Twitter-Nachrichten strukturiert sich aus der Konfiguration ihrer Abonnemententscheidungen.
  • Die Öffentlichkeit des Data-Minings. Auch das gehört dazu, dass die Daten, die ich preisgebe, nicht nur in der Weise genutzt werden, wie ich es mir im Vorhinein vorstelle. Sondern dass sie angereichert werden mit anderen Daten und dass darauf Anfragen getätigt werden, von denen ich heute keine Vorstellung habe. Die Öffentlichkeit meiner Daten bestimmt sich aus der Geschicklichkeit der verknüpfenden Algorithmen solcher Dienste.

Kurz: Man muss im Internet die Öffentlichkeit von der anderen Seite, der Seite des Empfängers, aus neu denken. «Query» bezeichnet in der Datenbanktechnik eine Anfrage beliebiger Komplexität an einen Datensatz. Die neue Struktur von Öffentlichkeit nenne ich deswegen «Query-Öffentlichkeit».

Die Query-Öffentlichkeit ist die positive Kehrseite des Kontrollverlusts. Sie ist das Stück Autonomie, dass der Empfänger von Informationen hinzugewinnt, welches der Sender der Information durch den Kontrollverlust verloren hat. Es ist die Invertierung des klassischen Öffentlichkeitsbegriffs und erfordert ein nicht gerade triviales Umdenken. Ein Umdenken, das aber durchaus beobachtbar bereits stattfindet und – so meine These – sich mit dem Fortschreiten des Kontrollverlusts noch ausweiten wird.

Mit diesem Umdenken von Öffentlichkeit kehren sich auch eine ganze Reihe von Wertpräferenzen um und bereiten damit den Weg für eine andere Informationsethik.

Wenn sich – erstens – Information aufgrund ihrer billigen Speicherbarkeit nicht mehr für ihre Existenz rechtfertigen muss und wir – zweitens – annehmen, dass die Querys, die man auf einen Datensatz anwenden kann, in ihren Möglichkeiten unendlich sind, gibt es plötzlich keine legitime Instanz mehr, die sich anmaßen könnte zu entscheiden, was wichtige, unwichtige, gute oder schlechte Information ist. Das Zusammenstellen von Querys und Präferieren von Filtern wäre das radikale Recht ausschließlich des Empfängers.

Gleichzeitig befreien diese unvorhersehbaren, weil unendlichen Querys auch den Sender der Information. Sie befreien ihn davon, Erwartungen entsprechen zu müssen. Denn der Andere kann, weil er in unendlichen Quellen mit perfekt konfigurierbaren Werkzeugen hantiert, keinen Anspruch mehr an den Autor stellen – weder einen moralisch-normativen noch einen thematisch-informationellen. Die Freiheit des Anderen, zu lesen oder nicht zu lesen, was er will, ist die Freiheit des Senders, zu sein, wie er will.

«Filtersouveränität», so habe ich diese neue Informationsethik genannt, ist eine radikale Umkehr in unserem Verhältnis zu Daten. Sie führt bereits hier und da zu Reibereien und kleineren Kulturkämpfen, und ich bin mir sicher, dass dieses Prinzip seine Stärke erst noch voll entfalten wird. In der Wikipedia ist beispielsweise ein Kulturkampf entbrannt zwischen Exklusionisten und Inklusionisten, also jenen, die meinen, Inhalte wegen Irrelevanz löschen zu müssen, und anderen, die dagegenhalten. Und während ich noch vor fünf Jahren Mails oder SMS gelöscht habe, sortiere ich sie heute nur noch weg.

Die Empörung im Internet gegenüber den Maßnahmen der Öffentlich-Rechtlichen, die aufgrund des Rundfunkänderungsstaatsvertrags ihre Archive im Netz unzugänglich machen müssen, speist sich aus dieser neuen Betrachtungsweise. Auch bei dem Gedanken an das «digitale Radiergummi» fasst sich der filtersouveräne Netzbürger an den Kopf. Die Sympathie für Projekte wie Wikileaks, aber auch die Forderungen der Open-Data-Bewegung, dass der Staat alle seine Daten zur potenziellen Verarbeitung maschinenlesbar zur Verfügung stellen soll, all das kann direkt als Ausdruck eines neuen filtersouveränen Bewusstseins gelesen werden. Von den Forderungen eines liberaleren Urheberrechts ganz zu schweigen.

Und das wäre also der letzte Grund, der vierte und endgültige, für den Kontrollverlust: Der Wertewandel durch die Filtersouveränität wird dafür sorgen, dass der Mensch den Kontrollverlust nicht nur in Kauf nimmt, sondern sogar gegen alle Widrigkeiten verteidigen wird.

Dieser Text von Michael Seemann stammt aus dem Band “#public_life Digitale Intimität, die Privatsphäre und das Netz”, den die Heinrich-Böll-Stiftung in der kommenden Woche veröffentlichen wird. Der Text steht unter CC-Lizenz. Die Veröffentlichung auf Carta erfolgt mit freundlicher Genehmigung von Autor und Stiftung.

Zustimmung, Kritik oder Anmerkungen? Kommentare und Diskussionen zu den Beiträgen auf CARTA finden sich auf Twitter und auf Facebook.