von Ben Thies, 11.11.16
Das von Eli Pariser entwickelte Konzept der „Filter Bubble“ ist zurzeit so populär wie nie. Nur wenige Stunden nachdem das Ergebnis der US-Wahl fest stand, wurden schon Stimmen laut, denen zufolge die „Filterblase“ viele Vertreter von Medien und Politik (inkl. einiger Mitglieder des Republican National Committee) habe denken hat lassen, dass Donald Trump die Wahl verlieren werde. Joshua Benton führt an, dass nicht zuletzt die mit Falschmeldungen „bewaffnete“ Filterblase auf der anderen Seite dazu beigetragen habe, Trump-Wähler zu mobilisieren (siehe auch: „Donald Trump won because of Facebook“). Auch bei dem für unwahrscheinlich gehaltenen Ausgang des Brexit-Referendums im Juni wurde die Filterblase und aus ihr resultierende „Echokammern“ von diversen Nachrichtenmedien und Bloggern als Erklärung dafür herangezogen, dass viele Remain-Wähler wenig bis gar nichts von der Opposition mitbekommen hatten (siehe beispielsweise der New Statesman und der dahingehend oft zitierte Tweet von Tom Steinberg).
Die Filterblase (siehe dazu Parisers TED-Talk) beschreibt eine figurative Sphäre, in der einem Internetnutzer nur beziehungsweise hauptsächlich die Inhalte zur Verfügung gestellt werden, die ihn (wahrscheinlich) interessieren. Um dieses individuelle Interesse zu ermitteln, laufen bei Internetdiensten wie Google, Facebook und Amazon stets Filteralgorithmen im Hintergrund, deren Parameter ausschlaggebend für die angezeigten Ergebnisse sind. Bei Google bestimmen unter anderem der aktuelle Standort und bisherige Suchanfragen, was als Suchergebnis erscheint. Bei Facebook sind beispielsweise Page Likes und Häufigkeit der Interaktion für die Inhalte des personalisierten Newsfeeds verantwortlich. Amazon generiert Empfehlungen auch aus bisher getätigten Einkäufen.
Das Problem der Filter Bubble wird vor allem darin gesehen, dass der durchschnittliche Internetnutzer nicht weiß, dass ihm hauptsächlich Inhalte gezeigt werden, die speziell für ihn gefiltert worden sind. So könnte insbesondere in sozialen Netzwerken wie Facebook der Eindruck entstehen, dass die eigene Ansicht auch die „Richtige“ sei, und dass darüber auch genereller Konsens herrsche. In derart geschaffenen „Echokammern“ treffen ähnlich denkende Menschen aufeinander, durch die Filter Bubble isoliert von allen Ansichten, die nicht mit ihren eigenen übereinstimmen – und werden dadurch wiederum in ihrer bestehenden Meinung bestärkt. Die Web-App Blue Feed, Red Feed liefert ein gutes Beispiel, wie einseitig die geteilten Inhalte innerhalb dieser Echokammern sein können.
Inhaltsfilterung durch traditionelle Gatekeeper ist seit jeher Normalität. Automatisierte Filter-Algorithmen hingegen sind nicht nur neu, sie sind auch nicht menschlich.
Es ist allerdings unwahrscheinlich, dass politische Entwicklungen wie der Brexit allein den Filteralgorithmen zugeschrieben werden können. Zwar bedienen sich Presse und Blogs gerne der Filter Bubble als mystischem Begriff einer subtilen Machtstruktur im Internet, jedoch entbehren die Annahmen über negative Konsequenzen der Filter Bubble jedweder Empirie. Forschungsergebnisse hinsichtlich des Einflusses von Filteralgorithmen auf den Nachrichtenkonsum deuten eher darauf hin, dass sie das ideologische Spektrum erweitern, als es einzugrenzen. Die meisten Studien zu diesem Thema sehen den Hauptgrund für einseitigen Nachrichtenkonsum nicht in der algorithmischen, sondern in der psychologischen Filterung. Selective exposure lautet das Stichwort: Individuen suchen sich unterbewusst bevorzugt Informationen, die mit ihren bestehenden Ansichten übereinstimmen. Diese Art der Filterung gab es bereits vor dem Internet, und sie äußerte sich beispielsweise in der Wahl der Tageszeitung (für mehr: Christoph Kappes: Warum die Gefahren der Filter Bubble überschätzt werden).
Warum aber wird den Filteralgorithmen als technischer Inhaltsfilterung deutlich mehr mediale Aufmerksamkeit gewidmet, als traditionellen Gatekeepern, die grundsätzlich die gleiche Funktion haben und ähnlich unbemerkt wirken?
Ein Grund liegt auf der Hand: Inhaltsfilterung durch traditionelle Gatekeeper ist seit jeher Normalität. Automatisierte Filter-Algorithmen hingegen sind nicht nur neu, sie sind auch nicht menschlich. Pariser liegt hier richtig, wenn er bemängelt, dass es den Algorithmen im Vergleich zu Editoren an den „embedded ethics“ fehlt. Allerdings weisen Erkenntnisse aus der Gatekeeper-Forschung darauf hin, dass den Editoren überhaupt nicht genügend Wahlfreiheit bleibt, um sich an einer solchen Journalistenethik zu orientieren: Andere Faktoren (z.B. redaktionelle Linie, Platz in der Zeitung) haben einen deutlich größeren Einfluss auf die Vorselektion (wegweisende Forschung hierzu lieferten D. White: The „Gate Keeper“: A Case Study in the Selection of News und W. Breed: Social Control in the Newsroom: A Functional Analysis).
Eine andere Erklärung ist, dass der Begriff Filter Bubble in den Medien oft sehr weit gefasst wird. So werden oft nicht nur Filteralgorithmen und deren Auswirkungen unter den Begriff subsumiert; er wird auch gleichgesetzt mit den Potenzialen sozialer Netzwerke wie Facebook. Facebooks Struktur ist darauf ausgelegt, Inhalte, die mit den Interessen vieler Nutzer korrespondieren, schnell(er) zu verbreiten. Da die Richtigkeit geteilter Inhalte kein Kriterium für die Effektivität der Verbreitung ist, bietet Facebook ein wirksames Instrument für Propaganda und zur Streuung gezielter Falschinformation und von Gerüchten. Diese „digital misinformation“ ist auf Social Media Plattformen derart allgegenwärtig, dass das Weltwirtschaftsforum das Phänomen im Jahr 2013 als eine der größten Gefahren für die Gesellschaft einschätzte. Sie „bewaffnet“ die Filterblase (ob nun erzeugt durch psychologische oder technische Faktoren), wie Joshua Benton in seinem Beitrag auf NiemanLab demonstriert.
Als weiterer Punkt dürfte die Zunahme an sogenannten „Hassdebatten“ im Internet infolge der erhöhten Migration nach Deutschland eine Rolle bei der vermehrten Beobachtung vermeintlicher Filter Bubble-Phänomene spielen. Allerdings gibt es für die Häufigkeit solcher Debatten keinen Bezugswert. In der Tat ist davon auszugehen, dass diese Hass-Debatten schon vor Facebook und seinen Filtern stattgefunden haben, allerdings zum Beispiel an Stammtischen und somit weniger öffentlich.
Dass die Architektur von Filteralgorithmen so beschaffen ist, dass Internetnutzern bestimmte Inhalte bevorzugt (und häufiger) angezeigt werden, ist kein Geheimnis. Dass ihre Struktur die Bildung von Ingroups in sozialen Netzwerken vereinfacht, ist eine logische Folge. Dass sie eine Gefahr für die Gesellschaft darstellen, da sie Nutzern eine ganz bestimmte Realität diktieren, kann nur dann der Fall sein, wenn wir die Gesellschaft davor als gefährdet durch ein Diktat der Funk- und Printmedien betrachten. Ich würde jedoch lieber das Individuum als letzte Filterinstanz betrachten.
Trotzdem wird sich der Begriff Filter Bubble wahrscheinlich weiterhin in der Medienlandschaft halten. Auch wenn die meisten Studien den Filteralgorithmen im Bestfall einen geringen Einfluss auf die Inhaltsselektion zusprechen: Der schwer greifbare Begriff eignet sich wohl einfach zu gut als Erklärung für die spezielle Dynamik öffentlicher Diskurse im digitalen Zeitalter.
Was Sie tun können, um CARTA zu unterstützen? Folgen, liken und teilen Sie uns auf Facebook und Twitter! Wenn Sie regelmäßig über neue Texte und Debatten auf CARTA informiert werden wollen, abonnieren Sie bitte unseren Newsletter.