Algorithmen und Filterblasen sind nicht an allem schuld

Das bisschen Facebook

Von Enno Park

Eine strengere Regulierung von Facebook hilft wenig im Umgang mit rechten Inhalten, Hassbotschaften und »fake news«. Die Ursachen für die gesellschaftlichen Verwerfungen sind nicht Algorithmen und Filterblasen, sie liegen tiefer.

Die Geschichte von »Brexit«, Donald Trump und dem Erstarken rechtsextremer Parteien in Europa ist eine Geschichte von Facebook und Twitter. So jedenfalls lautet eine beliebte Antwort auf die Frage, wie das alles geschehen konnte. Die Rede ist von Filterblasen in sozialen Medien, in denen Menschen nur noch mitbekommen, was ihrer ­eigenen Weltsicht entspricht. Es ist eine Geschichte sinistrer US-Konzerne, die mittels massenhafter Datensammlung und ausgefeilter Instrumente die zur Rechten tendierenden Wähler punktgenau adressieren und damit skrupellos Geschäfte machen. Und es ist eine Geschichte von ominösen russischen Hackern, die im Auftrag ihrer Regierung die öffentliche Meinung in westlichen Ländern manipulieren. Das Problem ist nur: Diese Geschichte stimmt nicht ganz. Sie greift zumindest viel zu kurz.

Wir neigen dazu, uns in »Tribes« zusammenzuschließen. Das hat aber wenig Einfluss darauf, welche Inhalte wir angezeigt bekommen, sondern wie wir diese bewerten.

Ein Beispiel ist die Wahlkampagne Donald Trumps. Diese nutzte zweifellos erfundene Falschmeldungen, um Trump zu promoten und Hillary Clinton schlecht zu machen. Es ist angesichts des knappen Wahlausganges sogar gut möglich, dass diese Beeinflussung den Ausschlag gab. Übersehen wird dabei jedoch die Rolle der Massenmedien. Für sie war Trump mit seinen permanenten Grenzüberschreitungen ein ­Geschenk. Jahrelang hatten sie über Anzeigenschwund und sinkende Leserzahlen geklagt. Donald Trump, der Mann, der ständig den Hund beißt, hat ihnen größere Werbeerlöse, mehr Abonnements und höhere Einschaltquoten beschert – nicht nur Fox News und Breitbart News, sondern eben auch den linksliberalen Medien, die sich seither an Trump abarbeiten.

Das hat auch Alexander Dobrindt bewusst oder unbewusst verstanden, als er während der Sondierungsgespräche zur Großen Koalition eine »konservative Revolution« ausrief. Es ist die bayerische Version von »Make America great again« und zielt direkt auf die weniger urbane, sich »abgehängt« fühlende Bevölkerung. Dobrindts Aufruf ging über die klassischen Massenmedien. Anhänger jener Idee mussten sie nicht weiter verbreiten, das taten schon ihre Gegner, indem sie sich, in Leitartikeln genauso wie in den sozialen Netzwerken, darüber öffentlich aufregten.

Der Vorwurf, der Facebook-Algorithmus erzeuge besonders viel Aufmerksamkeit für fake news und Hassbotschaften, berücksichtigt nicht, dass der relevante Mechanismus in der Natur des Internet liegt. Klicks bekommt, wer die krasseste Botschaft verbreitet, und die Massenmedien konkurrieren – innerhalb wie außerhalb des Netzes – mit diesen »krassen Botschaften«. Ausgewogene Berichterstattung wird für Medien immer schwieriger, wenn sie keine Zeitung mehr verkaufen können, sondern mit jedem einzelnen Artikel im Konkurrenzkampf um einzublendende Online-Werbung stehen, egal ob mit Facebook oder ohne. Dabei können sie inhaltlich nur verlieren: Ignorieren sie bestimmte Inhalte, wird ihnen vorgeworfen, nicht umfassend zu berichten. Berichten sie doch, wird ihnen vorgeworfen, gefährliches Gedankengut zu transportieren. Und wenn sie Falschmeldungen aus den sozialen ­Medien richtigstellen, verbreiten sie damit diese Falschmeldungen zugleich an zahllose Menschen, die sie sonst gar nicht mitbekommen hätten.

Aber auch in den sozialen Medien funktioniert die Verbreitung anders als oft angenommen. Der Internetunternehmer Eli Pariser prägte 2011 den Begriff der »Filter Bubble«. Seiner Theorie zufolge liefern uns Algorithmen und die Wahl unserer Facebook-Freunde genau die Inhalte, die unserer Meinung entsprechen. Parisers alarmistische Fazit lautet: Wir verlieren den Kontakt zur Realität und zu Andersdenkenden, wir verschanzen uns in der Filterblase ­unserer komfortablen Privatwahrheit.

Aber stimmt das überhaupt? Dass wir auf Twitter meist nur denjenigen folgen, deren Meinung wir teilen, und dass Google personalisierte Suchergebnisse ausspuckt, schien die These zunächst zu stützen, bis Forscher wie der Datenjournalist Michael Kreil und der Kulturwissenschaftler Michael Seemann sich die Mühe machten, sie zu überprüfen. Die beiden untersuchten das Auftreten von Filterblasen auf Twitter und wie sich darin fake news verbreiten. Ihr Ergebnis: Wir neigen online wie ­offline dazu, uns in »Tribes« zusammenzuschließen. Das beeinflusst aber weniger, welche Inhalte wir angezeigt bekommen, als vielmehr, wie wir diese be­werten.

Die Entscheidung, einen bestimmten Inhalt auf Twitter weiterzuverbreiten, hängt stark damit zusammen, ob wir damit die Zugehörigkeit zur Gruppe signalisieren können. Ein solcherart passender Inhalt wird als »wahr« angenommen, auch wenn es sich um eine Falschmeldung handelt. Mit Richtigstellungen ist dem nicht beizukommen, denn das Richtigstellen ­genehmer Inhalte wird als Angriff auf die eigene Identität wahrgenommen. Entsprechend heftig sind die Streitereien, wenn Mitglieder verschiedener »Tribes« aneinandergeraten.

 

Das »Netzwerkdurchsetzungsgesetz«: doppelt kontraproduktiv

Ein anderes Experiment führte die Gruppe »Algorithm Watch« durch. Sie bat um eine Datenspende: Man solle sich ein Plugin für den Browser herunterladen, das regelmäßig Suchanfragen stellt und die Ergebnisse an »Algorithm Watch« weitergibt. Die Gruppe kann dann untersuchen, in welchem Ausmaß die angezeigten Ergebnisse variieren, wenn verschieden Menschen etwa nach »Frauke Petry« oder »An­gela Merkel« googlen. Die Auswertung läuft derzeit noch, aber schon jetzt zeichnet sich ab, dass von einem algorithmischen Filterblaseneffekt nicht die Rede sein kann. Zu sehr ähneln sich die Suchergebnisse verschiedener Menschen, und wo sie voneinander abweichen, weist wenig darauf hin, dass sie von Google weltanschaulich passend zusammengestellt werden.

Für Facebook gibt es noch keine solchen Untersuchungen, da sich der Konzern ungern in die Karten schauen lässt. Auf Facebook gibt es Gruppen, in denen man sich über alles Mögliche austauschen kann, entsprechend auch solche für Rechtsextreme und Verschwörungstheoretiker. Wer sich in diese Gruppen begibt, hat schnell neue Freunde. Zugleich ist Facebook aber auch das Netzwerk, in dem die Nutzer sich wahrscheinlich am wenigsten wegen gemeinsamer Interessen vernetzen. Oft bestehen Kontakte zwischen Nutzern vielmehr, weil diese verwandt sind oder sich vom ­Arbeitsplatz, der Schule oder aus anderen Kontexten kennen. Die Wahrscheinlichkeit, auf Inhalte außerhalb der eigenen Filterblase zu stoßen, weil sie der Schulfreund von damals oder der unangenehme Onkel verbreitet, ist auf Facebook deshalb sehr hoch.

Völlig unterbelichtet ist hingegen die Rolle, die andere Netzwerke wie 4chan, Reddit, V-Kontakte oder gab.ai bei der Verbreitung von fake news, Hassbotschaften und rechten Inhalten spielen. Diese Plattformen dienen als Rückzugsraum für Rechtsextreme, Frauenfeinde, Reichsbürger und Verschwörungstheoretiker. Ein großer Teil der rechtsextremen Inhalte entsteht dort und nur die aufregendsten oder vermeintlich witzigsten werden in ­andere Plattformen weitergetragen. Gelegentlich verabreden sich Rechte dort auch, um in anderen Netzen konzertiert zu trollen – zuletzt unter Ausnutzung des nun in Kraft getretenen »Netzwerkdurchsetzungsgesetzes«. Wie Vice ­Motherboard aufgedeckt hat, verabreden sich rechte Trolle gezielt, um ­Inhalte von Linken, Frauen und Menschen mit Migrationshintergrund auf Facebook und Twitter zu melden. So erweist sich dieses auf Facebook zu­geschnittene Gesetz als doppelt kontraproduktiv: Zum einen nutzen Rechte den Mechanismus gegen Linke. Zum anderen können sie sich öffentlichkeitswirksam über »Zensur« beklagen, wann immer mal ein Tweet einer ­AfD-Politikerin gelöscht wird.

Das Zensurgeschrei fällt auf fruchtbaren Boden. Denn das Gefühl, dass ­Politik und Medien nicht die ganze Wahrheit verbreiten, sondern bestimmte Inhalte unterdrücken, hat viel tiefere Wurzeln, als Filterblasen oder Werbe­algorithmen erklären können. Die Tatsache, dass Plattformen wie Wikileaks existieren und die geheimen Informationen, die sie veröffentlichen, wahrscheinlich überwiegend wahr sind, sehen viele als Grund, den Massen­medien und »der Politik« nicht mehr zu glauben. Maßnahmen wie das ­Netzwerkdurchsetzungsgesetz werden diese Haltung nur erhärten. Wer nicht mehr weiß, was man glauben kann, glaubt denjenigen, die verbreiten, was dem eigenen Weltbild entspricht, und beschimpft alle anderen als »Lügenpresse«. Gerade das verbreiten von Angst machenden Botschaften erleichtert oft den Umgang mit eigenen Ängsten. Sich öffentlich gemeinsam mit anderen ausmalen, wie es wäre, mit Fackeln und Heugabeln vor den Reichstag zu ziehen, um es »denen da oben« zu ­zeigen, verschafft mentale Erleichterung. Die Waffensammlungen vieler »Reichsbürger« lassen befürchten, dass es nicht bei der Phantasie bleibt.