Katharina Anna Zweig von »Algorithm Watch«

»Die Ergebnisse auf Google waren stabil«

Algorithmen sind logisch-mathematische Problemlösungen, die für die Steuerung des Informationsflusses im Internet von zentraler Bedeutung sind. Die Organisation »Algorithm Watch« untersucht die Auswirkung algorithmischer Prozesse auf das menschliche Verhalten. Kürzlich hat sie die Kampagne »Datenspende BTW 17« begonnen, mit der untersucht werden soll, welche unterschiedlichen Ergebnisse Google bei der Suche mit Stichworten zur anstehenden Bundestagswahl liefert. Katharina Anna Zweig von »Algorithm Watch« hat mit der Jungle World gesprochen.
Small Talk Von

Sie haben vor Beginn der »Datenspende BTW 17« mit Ihren Kolleginnen und Kollegen einen Google-Selbstversuch im Büro gemacht?
Ja, wir haben in den vergangenen Wochen immer wieder Suchan­fragen gemacht, um zu sehen, wie stark sich die Resultate in der Zeit ändern. Die Ergebnisse auf Google selbst waren sehr stabil, und die Google-News-Ergebnisse wie zu erwarten: Beiträge von den großen Nachrichtenmagazinen.

Was ist bislang über die Art und Weise bekannt, wie Google mit Algorithmen arbeitet?
Google selbst ist relativ transparent und gibt eine Reihe von Dos and Don’ts heraus, wie eine Website möglichst weit oben zu platzieren ist – wovon die Berufsgruppe der »Suchmaschinenoptimierer« profitiert. Weniger bekannt ist, wie stark die Personalisierung ist, also wie stark unsere persönliche Suchhistorie auf die ­Suchergebnisse einwirkt.

Wie verläuft die Untersuchung »Datenspende BTW 17« konkret in technischer Hinsicht?
Wir haben ein Plugin entwickelt, das in den Browser integriert wird und dort – ohne weitere Aktion der Nutzerin oder des Nutzers – alle vier Stunden eine Reihe von vorher festgelegten Suchanfragen abgibt. Dies sind Namen der Spitzenpolitikerinnen und Spitzenpolitiker und Parteinamen. Die organischen Suchergebnisse werden extrahiert und kommen in eine Datenbank.

Welche Rückschlüsse erhoffen Sie sich von dieser Methode?
Wir wollen vor allen Dingen wissen, wie stark die Personalisierung ist und ob es Gruppen von Personen in Deutschland gibt, die beispielsweise bei einer Suchanfrage zu »Angela Merkel« völlig konträre Gruppen von Nachrichtenartikeln zu sehen bekommen.

In den ersten fünf Tagen der Untersuchung gingen bereits 170 000 Suchergebnisse bei Ihnen ein. Wie lässt sich eine solche Datenmenge auswerten, die bis zur Bundestagswahl erhebliche Ausmaße annehmen dürfte?
Um das für den Menschen verstehbar machen, wird vor allen Dingen eine Aufbereitung der täglich ankommenden Suchergebnisse von Interesse sein. Ansonsten sind wir aber auch an einem von der Deutschen Forschungsgemeinschaft unterstützten Forschungsprogramm beteiligt, das Algorithmen für Big Data entwickelt.

Dass Google unterschiedliche Suchergebnisse liefert, ist täglichen Anwendern bekannt. Gibt es denn gesicherte Erkenntnisse darüber, ob sich diese Suchergebnisse auf das Verhalten der Nutzer auswirken, etwa auf das Kauf- oder das Wahlverhalten?
Die Suchergebnisse geben uns Zugang zu Produkten und Meinungen, die wiederum unser Verhalten verändern könnten. Natürlich kann eine Suchmaschine hier ein Produkt bevorzugen oder auch eine Meinung bevorzugen. Aber beim Einfluss auf die Meinungsbildung in Hinsicht auf die Bundestagswahl bin ich in der jetzigen Situation skeptisch, dazu sind wir in Deutschland zu vielen anderen Einflüssen ausgesetzt: allen voran dem Radio, den sozialen Netzwerken und natürlich auch Freunden und Familie. Wir haben aber im US-Wahlkampf gesehen, dass Dritte insbesondere die Algorithmen von sozialen Netzwerken ausgenutzt haben, um mit falschen Nachrichten ein grundsätzliches Misstrauen zu schüren. Das halte ich für die größte Gefahr.

https://algorithmwatch.org/de/