Facebook und unsere Gefühle

Facebook spielt mit Gefühlen

In einem Psychologiexperiment haben Forscher bei Facebook die Emotionen Hunderttausender Nutzer manipuliert. Dieses Experiment ist in mehrerlei Hinsicht fragwürdig, vor allem aber ein Verstoß gegen ethische Grundsätze in der Wissenschaft.
Von

689 003 amerikanische Facebook-Nutzer wurden zu Versuchskaninchen, als der Wissenschaftler und Facebook-Mitarbeiter Adam Kramer gemeinsam mit Forschern der New Yorker Cornell University ihren Newsfeed für eine Woche manipulierte. Eine Teilgruppe bekam weniger negative Meldungen zu sehen und eine zweite Teilgruppe weniger positive. Anschließend analysierten die Forscher linguistisch die Nachrichten, die die Versuchsnutzer hinterließen. Das Ergebnis: Die Gruppe, die eine Woche lang eher negativen Inhalten ausgesetzt war, hatte messbar schlechtere Laune als die andere. Insgesamt war der Effekt allerdings sehr gering. Interessant war das allenfalls, weil Vergleichbares bisher nur im direkten zwischenmenschlichen Umgang erwiesen war, nicht jedoch für soziale Interaktionen im Internet. Dabei dürfte das Ergebnis nicht einmal diejenigen überraschen, die glauben, Kommunikation und Beziehungen seien weniger real, bloß weil sie im Netz stattfinden. Der Erkenntnisgewinn war also eher gering.

Die Veröffentlichung dieses Experimentes rief in Netz und Medien einen Sturm der Entrüstung hervor, während viele Anwender und Experten abwiegelten: Der Algorithmus, der den Facebook-Feed erzeugt, ist zentral für Facebooks Geschäftsmodell. Er soll nämlich sicherstellen, dass die Anwender Inhalte sehen, die sie relevant finden, während weggelassen werden soll, was ihnen egal ist. Facebook muss also wissen, wie die Nutzer auf die Meldungen aus ihrem Freundeskreis reagieren. Dafür verändern sie ständig den Algorithmus, der die angezeigten Meldungen für die Anwender auswählt, und testen ihn an einer kleineren Gruppe, um die Auswirkungen der Änderungen zu messen. Bereits kleine Variationen in der Auswahl oder Platzierung von Inhalten können erstaunliche Effekte haben. Schließlich verdient Facebook Geld mit dem Einblenden von Werbung und mit bezahlten Meldungen, also versucht es ständig, seine Methoden hierfür zu perfektionieren. Und Facebook darf das: Die Nutzer stimmen beim Anlegen eines neuen Account der EULA zu, kurz für End User License Agreement, also einem Endbenutzer-Lizenzvertrag, wonach Facebook die Daten der Anwender zu wissenschaftlichen Zwecken verwenden darf – zumindest theoretisch, denn wer liest schon die ellenlangen Texte, die beim Anlegen eines neuen Facebook-Account angezeigt werden?

Warum also die Aufregung? Zunächst einmal fehlte 2012 – als das Experiment stattfand – noch der Passus in der EULA, der die Nutzung der Daten für wissenschaftliche Zwecke erlaubt. Die Bürgerrechtsgruppe EPIC (Electronic Privacy Information Center) legte aus diesem Grund bereits Beschwerde bei der Aufsichtsbehörde FTC ein. Es kann also sein, dass die Angelegenheit für Facebook noch ein juristisches Nachspiel haben wird. Schwerer jedoch wiegt ein anderer Punkt: Adam Kramer und seine Kollegen haben gegen fundamentale wissenschaftliche Regeln verstoßen. Bei dem Facebook-Experiment handelt es sich im Grunde um einen Menschenversuch, der nur mit Zustimmung der Teilnehmer zulässig ist. Sie müssten wissen, dass sie an einem Experiment teilnehmen, und hinterher über die Ergebnisse informiert werden. Bei psychologischen Experimenten ist es sogar üblich, die Probanden anschließend von Psychologen betreuen zu lassen. Lediglich eines ist erlaubt: Über den Zweck des Experiments zu flunkern, damit die Probanden nicht das Ergebnis verfälschen.
Gegen diese Grundregel haben Kramer und seine Kollegen eklatant verstoßen. Gerade auch Wissenschaftler und Wissenschaftsblogger sind über dieses Vorgehen erbost. Sie sorgen sich, dass wissenschaftliches Arbeiten in Misskredit gebracht werden könnte. Eigentlich sollte so etwas im Umfeld von Universitäten gar nicht passieren: Experimente sind der Kontrolle durch verschiedene Gremien unterworfen, die sicherstellen sollen, dass bestimmte Standards eingehalten werden. Dass die Veröffentlichung den Review-Prozess überstehen konnte, lag nach Aussagen der Cornell University daran, dass sie erst bei der Analyse der Daten ins Spiel kam, während das Experiment von Facebook in Eigenregie durchgeführt wurde. Für Facebook wiederum wäre es ein leichtes gewesen, zu Beginn eine Art Opt-in anzubieten: eine kurze Meldung wie »Sie nehmen an einer wissenschaftlichen Studie teil« mit der Möglichkeit, dies abzulehnen. Dass es auch anders geht, zeigt zum Beispiel der Erbgutanalysedienst 23andme. Dort können Nutzer ihre genetischen Daten zur wissenschaftlichen Analyse freigeben und in einen großen Datenpool einfließen lassen – werden aber auch explizit danach gefragt.

Aber die Studie enthält noch weitere Mängel: Wissenschaftlich ist ein Experiment dann, wenn es im Prinzip jederzeit wiederholt werden kann, um die Ergebnisse zu überprüfen. Das ist in diesem Fall nicht möglich, da die Daten nicht aus öffentlichen Quellen stammen, sondern nur Facebook zugänglich sind. Die Daten, die Facebook hinter verschlossener Tür gesammelt hat, könnten theoretisch verfälscht sein und sind streng wissenschaftlich gesehen nichts wert. Dabei weckt Facebooks riesiger Datenpool Begehrlichkeiten gerade auch unter Sozialwissenschaftlern. Schließlich gibt es nirgendwo sonst eine so große Menge sozialer Daten einschließlich Statusmeldungen über zwischenmenschliche Beziehungen und persönlicher Nachrichten, die auch noch auf eine gut analysierbare Weise abgespeichert sind. Eigentlich bräuchte es offene Datensammlungen ähnlicher Art, auf die interessierte Wissenschaftler für ihre Analysen frei zugreifen könnten. Solange Facebook, Google & Co. ihre Daten als Betriebsgeheimnis in geschlossenen Datenbanken sammeln, bleibt das leider ein Traum.
Aber auch in anderer Hinsicht ist das Experiment bemerkenswert. Es zeigt einmal mehr, dass Facebook in seinen Anwendern keine Kunden sieht, sondern lediglich eine Art Datenrohstoff, den es auszuwerten gilt. Was geschieht, wenn ­einer vielleicht sowieso depressiven oder gar suizidgefährdeten Person vorzugsweise schlechte Nachrichten eingeblendet werden? Falls sich einer der Forscher darüber Gedanken gemacht haben sollte, war es ihm offenbar egal. Bisher gibt es von Facebook keine offizielle Stellungnahme – abge­sehen von einer Meldung, die Adam Kramer verfasst hat. Darin entschuldigt er sich: Seine Inten­tion sei gewesen, Facebook besser zu machen, und nicht, irgendjemanden zu verärgern. Anscheinend versteht Facebook einfach nicht, warum sich viele Menschen über das Experiment aufregen: Ihnen gruselt es schlicht und ergreifend bei der Vorstellung, dass jemand ausprobiert, ob man sie über Facebook-Inhalte emotional manipulieren könnte. Dabei wird auch Facebook irgendwann einsehen müssen, dass es nicht beliebig mit seinen Nutzern umgehen kann. Derzeit mag es sein, dass kaum jemand Facebook verlassen möchte, weil »alle anderen auch da sind«. Langfristig ist aber nicht ausgeschlossen, dass ein Exodus eintritt, wenn Facebook den Bogen überspannt. Die Datenschutzprobleme scheinen die meisten nicht zu vergraulen. Aber vielleicht die Möglichkeit, dass Facebook seinen Nutzern gehörig den Tag versauen könnte?