Sonntag, 26. Oktober 2014

Die Zukunft der Arbeit - Macht das Netz arbeitslos?

David Precht dikustiert mit Sascha Lobo über eine "neue Form" der Arbeit. Von der gehackten Heizung bis zur Datenerhebung gesundheitlicher Informationen. Die Überwachung auf der einen Seite, die Nutzung der Informationen durch Fachkräfte auf der anderen. Lobo fordert eine Bildungsoffensive zum Umgang mit den Informationen, die sich online finden, und die Einführung eines Unterrichtsfaches zum Umgang mit dem Internet. Lobo spricht sich gegen die Dämonisierung der Flexibilität aus, meint jedoch, dass es schließlich auf die Nutzung und Regulierung ankommt.

Links zur verpassten Sendung und ihren Inhalten.

Freitag, 24. Oktober 2014

Das Facebook Experiment - eine unmoralische oder dringend notwendige Studie?

„Facebook ist und bleibt kostenlos.“ So heißt es auf der Website des mit etwa 1,3 Milliarden Benutzern größten Sozialen Netzwerks der Welt. Dieser Fakt hat sich auch seit der Gründung im Jahr 2004 nicht geändert, denn Facebook ist nicht auf das Geld seiner Nutzer angewiesen, sondern auf deren Daten. Hiermit kann Facebook nämlich Werbung einblenden, die sich mit den Interessen des jeweiligen Nutzers deckt, sprich: je mehr Facebook über jemanden weiß, desto genauer können entsprechende Werbeflächen gefüllt werden. Da man mit diesem Modell sehr gezielt werben kann, spricht dies natürlich viele Firmen an, und so erzielt Facebook hohe Einnahmen durch diese Einblendungen. Jedoch bleibt Facebook auch nicht von Kritik verschont, denn was genau mit den Daten passiert, die man auf Facebook preisgibt, wird nicht verraten. Somit herrscht eine ständige Datenschutz-Debatte rund um das bekannte Soziale Netzwerk. Diese wurde durch eine Studie, die im Auftrag von Facebook im Jahr 2012 durchgeführt und im Sommer 2014 veröffentlicht wurde, weiter angeheizt. In diesem Experiment wurde der Newsfeed einer geringen Anzahl von Nutzern manipuliert, um herauszufinden, ob sich positive beziehungsweise negative Einträge auf die Gefühle der Nutzer auswirken. Im Zuge der Empörung kam auch ans Licht, dass solche Manipulationen durchaus kein Einzelfall sind.

Diese Studie bildet das zentrale Thema meiner Arbeit. Ich werde den konkreten Ablauf des Experiments darstellen sowie das Ziel, das Facebook damit verfolgte. Des Weiteren wird die angesprochene Kritik behandelt. Hierbei spielen die ethischen, aber auch die methodischen Punkte, welche kein gutes Licht auf Facebook warfen, eine Rolle. Zusätzlich geht es hier auch um das „Filter Bubble“-Phänomen, das daher kurz erläutert wird. Da sich das Experiment zentral um den Newsfeed von Facebook dreht, werde ich mich zu Beginn genauer mit diesem beschäftigen. Hierbei steht im Mittelpunkt, wie dieser entsteht und warum er für Facebook so wichtig ist.

Facebook Newsfeed

Der Newsfeed ist das zentrale Element bei Facebook. Da der Nutzer diesen sofort nach dem Einloggen sieht, ist er praktisch die Startseite des Sozialen Netzwerks. In seinem Newsfeed kann der jeweilige Benutzer die aktuellen Einträge seiner Freunde, Gruppen, Lieblingskünstler, -sportler, -fernsehserie usw. einsehen. Für die letzteren ist es aber notwendig, dass der Nutzer die entsprechende Seite auf Facebook „geliked“ hat. Wie das funktioniert, wird noch ausgeführt. Zusätzlich werden alle Beiträge, bei denen der Nutzer etwas kommentiert oder geliked hat, im Newsfeed angezeigt, damit man diesen weiterfolgen kann und so auf dem aktuellen Stand der Diskussion bleibt.

Registriert man sich bei Facebook, ist der Newsfeed zu Beginn noch leer. Da das soziale Netzwerk aber mehr als nur den Namen, die Email-Adresse, den Geburtstag und das Geschlecht des neuen Nutzers wissen möchte, welche man für die Registrierung zwingend angeben muss, fragt es direkt nach eventuellen Interessen, wie zum Beispiel der Lieblingssportart, -filmen oder -prominenten. Somit kann der Nutzer auf der einen Seite sein Profil erweitern und auf der anderen Seite sammelt Facebook mehr und mehr Daten, um den Interessen entsprechende Werbeeinblendungen anzeigen zu können. Hierzu können aber auch die Freunde beitragen, denn Facebook blendet auch Seiten ein, die diesen gefallen.

Am Beispiel eines Prominenten möchte ich nun darstellen, wie der Newsfeed im Detail funktioniert. Hierfür muss man zuerst auf die jeweilige Facebook-Seite der Person gehen und diese mit „Gefällt mir“ markieren (gelb hervorgehoben).
  
Abbildung 1: Facebook-Seite des Fußballers Mario Götze
Im nächsten Schritt muss man noch angeben, dass man von der jeweiligen Person Benachrichtigungen im eigenen Newsfeed erhalten möchte (blau markiert). Ergänzend hierzu schlägt Facebook gleich weitere ähnliche Seiten vor, die man ebenfalls sofort liken kann. Da es sich im Beispiel um einen Fußballer handelt, werden andere bekannte deutsche Fußballer vorgeschlagen (siehe unterer Rand).

Abbildung 2: Benachrichtigungen einstellen und weitere Vorschläge
Durch die ersten zwei Schritte hat man nun sichergestellt, dass man alle Einträge der jeweiligen Seite auf seinem Newsfeed einsehen kann. Auf diese Weise kann man nun alle Seiten liken, die man möchte, und so füllt sich der eigene Newsfeed immer mehr. Gleiches gilt für die Freundesliste und die Gruppen, denn je mehr Freunde/Gruppen man hat, desto mehr Beiträge erhält man in seinem Newsfeed.   

Abbildung 3: Beispiel eines Beitrags im eigenen Newsfeed
Facebook erlaubt es aber auch, dass man selber Freunde auf eine bestimmte Seite oder einen Beitrag aufmerksam machen kann. Hierzu benötigt man die „Teilen“-Funktion, die man unter jedem Beitrag finden kann. Wählt der Nutzer diese aus, so kann er entscheiden, mit wem dieser Beitrag geteilt wird und ggf. noch eine Nachricht hinzufügen.

Abbildung 4: Teilen eines Beitrages
Die angesprochene individualisierte Werbung lässt sich sowohl direkt im Newsfeed als auch daneben wiederfinden. Sollte dem Nutzer die Werbung gar nicht zusagen oder doch nicht seinen Interessen entsprechen, so kann er dies Facebook direkt mitteilen und im Anschluss verschwindet diese Werbeanzeige sofort.

Abbildung 5: Werbung im Newsfeed
Zusammenfassend ist zu sagen, dass es Facebook seinen Nutzern sehr leicht macht, ihr Profil zu erweitern und Inhalte mit anderen zu teilen. Meist genügt ein Klick, um eine Freundschaftsanfrage zu versenden, einer Gruppe beizutreten oder eine Seite zu liken. Somit kann man sich mit geringem Aufwand die Grundlage für einen ausführlichen Newsfeed schaffen.

Neben diesem Punkt geht es Facebook natürlich um die Daten jedes einzelnen Nutzers. Je leichter es für diesen ist, diese online zu stellen, desto öfter wird er dies auch tun. Davon profitiert dann wiederum Facebook, da sich so die Werbeeinblendungen genau an diese veröffentlichten Informationen anpassen lassen. Folglich ist dieses Konzept sehr interessant für die Werbepartner, die dann wissen, dass ihre Werbung auch bei den Nutzern eingeblendet wird, die sich dafür interessieren. Dementsprechend könnte man zu dem Ergebnis kommen, dass hier jeder einen Vorteil herauszieht. Der Nutzer kann schnell Kontakte knüpfen und Inhalte teilen, Facebook sammelt auf diese Weise viele Daten, und der Werbepartner kann dadurch gezielt für sein Produkt werben. Wie im späteren Verlauf aber noch erläutert, werden es nicht immer alle Beiträge, die der Nutzer sehen möchte, in den Newsfeed schaffen. Warum das so ist und was das mit der Studie von 2012 zu tun hat, wird im Folgenden ausgeführt.

Das Experiment
 
In diesem Teil meiner Arbeit soll es nun gezielt um das bereits erwähnte Experiment gehen, das 2012 im Auftrag von Facebook durchgeführt wurde. So wird es im ersten Abschnitt u.a. um den konkreten Ablauf der Studie gehen: in welchem Zeitraum wurde sie durchgeführt, wie viele haben daran teilgenommen und welche Instrumente wurden dabei verwendet. Ergänzend hierzu werden die Ziele, die Facebook mit der Studie verfolgte, und die entsprechenden Ergebnisse beleuchtet. Im zweiten Abschnitt dreht sich dann alles um die Kritik an diesem Experiment. Hierbei gibt es zwei Hauptkritikpunkte, die zum einen die ethischen beziehungsweise moralischen und zum anderen die methodischen Aspekte betreffen. Im Detail wird es hier um die Frage des nötigen Einverständnisses der Testpersonen und um die Auswahl der richtigen Tools gehen.

Ablauf, Ziele und Ergebnisse 

Die Studie Experimental evidence of massive-scale emotional contagion through social networks wurde im Januar 2012 durchgeführt. Die zentrale Forschungsfrage, die beantwortet werden sollte, lautete: „Was passiert, wenn man das Ausmaß von positiven bzw. negativen Äußerungen in den Timelines und Newsfeeds der User erhöht?“.

Um diese Frage zu beantworten, sah der Ablauf wie folgt aus. Während einer Woche wurden die Newsfeeds beziehungsweise Timelines von 689.003 Facebook-Nutzern analysiert und manipuliert. Etwa die Hälfte der Testpersonen hatte nur Zugriff auf einen vorgefilterten Newsfeed. Diese Gruppe wurde dann nochmals aufgeteilt in solche, die überwiegend positive Beiträge bekamen, und Personen, bei denen vermehrt negative Beiträge angezeigt wurden. Für diese Filterung ist der Algorithmus von Facebook zuständig, der „bestimmt, was in welcher Gewichtung in den Newsfeed und die Timeline eingespeist wird und was nicht“. In diesem Fall wurde der Algorithmus also entweder auf hauptsächlich positive oder negative Beiträge eingestellt. Im Nachlauf wurden dann diese Ergebnisse miteinander und mit den Nutzern, deren Newsfeeds ungefiltert waren, verglichen (vgl. Emotions-Experiment: Facebook manipulierte…, Facebook rechtfertigt Psycho-Experiment & Das Experiment).

Das Tool, das für die Auswertung der Ergebnisse genutzt wurde, heißt „Linguistic Inquiry Word Count“ (kurz: LIWC), verwendet wurde die Version 2007. Da dieses Tool auch Bestandteil eines Hauptkritikpunktes ist, möchte ich seine Funktionsweise anhand eines Beispiels verdeutlichen. Im Prinzip macht das Tool nichts anderes als nach vorher festgelegten positiven oder negativen Schlagwörtern zu suchen. Wird eines davon gefunden, so wird der Beitrag als positiv oder negativ gewertet. Es kann aber auch vorkommen, dass das Tool einen Beitrag sowohl als positiv als auch als negativ wertet und gerade dies wird kritisiert.

Beispiel: „Mein Tag heute war nicht schlecht.“ - Diesen Beitrag würde man eher als positiv bezeichnen. Das LIWC-Tool aber wertet ihn als negativ, da es die beiden Schlagwörter „nicht“ und „schlecht“ einzeln betrachtet.

Beispiel: „Ich bin nicht glücklich!“ - Hier passiert im Prinzip genau das Gleiche. Ein eigentlich negativer Beitrag wird von dem Tool sowohl positiv („glücklich“) als auch negativ („nicht“) gewertet. Ebenso beachtet das Tool keine Ironie, die durchaus in beiden Beispielsätzen hätte beinhaltet sein können (vgl. Everything we know about Facebook’s…, Facebook-Studie: Facebook-Nutzer als Versuchskaninchen & Emotional Contagion on Facebook?).

Das grobe Ziel, das Facebook mit dieser Art von Studien verfolgt, ist es, das soziale Erlebnis für den Nutzer immer weiter zu verbessern. In diesem Fall ging es dabei um emotionale Wirkung von bestimmten Beiträgen. So sagte der Facebook-Mitarbeiter Adam Kramer, der gleichzeitig auch an der Studie mitwirkte: 
„The reason we did this research is because we care about the emotional impact of Facebook and the people that use our product. [...] The goal of all of our research at Facebook is to learn how to provide a better service” (OK so. A lot of people have asked me about my... - Adam D. I. Kramer). 
Ebenso ginge es in diesem Zuge aber auch darum, dass der Inhalt, den der jeweilige Nutzer auf seiner Timeline oder in seinem Newsfeed sieht, so wichtig und bedeutend für ihn ist, dass er lange auf Facebook verweilt, um ihn zu lesen. Dies bestätigte auch ein Facebook Sprecher: 
„We do research to improve our services and to make the content people see on Facebook as relevant and engaging as possible” (Everything we know about Facebook’s...). 
Neben der Kritik an dem Tool, das für die Studie verwendet wurde, gibt es den Kritikpunkt, dass Facebook keine der Testpersonen im Vorfeld informiert hat. Facebook beruft sich hierbei auf seine Datenverwendungsrichtlinien, die jeder Nutzer mit der Registrierung anerkennt. Hierbei kann Facebook die jeweiligen Daten „für interne Prozesse, u.a. Fehlerbehebung, Datenanalyse, Tests, Forschung und Leistungsverbesserung“ (Facebook Datenverwendungsrichtlinien) verwenden. Zusätzlich ist anzumerken, dass nur staatliche Stellen und Universitäten unter die Richtlinien des amerikanischen Institutional Review Boards fallen. Somit ist Facebook zumindest rechtlich nicht verpflichtet, seine Testpersonen im vorhinein zu informieren (vgl. Facebook-Studie: Facebook-Nutzer als Versuchskaninchen & Das Experiment).

Zum Abschluss dieses Abschnittes möchte ich mich den Ergebnissen der Studie widmen, die im Sommer 2014 im „Proceedings of the National Academy of Sciences“ veröffentlicht wurden. Die wohl wichtigste Aussage ist die, dass mit der Studie gezeigt werden konnte, dass sich sowohl positive als auch negative Beiträge auf den Nutzer auswirken, denn je mehr positive Beiträge er liest, desto eher sind seine eigenen Beiträge auch positiv, und genau so verhält es sich auch bei den negativen Beiträgen. Eine ebenso wichtige Erkenntnis ist, dass Nutzer eher Beiträge selber schreiben, wenn sie selbst auch viele auf ihrem Newsfeed haben, d.h. je größer der Newsfeed, desto höher die Wahrscheinlichkeit, dass der Nutzer auch etwas postet. Diese ermittelten Tendenzen sind zwar alle sehr gering, jedoch haben sie auf ein Soziales Netzwerk mit so vielen Mitgliedern doch entsprechende Auswirkungen. Dies veranschaulichte einer der Autoren der Studie: 
„In early 2013, this would have corresponded to hundreds of thousands of emotion expressions in status updates per day“ (Everything we know about Facebook’s...). 
Somit kann Facebook diese Studie - zumindest von den reinen Ergebnissen her - als Erfolg bezeichnen, denn mit diesen Erkenntnissen kann das Ziel der Optimierung des sozialen Erlebnisses vorangetrieben werden (vgl. Everything we know about Facebook’s…, Facebook-Studie: Facebook-Nutzer als Versuchskaninchen & Emotions-Experiment: Facebook manipulierte…).

Kritik 

In diesem Abschnitt soll sich nun alles um die Kritik an der Studie drehen, die zahlreich geäußert wurde. Fasst man diese zusammen, so gibt es zwei Hauptkritikpunkte: die ethischen und die methodischen Aspekte der Studie.

Bei den ethischen Punkten spielen vor allem zwei Fragen eine Rolle: „Hätte Facebook die Testpersonen vorher informieren müssen?“ und „Fällt diese Studie unter die Richtlinien eines Institutional Review Boards?“. Diese Fragen gehen praktisch Hand in Hand, denn wenn die Studie unter die Richtlinien fällt, dann hätte Facebook die Probanden informieren müssen, und sonst eben, zumindest rechtlich, nicht.

Zuvor möchte ich aber die Frage klären, ob Facebook generell solche Forschungen betreiben darf. Und diese Frage ist mit einem klaren „Ja“ zu beantworten. Jedes Unternehmen möchte sein Produkt so weit es geht für den Kunden optimieren, damit dieser es weiter konsumiert. Für diesen Optimierungsprozess wird häufig das so genannte „A/B-Testing“-Verfahren verwendet. Hierbei experimentiert das Unternehmen mit dem Produkt, indem es entsprechende Alternativen anbietet, um zu sehen, welches beim Kunden besser ankommt. Im Falle von Websites wird dies dann anhand der Klicks beziehungsweise Seitenaufrufe gemessen. Im Prinzip hat Facebook also nichts anderes getan als andere Firmen, denn mittels dieser Studie wollte es das soziale Erlebnis der Nutzer verbessern mit dem Hauptziel, dass diese dann länger auf Facebook verweilen (vgl. Das Experiment).

Ein Punkt, der aber auf berechtigte Kritik stößt, ist die fehlende Vorabinformation der Testpersonen. Wie bereits erwähnt, beruft sich Facebook hierbei auf seine Datenverwendungsrichtlinien, die jeder Nutzer mit der Registrierung akzeptiert und die eine Forschung mit den gesammelten Daten erlauben. Einige Kritiker, u.a. auch die Gruppe Epic (Electronic Privacy Information Center), haben jedoch festgestellt, dass der Forschungsaspekt erst in die Richtlinien aufgenommen wurde, nachdem die Studie durchgeführt worden war. Somit haben die Testpersonen einer Verwendung ihrer Daten zu Forschungszwecken nicht zugestimmt, und es würde sich, so Epic, um einen Verstoß gegen die Nutzerrechte handeln.

Diese Anschuldigung könnte Facebook entkräften, indem es sich erneut auf seine Datenverwendungsrichtlinien bezieht. Denn hier ist auch von einer „Nutzung der Daten zur Leistungsverbesserung“ die Rede. Somit könnte Facebook argumentieren, dass die Studie auch dieses Ziel hatte. Außerdem betont Facebook, dass eine Vorabinformation der Testpersonen zu einer Verfälschung der Ergebnisse hätte führen können. Wie man erkennen kann, ist es schwer, gegen die Richtlinien zu argumentieren. Diese Situation veranschaulicht das folgende Schaubild auf eine sarkastische Art und Weise (vgl. Facebook: Heimliche Studie…, Kontroverse Studie: Facebook spielt mit unseren Gefühlen & Das Experiment).
Abbildung 6: Die Macht der AGBs
Die viel wichtigere Frage ist daher also, ob die Studie unter die Richtlinien des Institutional Review Boards fällt, denn wenn dies der Fall ist, sind die AGB von Facebook irrelevant, was demnach auch bedeutet, dass die Testpersonen hätten informiert werden müssen. Da Facebook aber ein profitorientiertes Unternehmen ist, fällt es prinzipiell nicht unter diese Richtlinien, da diese nur für staatliche Stellen oder Universitäten gelten.

Für einige Kritiker ist dies aber der springende Punkt, denn zwei der beteiligten Forscher sind an der Universität in San Francisco beziehungsweise Cornell angestellt. Durch ihre Mitarbeit an dieser Studie müsste sie also deshalb wieder unter die Richtlinien des Boards fallen, das in etwa mit der deutschen Ethikkommission gleichzusetzen ist. Facebook reagierte auf diese Argumentation mit der Mitteilung, dass diese Forscher nicht direkt an dem Sammeln der Daten beteiligt waren. Ihre Aufgabe bestand lediglich darin, die Studie an sich zu entwickeln und die entsprechenden Unterlagen zur Veröffentlichung vorzubereiten. Folgt man dieser Aussage, so ist keine Zustimmung des Boards notwendig. Wie man an den jeweiligen Argumentationen der beiden Seiten erkennen kann, befindet sich diese Studie, bezüglich der Richtlinien, in einer Grauzone. Dennoch erhielt die Facebook-Studie eine Bewilligung. Was der genaue Hintergrund dieser Entscheidung ist, darauf werde ich weiter unten noch eingehen (vgl. Everything you need to know about…).

Der zweite Hauptkritikpunkt bezieht sich auf die methodischen Aspekte der Studie. Hier wird im speziellen das zur Auswertung verwendete Tool LIWC 2007 kritisiert. Vor allem der Psychologe Dr. John M. Grohol gehört zu denjenigen, welche die Meinung vertreten, dass dieses Tool für solch eine Studie ungeeignet ist. Auf seiner Webseite Psychcentral.com veröffentlicht er einen Blog-Eintrag hierzu: 
„For a tweet or status update, however, this is a horrible analysis tool to use. That’s because it wasn’t designed to differentiate - and in fact, can’t differentiate - a negation word in a sentence” (Emotional Contagion on Facebook?). 
Er betont hier, dass dieses Tool, das ursprünglich 1993 entwickelt wurde, nicht zur Analyse von kurzen Texten beziehungsweise Nachrichten wie Tweets oder kurzen Posts auf Facebook geeignet ist. Es dient eher zur Bearbeitung von langen Texten, die mindestens 400 Wörter enthalten. Dies hängt mit der vorher dargestellten Funktionsweise des Tools zusammen, bei dem einzelne Schlagwörter gezählt werden. Bei einem langen Text funktioniert das, da sich so eventuelle Fehlinterpretationen wieder ausgleichen können, bei einem Status-Update, das oft nicht länger als ein Satz ist, ist dies jedoch nicht möglich, und es kann, wie in den dargestellten Beispielen, zu Fehlern kommen.

Zusätzlich fügt Grohol an, dass es trotz einer eigentlich korrekten Interpretation des Tools zu Missverständnissen führen kann, sollte der jeweilige Nutzer Ironie oder Sarkasmus verwendet haben. Das Tool ist nämlich nicht im Stande, solche Stilmittel zu erkennen und in seine Zählung einzubeziehen. Grohol nimmt hier vor allem die Forscher in Verantwortung, da sie sich für die Verwendung dieses Tools entschieden haben, obwohl sie die etwaigen Probleme hätten voraussehen müssen (vgl. Emotional Contagion on Facebook?). 
„Perhaps it’s because the researchers have no idea how bad the problem actually is” (Emotional Contagion on Facebook?). 
Als drittes möchte ich noch einen Standpunkt beleuchten, der in eine ganz andere Richtung geht. So bezieht Duncan J. Watts, ein Reporter der Zeitung „The Guardian“, eine durchaus positive Haltung gegenüber der durchgeführten Facebook-Studie und fordert sogar weitere Forschung in diese Richtung. Hierbei betont er, dass es bei allen großen wissenschaftlichen Sprüngen Ängste und Sorgen gab, die aber mit der Zeit überwunden werden konnten. Genau wie es beispielsweise die Chemie oder Physik erlebt hat, so betrifft es jetzt die Wissenschaft rund um die Sozialen Netzwerke. Ebenso führt er an, dass es immer Stimmen geben wird, die jedweder Veränderung kritisch gegenüber stehen.
Den Kritikern der Studie entgegnet er, dass man im Alltag ständig manipuliert wird, sei es in der Werbung oder in der Politik. Hier wird es akzeptiert, doch sobald Facebook in diesem Bereich forscht, erregt es großes Aufsehen. 
„The only difference between the Facebook study and everyday life is that the researchers were trying to understand the effect of that manipulation“ (Stop complaining about the Facebook study). 
So hebt er hervor, dass weitere Forschungen von Facebook in diesem Bereich elementar sind, ebenso wie deren Veröffentlichung, denn wie viele andere ist auch er der Überzeugung, dass diese Studie nur einen Bruchteil der gesamten Forschung von Facebook darstellt. Manipulationen in Form von Veränderungen am Algorithmus werden häufig durchgeführt, ohne dass die Nutzer oder die Öffentlichkeit etwas davon mitbekommt. Daher vertritt Watts den Standpunkt, dass es Facebook erlaubt sein sollte, mehr dieser Erkenntnisse veröffentlichen zu können, wenn nicht zu müssen, um die Forschung in diesem Bereich weiter vorantreiben zu können.

Ähnlich sah das wohl auch das Institutional Review Board, das die Studie bewilligte. Die Begründung war, dass Facebook ständig solche Manipulationen durchführe und sie es auch ohne eine entsprechende Zusage machen würden, nur eben ohne Veröffentlichung der Ergebnisse (vgl. Stop complaining about the Facebook study).

Zusammenfassend kann man also sagen, dass diese Studie zumindest eins erreicht hat: Sie hat viel Aufmerksamkeit bekommen. Sei es durch die negativen Stimmen, die ein solches Experiment aufgrund von ethischen oder methodischen Punkten kritisiert haben, oder durch die Befürworter, die mehr Forschung in diesem Bereich fordern. Durch die ausführliche Berichterstattung in den Medien konnte so, vielleicht zum ersten Mal, die breite Masse erfahren, wie Facebook versucht, das Netzwerk beziehungsweise den Algorithmus zu optimieren, und dass dies nicht nur für diese Studie passiert, sondern viel öfter als man denkt. Allein diese Erkenntnis ist schon viel wert. Ob man nun eher für oder gegen Studien dieser Art ist, muss jeder für sich selbst abwägen und entscheiden.

Eine generelle Frage ist jedoch, ob Firmen wie Facebook, Google oder Twitter, die ein Geschäftsmodell basierend auf der Sammlung und Nutzung von so vielen Kundendaten wie möglich entwickelt haben, mittlerweile nicht zu viel Macht in unserer digitalisierten Welt besitzen. Bereits durch die enorme Anzahl an Kunden besitzen diese Dienste einen so hohen Anreiz für Werbepartner, dass die vielen Daten, die Facebook und Co. noch zusätzlich dabei sammeln, wie die Kirsche auf der Torte wirken. Firmen, die über Facebook werben, brauchen nichts über die Kunden zu wissen, da dies alles von Facebook erledigt wird.

Die Frage ist nun, was man gegen eine so große Macht tun kann. Dabei ist die Antwort im Prinzip ganz simpel, denn man selbst als Kunde hat hier tatsächlich Möglichkeiten, sich zu wehren, denn die Kunden und deren Daten sind das wichtigste für Facebook. Gehen diese in einer großen Anzahl zurück, so kommt es vielleicht zu einem Umdenken. Denn „nur wenn die großen Anbieter sich ernsthaft durch den Vetrauensverlust der Nutzerinnen und Nutzer bedroht sehen, werden sie bereit sein zu handeln“ (Kontroverse Studie: Facebook spielt mit unseren Gefühlen). Somit liegt hier mehr Macht beim Kunden, als man annehmen könnte. Die Frage ist jedoch, was mit den bereits gesammelten Daten passiert, nachdem man sich von Facebook abgemeldet hat. Dadurch, dass der jeweilige Account und die damit verbundenen Daten nicht ganz gelöscht, sondern nur deaktiviert wird, darf bezweifelt werden, dass Facebook diese Daten dann nicht mehr nutzt (vgl. Kontroverse Studie: Facebook spielt mit unseren Gefühlen).

Was diese Studie betrifft, so gibt Facebook zu, dass die Kommunikation nach außen nicht optimal gelaufen ist. So sagt Adam Kramer, der an der Studie mitgearbeitet hat, in einem Post auf Facebook: 
„I can understand why some people have concerns about it, and my coauthors and I are very sorry for the way the paper described the research and any anxiety it caused” (OK so. A lot of people have asked me about my... - Adam D. I. Kramer). 
Eventuell wäre es doch ratsamer gewesen, die Testpersonen, zumindest nach der Durchführung des Experimentes, darüber zu informieren. Auch wenn dies nicht zwingend nötig gewesen wäre, so hätte es doch mehr moralische Verantwortung gezeigt und hätte vor allem zu weniger Kritik geführt.

Exkurs: Filter Bubble

In diesem abschließenden Abschnitt soll es kurz um das „Filter Bubble“-Phänomen gehen, das von Eli Pariser in seinem Buch „The Filter Bubble: What the internet is hiding from you“ ausgeführt wird und das deswegen hier behandelt wird, da es durchaus auch den Newsfeed von Facebook betrifft.

Wie bereits geschildert, versucht Facebook ständig etwas an seinem Algorithmus zu ändern, um das gesamte System zu verbessern. Dieser stellt nämlich ein, was die Nutzer auf ihrem Newsfeed sehen und was nicht, denn wenn man viele Seiten geliked oder viele Freunde hinzugefügt hat, dann wird man später auf dem Newsfeed nie alle Beiträge sehen können. Facebook begründet dies mit der viel zu hohen Anzahl an Beiträgen, die der Nutzer dann zu lesen hätte. Dies würde zwar die Zeit verlängern, die der Nutzer auf Facebook verbringen würde, aber es könnte auch zum Gegenteiligen kommen, da wohl nicht jeder Nutzer Lust hat, mit einer Flut an Beiträgen konfrontiert zu sein. Um dies zu verhindern, würde er infolgedessen weniger liken oder weniger Freunde haben, und das will Facebook auf keinen Fall, da dann weniger Informationen über einen Nutzer gesammelt werden könnten. Daher werden im Newsfeed nur die Freunde angezeigt, mit denen man öfters Kontakt hat, die Gruppen, in denen man regelmäßig Beiträge nachliest oder schreibt, und die Seiten, die man regelmäßig besucht, um Inhalte abzurufen. Kurz gesagt: Facebook analysiert das Klickverhalten eines Nutzers und zeigt ihm die Seiten, Freunde oder Gruppenbeiträge an, die ihn am meisten zu interessieren versprechen (vgl. Kommentar: Facebook ist ein permanentes Psycho-Experiment).

Hier kommt jetzt das Filter Bubble-Phänomen ins Spiel, denn dieses bezeichnet genau den gerade geschilderten Vorgang, bei dem ein Algorithmus versucht, nur die für einen Nutzer wichtigen Informationen herauszufiltern. Als Grundlage hierfür dienen meistens die über den Nutzer gesammelten Daten und sein bisheriges Klickverhalten. An sich ist das auf den ersten Blick kein Problem, da beispielsweise Facebook so versucht, dem Nutzer nur das zu zeigen, was er wirklich sehen will. Man nimmt dem Nutzer praktisch sogar Arbeit ab, da er nicht selbst filtern muss, was wichtig ist und was nicht.

Die Gefahr ist aber, dass der User mit der Vorfilterung nur Beiträge sehen wird, die seiner Meinung entsprechen und nie diejenigen, die einer konträren Position folgen. Diese werden nämlich vom Algorithmus im Vorfeld ausgeschlossen und damit nicht angezeigt. So befindet sich der jeweilige Nutzer in einer Art „Blase“, in der nur Beiträge angezeigt werden, die erstens ihn interessieren und zweitens auch seinem Standpunkt entsprechen. Dies möchte ich kurz an einem Beispiel verdeutlichen.

Ein Nutzer hat auf Facebook sowohl eine Seite, die gegen Stuttgart 21 ist, als auch eine, die sich für den Bau ausspricht, geliked. Beide Seiten posten regelmäßig Beiträge, in denen sie ihre Meinung kund tun. Der Nutzer besucht regelmäßig die Seite, die dem Bau des Bahnhofs zustimmt. Hier kommentiert und liked er die Beiträge, die ihm gefallen. Im Gegensatz dazu besucht er die andere Seite seltener und ist dort auch nicht so engagiert. Mit der Zeit werden die Beiträge dieser Seite also aus seinem Newsfeed verschwinden, da der Algorithmus diese aufgrund des Klickverhaltens als uninteressant einstuft. Die Seite, bei der der Nutzer aktiv war, wird weiterhin angezeigt, da sie für den Nutzer wichtig und interessant ist. Somit bekommt der Nutzer in Zukunft nur noch Beiträge zu Stuttgart 21, die sich für den Bau aussprechen und natürlich dementsprechend geschrieben sind. Die Gegendarstellung dazu bekommt er nicht mehr zu sehen und so kann man hier nicht mehr von einer objektiven Meinungsbildung sprechen. Der Nutzer befindet sich nun bereits in seiner eigenen „Filter Bubble“.

Wegen der hohen Anzahl an Freunden und Seiten, die man geliked hat, wird dieses Phänomen früher oder später bei fast jedem Nutzer eintreten. Daher ist abschließend festzuhalten, dass man Facebook nicht als einzige Anlaufstation nehmen sollte, um sich zu informieren, sondern hier immer mehrere Quellen in der Hinterhand haben sollte (vgl. Filterblase - Wikipedia). Für ausführlichere Informationen zum Thema „Filter Bubble“ empfiehlt sich der „TED Talk“ von Eli Pariser:


Fazit

Abschließend lässt sich das Fazit ziehen, dass die Facebook-Studie im Prinzip sowohl für das Soziale Netzwerk als auch für die breite Öffentlichkeit von Vorteil war. Facebook gewann damit neue Erkenntnisse, mit denen der Dienst in Zukunft weiter optimiert werden kann, und die breite Masse erhielt durch die detaillierte Berichterstattung einen guten Einblick in die alltägliche Arbeit des Sozialen Netzwerks samt seinem Algorithmus.

Während die Befürworter einer solchen Studie nun weitere Forschung in diesem Bereich verlangen, werden die Kritiker diese wohl weiter ablehnen. Das wichtigste in meinen Augen ist jedoch, dass solche Studien immer veröffentlicht werden sollten. So profitiert nämlich der gesamte Wissenschaftsbereich und nicht nur das jeweilige Unternehmen. Ebenso sollte es meiner Meinung nach klare Richtlinien für solche Studien geben, denn wie an der dargestellten Studie zu erkennen war, befand man sich hier in einer Grauzone. Hier müssen klare Regeln für geordnete Verhältnisse sorgen, damit beispielsweise Testpersonen zumindest nach der Durchführung der Studie auf jeden Fall informiert werden.

Blickt man nun nochmals auf die Aussage vom Anfang: „Facebook ist und bleibt kostenlos“, so kann man festhalten, dass man in solchen Sozialen Netzwerken zwar kein Geld bezahlen muss, dafür aber nicht nur Kunde, sondern auch Produkt ist, an dem auch Experimente und Studien durchgeführt werden. Ob einem dies gefällt oder nicht, muss im Endeffekt jeder für sich selbst entscheiden, denn die Entscheidung, ob man solche Dienste nutzt, die ist und bleibt jedem selbst überlassen. 

Quellenverzeichnis 

Das Experiment | netzpolitik.org:

Datenverwendungsrichtlinien:

Eli Pariser: Beware online "filter bubbles" | Talk Video | TED.com:

Emotional Contagion on Facebook? More Like Bad Research Methods | World of Psychology:

Emotions-Experiment: Facebook manipulierte für Studie Nachrichtenstrom | ZEIT ONLINE:
http://www.zeit.de/digital/internet/2014-06/facebook-nutzer-manipulation-studie [Eingesehen am 20.09.2014]

Everything We Know About Facebook's Secret Mood Manipulation Experiment - The Atlantic:

Everything You Need to Know About Facebook's Controversial Emotion Experiment | WIRED:
http://www.wired.com/2014/06/everything-you-need-to-know-about-facebooks-manipulative-experiment [Eingesehen am 20.09.2014]

Facebook: Heimliche Studie wird Fall für Aufsichtsbehörden | ZEIT ONLINE:

Facebook rechtfertigt Psycho-Experiment auf Neuigkeitenseiten - SPIEGEL ONLINE:
http://www.spiegel.de/netzwelt/web/facebook-rechtfertigt-psycho-experiment-auf-neuigkeitenseiten-a-978253.html [Eingesehen am 20.09.2014]

Facebook-Studie: Facebook-Nutzer als Versuchskaninchen | ZEIT ONLINE:
http://www.zeit.de/digital/internet/2014-06/facebook-studie-nutzerdaten-datenschutz [Eingesehen am 20.09.2014]

Filterblase - Wikipedia:
http://de.wikipedia.org/wiki/Filterblase [Eingesehen am 20.09.2014]

Kommentar: Facebook ist ein permanentes Psycho-Experiment - SPIEGEL ONLINE:

Kontroverse Studie: Facebook spielt mit unseren Gefühlen | netzpolitik.org:

OK so. A lot of people have asked me about my... - Adam D. I. Kramer:

Stop complaining about the Facebook study. It's a golden age for research | Duncan J Watts | Comment is free | theguardian.com:


Quellen für die Abbildungen:

Abbildung 1: „Facebook - Seite von dem Fußballer Mario Götze“:

Abbildung 2: „Benachrichtigungen einstellen und weitere Vorschläge“:

Abbildung 3: „Beispiel eines Beitrags im eigenen Newsfeed“:
https://www.facebook.com/ (eigener Newsfeed) [Eingesehen am 20.09.2014]

Abbildung 4: „Teilen eines Beitrages“:
https://www.facebook.com/ (eigener Newsfeed) [Eingesehen am 20.09.2014]

Abbildung 5: „Werbung im Newsfeed“:
https://www.facebook.com/ (eigener Newsfeed) [Eingesehen am 20.09.2014]

Abbildung 6: „Die Macht der AGBs“: