Sozialer Algorithmus - behindert das Filtersystem von Facebook die Meinungsvielfalt?

Das Filtersystem von Facebook wurde auf seinen Einfluss auf die Meinungsvielfalt hin untersucht

Von Dörte Rösler
11. Mai 2015

Um Facebook kommt niemand mehr herum. Viele Nutzer sind permanent online, um keine Informationen zu verpassen. Was ihnen präsentiert wird, entscheiden sie aber nicht selbst: Welche Beiträge den Nutzer erreichen, bestimmt ein Algorithmus.

Und dieser orientiert sich an dem, was den Nutzer schon früher interessiert hat. Wirklich Neues oder Kritisches erfährt man bei Facebook also nicht - oder doch? Amerikanische Forscher haben des Filtersystem des sozialen Netzwerks untersucht.

Personalisiertes Internet

Ob

  • Google,
  • Facebook oder
  • Yahoo

- nahezu alle Unternehmen sammeln Daten von ihren Usern. Anhand dieser Informationen treffen sie dann Vorentscheidungen, welche Werbung oder Beiträge der Nutzer auf seinem Bildschirm zu sehen bekommt.

Ohne solche Filtersysteme würde das Internet gar nicht funktionieren. Sie heben diejenigen Informationen hervor, die der Nutzer wahrscheinlich als hilfreich und positiv bewerten wird. Andere Beiträge blenden sie dagegen aus.

Wie funktioniert der Facebook-Filter?

Je strenger ein Algorithmus die bekannten Interessen und Einstellungen von Nutzern bedient, desto weniger Zugang bekommen sie zu abweichenden Sichtweisen. Statt vielfältige Ansichten zu fördern, kann ein Filtersystem dazu beitragen, dass sich

  • der Blickwinkel einengt und
  • Überzeugungen verhärten.

Um zu prüfen, ob diese Gefahr auch bei Facebook besteht, haben die Wissenschaftler den Algorithmus des sozialen Netzwerks genau untersucht. Dazu analysierten sie die Profildaten und Aktivitäten von 10 Millionen Nutzern weltweit. Die Zielfrage lautete: Welche Informationen kommen beim Nutzer an?

Nutzer zensieren selbst

Laut den Berechnungen der Forscher filtert Facebook rund 15 Prozent der Beiträge aus, die nicht den Einstellungen der User entsprechen. Die Mehrzahl an Beiträgen bekommen die Nutzer also zu sehen, obwohl sie nicht zu den eigenen Überzeugungen und Interessen passen. Entscheidend ist die Kontakthäufigkeit mit den jeweiligen Freunden.

Für eine einseitige Weltsicht kann der Facebook-Algorithmus demnach nicht verantwortlich gemacht werden. Tatsächlich filtern die Nutzer herausfordernde Informationen selbst aus. In 70 Prozent der Fälle ignorierten sie Beiträge einfach, wenn diese nicht die eigenen Überzeugungen bestätigten.