• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Sonntag, 25.09.2016
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Macht Facebook uns ignorant?

Forscher untersuchen den Einfluss der sozialen Algorithmen auf die Meinungsvielfalt im Netz

Von sozialen Algorithmen manipuliert? Schon länger wird befürchtet, dass Facebook und Co eine "Filter-Blase" um ihre Nutzer erzeugen - sie zeigen ihm nur das, was er sehen will. Ob das stimmt, haben nun US-Forscher untersucht. Ihr Ergebnis: Die Algorithmen haben – zumindest noch – einen eher geringen Einfluss auf die Meinungsvielfalt der Posts. Viel entscheidender ist dagegen der Freundeskreis, wie die Forscher im Fachmagazin "Science" berichten. Grund zur völligen Entwarnung ist dies aber nach Ansicht anderer Wissenschaftler nicht.
Schirmen uns soziale Netzwerke von unliebsamen Ansichten ab?

Schirmen uns soziale Netzwerke von unliebsamen Ansichten ab?

Wenn wir soziale Medien wie Facebook oder Twitter nutzen, sehen wir einen auf uns zugeschnittenen Ausschnitt der Welt. Ausgeklügelte soziale Algorithmen zeigen uns die Posts und Nachrichten zuerst, die unseren Vorlieben entsprechen und auch Google listet Suchergebnisse basierend auf unserem vergangenen Suchverhalten. "Der Kontakt mit Nachrichten oder anderer Information wird immer stärker durch soziale Netzwerke und Personalisierung bestimmt", erklären auch Eytan Bakshy vom Facebook-Forschungszentrum in Menlo Park und seine Kollegen.

Leben in der Filter-Blase?


Das aber birgt die Gefahr, dass wir uns immer weniger mit rivalisierenden und damit unbequemen Meinungen auseinandersetzen – wie leben in einer "Filter-Blase", wie Forscher es nennen. Theoretisch könnte dies sogar dazu führen, dass sich Ansichten und Positionen verhärten – weil man sich nur mit Gleichgesinnten und bestätigenden Meldungen umgibt, besteht keine Chance, die eigene Meinung zu korrigieren oder zu verändern.

Ob dies bei Facebook tatsächlich der Fall ist, haben Bakshy und seine Kollegen von der University of Michigan in Ann Arbor nun untersucht. Sie nahmen dafür ein halbes Jahr lang die anonymisierten Facebook-Accounts von mehr als zehn Millionen US-Nutzern unter die Lupe. Neben der im Profil angegebenen politischen Haltung – konservativ oder liberal - untersuchten die Forscher vor allem, welche Einträge der Freundeskreis postete und wie deren Posts dann von Algorithmus beim Nutzer gelistet wurden. Sie analysierten auch, welche Nachrichten die Nutzer bevorzugt anklickten.


Freundeskreis sorgt für Reibung


Das Ergebnis: Tatsächlich sorgen die Algorithmen von Facebook in gewissem Maße dafür, dass wir vermehrt solche Nachrichten sehen, die unserer politischen Einstellung entsprechen. Dieser Einfluss erwies sich aber als überraschend gering: Der Algorithmus machte es nur um rund ein Prozent unwahrscheinlicher, dass die Nutzer Nachrichten mit gegenteiligen politischen Ansichten zu sehen bekamen. Die Entscheidung des Nutzers, welche Posts er dann tatsächlich anklickte, senkte den Kontakt mit unliebsamen Meldungen um rund vier Prozent.

Weitaus stärker war dagegen der Einfluss des Freundeskreises. Wie sich zeigte, ist dieser keineswegs so homogen wie angenommen: Immerhin rund 20 Prozent der Facebook-Freunde stammten bei den Nutzern aus dem gegensätzlichen politischen Lager. "In Kontrast zur Sorge, dass Menschen in solchen Netzwerken nur noch mit Gleichgesinnten kommunizieren, haben wir beträchtliches Kreuzfeuer in diesen Kreisen gefunden", berichten die Forscher. Zwischen 24 und 35 Prozent der harten, nachrichtlichen Inhalte, die in Freundeskreisen geteilt wurden, vertraten eine politische Einstellung konträr zu der des Nutzers.

"Kontinuierliche Wachsamkeit ist nötig"


"Das zeigt, dass die Zusammensetzung unserer sozialen Netzwerke der wichtigste Faktor für den inhaltlichen Mix ist, dem wir in diesen Netzwerken begegnen", konstatieren Bakshy und seine Kollegen. "Statt nur ideologisch angepasste Seiten zu besuchen oder harte News ganz zu meiden, setzt das soziale Medium die Individuen zumindest einigen gegenteiligen Ansichten aus." Dennoch räumen auch sie ein, dass der Filtereffekt existiert – wenn auch nur in einem sehr geringen Maße.

Doch ein Grund zum entspannten Zurücklehnen ist dies keineswegs, wie auch David Lazer von der Harvard University in einem begleitenden Kommentar meint: "Ein kleiner Effekt heute kann morgen zu einem großen Effekt werden, wenn sich die Algorithmen und das menschliche Verhalten ändern", warnt er. "Dies ist daher eine wichtige Erkenntnis – und eine, die eine kontinuierliche Wachsamkeit erfordert." (Science, 2015; doi: 10.1126/science.aaa1160)
(Science, 08.05.2015 - NPO)
 
Printer IconShare Icon