Facebook als „Straße durch das Internet“

Politisches Informieren zwischen Automatisierung und Nutzungsreflexion

  • Mareike Wieland Technische Universität Dresden
  • Anne-Marie In der Au Technische Universität Dresden

DOI:

https://doi.org/10.15460/kommges.2017.18.2.580

Schlagworte:

Internet, Information, Selektion, Personalisierung, Algorithmus, Facebook, soziales Netzwerk, Meinungsbildung, Beeinflussbarkeit, Benutzer, Medienkompetenz

Redaktion und Begutachtung

  • Jan-Hinrik Schmidt Leibniz-Institut für Medienforschung, Hamburg (HBI)
  • Christian Stegbauer Universität Frankfurt/Main

Abstract

Die fortschreitende Entwicklung digitaler Informations- und Kommunikationstechnologien führte in jüngerer Zeit zu einer strukturellen Veränderung der Bereitstellung von Informationen: Die massenmediale Logik wird durch eine Logik der Algorithmen abgelöst, die im Wesentlichen auf Präferenzen und Gewohnheiten der Nutzenden basiert. Damit einher geht die Befürchtung, dass Filterblasen aufgrund technologisch verstärkter selektiver Informationszuwendung entstehen. Diese Annahme ist empirisch bislang nicht bestätigt. Gleichwohl gibt es Hinweise, dass die Zusammenstellung von Inhalten allein auf Basis von Personalisierungsalgorithmen zu einer homogenen und einstellungskonsistenten Auswahl führt. Wenn andererseits Nutzenden die Möglichkeit gegeben, die Empfehlungsmechanismen explizit anzupassen, führt dies zu signifikant häufigerer Selektion von Artikeln mit gegenläufiger Einstellung. Berücksichtigt man, dass die jungen Generationen ihre Nachrichtennutzung und politischen Diskussionen zunehmend in soziale Netzwerke verlagern, wird die Relevanz für eine Analyse algorithmischer Personalisierung aus Perspektive der Nutzenden deutlich.

1 Problemaufriss

Die fortschreitende Entwicklung digitaler Informations- und Kommunikationstechnologien führte in jüngerer Zeit zu einer strukturellen Veränderung der Bereitstellung von Informationen: Die massenmediale Logik (Selektion durch Journalisten anhand von Nachrichtenfaktoren) wird durch eine Logik der Algorithmen abgelöst oder ergänzt, die im Wesentlichen auf Präferenzen und Gewohnheiten der Nutzenden basiert (Napoli 2014). Algorithmen steuern damit in zunehmendem Maß auch die Verfügbarkeit von und die Zuwendung zu politischen Informationen (Bozdag 2013: 214; Helberger et al. 2015: 50; Schulz/Dankert 2016: 15 - 17). Sie sind in verschiedene Informationsintermediäre eingebettet: Suchmaschinen (Google), Plattformen für nutzergenerierte Inhalte (YouTube, Instagram), App-Plattformen, Micro-Blog-Plattformen (Twitter) oder soziale Netzwerkdienste (Facebook) übernehmen im Informationsprozess vor allem die Funktion, Inhalte aus verschiedenen Quellen zusammenzutragen und neu zu bündeln (Schulz & Dankert 2016, S. 21).

Für den Nutzenden stellt die algorithmische Informationsselektion einen Teil der Leistung des genutzten Informationsintermediäres dar. Er kann diese gezielt und bewusst, aber auch unreflektiert in Anspruch nehmen. Dank technischer Fortschritte wird eine für jeden Nutzenden individuell zusammengestellte Informationsauswahl vermehrt möglich (Bozdag 2013: 214; Beam/Kosicki 2014: 61). Die „algorithmische Personalisierung“ führt zu einem Verschmelzen von Informationssuche und Nutzungspräferenzen (Bozdag 2013: 214). Damit einher geht die Befürchtung, dass Filterblasen als einseitige, homogene Informationsräume aufgrund technologisch verstärkter selektiver Informationszuwendung entstehen (Pariser 2011). Diese Annahme ist empirisch bislang nicht bestätigt (zusammenfassend: Zuiderveen Borgesius et al. 2016: 10). Gleichwohl zeigt Beam (2013: 16), dass die Zusammenstellung von Inhalten allein auf Basis von Personalisierungsalgorithmen zu einer homogenen und einstellungskonsistenten Auswahl führt. Wird Nutzenden hingegen die Möglichkeit gegeben, die Empfehlungsmechanismen explizit anzupassen, führt dies zu signifikant häufigerer Selektion von Artikeln mit gegenläufiger Einstellung (Beam 2013: 17f). Bakshy et al. (2015: 2) zeigen wiederum, dass vor allem die Zusammenstellung des eigenen Netzwerkes die Diversität der Meinungen beschränkt. Berücksichtigt man, dass die jungen Generationen ihre Nachrichtennutzung und politischen Diskussionen zunehmend in soziale Netzwerke verlagern (Hölig/Hasebrink 2016; PEW 2015), die in der Regel auf beschriebene algorithmische Selektionsmechanismen zurückgreifen und auf selbst selektierten Kontakten basieren, wird die Relevanz für eine Analyse algorithmischer Personalisierung aus Perspektive der Nutzenden deutlich.

2 Algorithmische Personalisierung aus Sicht der Nutzenden: Bewusstsein für Algorithmen und mögliche Konsequenzen

Begreift man algorithmische Personalisierung im Sinne Mahnkes (2015: 36) als dynamischen Kommunikationsprozess zwischen Algorithmus und Nutzenden, versetzt man die Nutzenden in die Lage, die auf Algorithmen basierte Vorauswahl möglicher Inhalte sowohl durch Angabe von Präferenzen (explizite Personalisierung) als auch indirekt durch sein Verhalten (implizite Personalisierung) mitzubestimmen. Bei Facebook haben Nutzende aktuell die Möglichkeit, u.a. durch Profilangaben, das Abonnieren von Personen oder Seiten, das Priorisieren von Inhalten und durch den Aufbau von Netzwerken die Informationszusammenstellung zu beeinflussen. Durch ihre Interaktionen geben sie zudem implizites Feedback an das System. Ein Bewusstsein für die algorithmische Kuratierung des Newsfeeds ist damit hinreichende Bedingung für eine reflektierte Nutzungsweise. „Algorithm Awareness“ bezeichnet das Bewusstsein für die Art und Weise, wie die Informationen im Newsfeed zusammengestellt werden (Hamilton et al. 2014; Eslami et al. 2015). „Bewusstsein“ (also „Awareness“) impliziert hingegen nicht, dass die Wahrnehmung der algorithmischen Kuratierung zwangsweise in vollständig reflektiertem, akkuratem Wissen über „den” Algorithmus mündet. Entsprechend könnten nicht nur vom Nutzenden explizit geäußerte Vorstellungen die Reflexion der algorithmischen Kuratierung offenbaren. Vielmehr ist denkbar, dass zwar keine konkreten Vermutungen über „den“ Algorithmus formuliert werden können, das tatsächliche Verhalten aber dennoch durch Reflexion und eine Motivation zu ausgewogenem Informationsverhalten geprägt ist.

Durch den Einbezug des Verhaltens und der Perspektive der Nutzenden kann auch der Gefahr begegnet werden, normativ begründete, aber für die durchschnittliche Person in alltäglichen Nutzungssituationen überhöhte Anforderungen zu formulieren. Auch vielfach thematisierte Entwicklungen wie Filterblasen können auf diesem Weg adressiert werden, schließlich manifestiert sich „Algorithm Awareness“ als Ausdruck eines kompetenten Umgangs entweder in Form expliziten Wissens oder aber in vorbeugenden Nutzungsweisen wie etwa dem Bestreben, Vielfalt im eigenen Newsfeed zu sichern. Im Gegensatz zu den Studien von Eslami et al. (2015) sowie Rader/Gray (2015) identifizieren wir Indikatoren der Nutzung, die auf einen strategischen, reflektierten Umgang mit Algorithmen bzw. algorithmischer Kuratierung schließen lassen und betten „Algorithm Awareness“ damit in das Nutzungsverhalten ein. Durch die folgende Auswertung leitet uns die Frage, inwieweit die Nutzung von Facebook im Kontext gesellschaftlich relevanter Informationsprozesse durch Reflexion geprägt ist. Es soll zudem geprüft werden, ob der Einbezug des konkreten Nutzungsverhaltens zur Analyse des Bewusstseins der algorithmischen Kuratierung – im Gegensatz zur engen Auslegung als „Algorithm Awareness“ – zur Feststellung eines reflektierten Umgangs mit algorithmischen Selektionsmechanismen führt.

3 Forschungsdesign

Zur Beantwortung dieser Frage werden drei zentrale Aspekte analysiert (Tabelle 1): „Algorithm Awareness“ wird im engeren Sinne über die Kenntnis des „Algorithmus"-Begriffs operationalisiert. Darüber hinaus werden, in Anlehnung an Hamilton et al. (2014), die geäußerten Vermutungen über das Funktionsprinzip des Newsfeeds mit besonderem Fokus auf das Bewusstsein für eine algorithmische Kuratierung betrachtet (Kap. 3.1). Daran anschließend soll das Problembewusstsein der Facebook-Nutzenden für mögliche Gefahren homogener, wenig diverser Kommunikationsräume sowie verstärkender Mechanismen wie der Vorselektion auf Basis der eigenen Präferenzen einbezogen werden (Kap. 3.2). In allen genannten Aspekten manifestiert sich, inwieweit das Handeln und der Umgang mit Facebook von Reflexion geprägt sind. Darüber hinaus werden explizite Strategien zur Sicherung von Meinungsvielfalt wie das Abonnieren offizieller Profile einbezogen (Kap. 3.3).

Die Datengrundlage bildet eine für die deutschsprachige Bevölkerung ab 14 Jahren repräsentativen Telefonbefragung (Ngesamt = 672; nFacebook-Nutzende = 219) zur Nutzung algorithmischer Medienangebote und deren Folgen in Kombination mit Ergebnissen aus fünf Fokusgruppen (N=15) zur detaillierten Nutzungsweise von „Facebook“. Die Daten sind Teil des Projekts „Algorithmischer Strukturwandel der Öffentlichkeit”, das im Auftrag des BMBF am Institut für Kommunikationswissenschaft der TU Dresden bearbeitet wird. Die Telefonbefragung wurde im Frühjahr 2016 durchgeführt. Die Telefonnummern sind zufällig generiert (Gabler-Häder-Design), die Stichprobe berücksichtigt Festnetz- und Handyanschlüsse im Verhältnis 2:1 (Dual Frame).

Datengrundlage je Forschungsaspekt

Fokus­gruppen

(quali­tativ)

N = 15

Telefon­befragung

(quanti­tativ)

N = 672; n = 219
Algorithm Awareness
Begriffskenntnis „Algorithmus“ x
Funktionsweise des Facebook Newsfeeds x
Bewusstsein für Kuratierung des Newsfeeds x
Problembewusstsein
Homogenität des Newsfeeds x x
Vorselektion auf Basis der Nutzungspräferenzen x x
Strategien / Nutzungsreflexion
Abonnieren offizieller Profile x x

Für die Fokusgruppen wurden Teilnehmerinnen und Teilnehmer über Facebook rekrutiert (s. den Überblick in Tabelle 2) Die leitfadengestützten Gruppendiskussionen fanden im Januar und Februar 2016 statt und dauerten zwischen 75 und 95 Minuten. Sie wurden aufgezeichnet und im Nachgang nach vereinfachten Transkriptionsregeln verschriftlicht. Das Ziel der Gespräche war das Aufdecken möglichst vieler Details der individuell verschiedenen Nutzung des Facebook Newsfeeds. Facebook wurde, neben dem Argument der großen Reichweite, als Gegenstand ausgewählt, weil hier die Informationssuche nicht das ausschließliche Nutzungsmotiv darstellt, sondern Informationskontakte sehr häufig auch nicht-intendiert zu Stande kommen (Valeriani/Vaccari 2016). Dadurch nehmen automatisierte Vorschlagsmechanismen im Kontext politischer Informationen bei Facebook eine zentrale Rolle ein. Aufgrund der Beiläufigkeit der Informationsauswahl ist die algorithmische Kuratierung vielen Nutzenden zudem nicht bewusst (Eslami et al. 2015; Hamilton et al. 2014). Ein Bewusstsein für dieses Vorgehen ist zugleich jedoch Ausdruck eines reflektierten Umgangs mit dem Newsfeed als zentralem Ort der algorithmischen Informationszusammenstellung. Da eine bewusste und reflektierte Nutzung gemäß Forschungsstand nur bedingt zu erwarten war, wurden verschiedene indirekte Erhebungswege gewählt, u.a. die Rekonstruktion der Newsfeeds aus dem Gedächtnis. Dieses Vorgehen erschien geeignet, die bewussten Teile des individuellen Nachrichtenstroms zu erfassen. Im anschließenden Gespräch wurden die Inhalte zusammengetragen, so dass vom Einzelnen eventuell vergessene Aspekte spontan ergänzt werden konnten und ein „Querschnitt“ der Newsfeeds der Teilnehmer generiert wurde. Auf dieser Basis wurde der Stellenwert von Facebook als Informationsmedium mit Fokus auf den individuellen Prozess der Meinungsbildung diskutiert und geklärt, inwieweit die dort vertretenen Meinungen der eigenen Positionen ähneln. Im letzten Teil beschrieben die Teilnehmer ihr Verständnis der Funktionsweise des Newsfeeds, bevor auf problematische Aspekte der Nutzung eingegangen wurde.

Zusammensetzung der Gruppendiskussionen und Zuordnung der Probanden
GD1 GD2 GD3 GD4 GD5
Merk­male Hohe Bildung (Hoch­schule) Gerin­gere Bildung (Real­schule) Höhere Bildung (Abitur) Höhere Bildung (Abitur/ Hoch­schule) Gerin­gere Bildung (Volks­schule)
hohes pol. Inter­esse geringes pol. Inter­esse geringes pol. Inter­esse mittler­es pol. Inter­nteresse hohes pol. Inter­esse
26 – 30 Jahre 24 – 26 Jahre 19 – 20 Jahre 33 – 39 Jahre 38 – 52 Jahre
w/m w/m w/m w w/m
Pro­ban­den B1 – B4 B5 – B7 B8 – B10 B11 – B13 B14 – B15

Zur Auswertung des qualitativen Materials wurde ein deduktiv-induktives Vorgehen in Anlehnung an Kuckartz (2012) gewählt: Nach Grobkodierung1 anhand der thematischen Struktur des Leitfadens wurden die Fundstellen mittels MAXQDA entlang der Hauptkategorien zusammengestellt und probandenweise paraphrasiert. Aus den Paraphrasen wurden induktiv Subkategorien abgeleitet, die das Material vollständig repräsentieren. Für die hier vorgenommenen quantitativen Auswertungen werden die Daten der Facebook-Nutzenden der Stichprobe (n = 219) sowie Variablen zur Problematisierung der Nutzung, zur Homogenität des Newsfeeds und zum Abonnement offizieller Profile herangezogen.

4 Ergebnisse

Die qualitativen und quantitativen Ergebnisse werden zunächst beschrieben. Fundstellen werden sparsam als Beleg und zur Illustration eingesetzt, wobei darauf geachtet wird, Widersprüche im Material zur Sprache zu bringen. Die Interpretation und Einordnung der Ergebnisse wird abschließend gebündelt (Kap. 4.3) vorgenommen.

4.1 Algorithm Awareness

Die Probanden wurden gebeten, sich spontan zu den Fragen „Wie funktioniert Eurer2 Meinung nach der Newsfeed? Was macht die Funktionsweise von Facebook aus?“ zu äußern. Der Begriff „Algorithmus“ wurde bewusst vermieden und die Frage dazu am Ende der Gruppengespräche platziert, so dass bereits mindestens 60 Minuten über Facebook und die Facebook-Nutzung gesprochen wurde. Damit sollte zum einen vermieden werden, dass die Diskussion und Spekulation über den technischen Aspekt weitere inhaltliche Fragen überlagern, zum anderen hofften wir, dass durch die vorangegangene Auseinandersetzung mit der eigenen Nutzung bereits ein tieferes Verständnis vorhanden, die unbewusste „Awareness“ also bereits ein Stück weit in eine bewusste Verarbeitung übergangen war und verbalisiert werden konnte.

Die vergleichende Betrachtung der entsprechenden Fundstellen (n = 30) zeigt zunächst, dass nur drei von 15 Probanden verteilt auf zwei Fokusgruppen den Begriff „Algorithmus“ explizit nennen. Die Äußerungen offenbaren Unsicherheit bezüglich der genauen Wirkweise (B13: „[hat] viel mit Informatik aber auch mit den Interessen zu tun […]: Was ich rein gebe, das kommt in der Timeline auch irgendwie vor. Aber wie genau?“) und eine sehr vage Vorstellung (B12: Algorithmus ist „die Verbindung zwischen Programmierung und Psychologie”). Interessant ist in diesem Zusammenhang auch, dass der Begriff nach dem Einbringen durch einen Probanden nicht durch die anderen Gruppenteilnehmer aufgegriffen wird.

Löst man sich allerdings von dem Begriff „Algorithmus“ und betrachtet die Fundstellen unter der Fragestellung, wie die Probanden die Funktionsweise alternativ beschreiben, können beinahe alle Probanden (außer B2, B3) Vermutungen darüber anstellen, welche Faktoren die Auswahl der angezeigten Inhalte beeinflussen könnten. Jeweils fünf Probanden sehen einen Zusammenhang der angezeigten Inhalte mit ihren Freunden bzw. Kontakten (B4, B8, B10, B14, B15) und den eigenen Interessen (B4, B8, B9, B11, B13). Dabei unterscheidet sich der Detailgrad zum Teil erheblich. Während sich B14 und B15 nicht erklären können, wieso sie Inhalte von Personen angezeigt bekommen, mit denen sie nicht direkt befreundet sind3, bezieht B10 sogar die kürzliche Interaktion mit Kontakten in ihre Überlegungen ein. B4 beobachtet, dass „nicht immer alles durchkommt“ und vermutet „man sieht nur das Populäre“. Auf das Abonnieren offizieller Profile und damit die explizite Beeinflussung der Inhalte des Newsfeeds gehen nur B5, B9 und B15 ein. B9 sieht zudem einen Einfluss von kommerziellen Interessen in Form von Werbeanzeigen und B11 vermutet, dass ihr Verhalten bei Facebook und auf anderen Seiten die Auswahl der angezeigten Inhalte beeinflusst. In Fokusgruppe 3 erfolgt die Auseinandersetzung oberflächlicher und es scheint Konsens, dass diese Frage für die eigene Nutzung nicht relevant erscheint (B5: „wenn ein Inhalt da steht, dann steht er da”; B7: „kann sein, dass es das gibt, ich habe keinen Unterschied gesehen, als ich das mal gewechselt habe“). Die Möglichkeit, Inhalte zu priorisieren wird für enge Freunde und nicht für Inhalte offizieller Profile genutzt (B6, B7). In der vierten Gesprächsrunde wird auch eine mögliche chronologische Anordnung der Inhalte diskutiert.

4.2 Problembewusstsein für geringe Diversität der Meinungen im Newsfeed

Die Frage nach der Einschätzung problematischer Aspekte4 wurde offen gestellt und in die Frage eingebettet, ob Facebook im Großen und Ganzen als nützlich in Bezug auf die Bildung einer eigenen politischen Meinung wahrgenommen wird. Die induktive Ausdifferenzierung der Fundstellen der Kategorie „Problematisierung“ (n = 38) ergibt fünf Subkategorien: Neben dem Umgang mit persönlichen Daten (n = 15), Werbung (n = 10) sowie Sicherheit und Anonymität (n = 5) wurden auch Probleme wie mögliche Konsequenzen durch das Äußern einer klaren Meinung zu einem Thema (n = 5) und die mögliche Beeinflussung der eigenen Meinungsbildung durch Facebook (n = 8) geäußert. In Bezug auf Meinungsbildungsprozesse stützt sich die Auswertung hier zusätzlich auf Fundstellen der Hauptkategorie „Meinungsbildung“, die sich auf die Homogenität der Newsfeeds beziehen (n = 43). Dieses Thema wurde durch die Moderatoren zu einem früheren Zeitpunkt aktiv eingebracht. Bei der Interpretation der Ergebnisse ist der aktive Stimulus entsprechend zu berücksichtigen.

Als erstes zentrales Ergebnis zeigt bereits die genannte Subkategorienbildung, dass die Befragten das Entstehen homogener, einseitiger Informationsräume durch die Selektion auf Basis der eigenen Vorlieben nicht problematisieren – sogar nach aktivem Einbringen des Themas. Vielmehr problematisieren die Probanden ungestützt Fragen des Datenschutzes, aber auch der Gefahr der Meinungsmanipulation durch verschiedene Akteure oder sich entwickelnder Dynamiken wie Shitstorms, verhärteter, polarisierter Meinungen im Freundeskreis und persönlicher Anfeindungen. Dieses Bild lässt sich auch durch die Auswertung der quantitativen Daten stützen. Dazu wird die Zustimmung der Facebook-Nutzenden zu Items der Frage „Wenn es um Social Media geht, kann man ganz unterschiedlicher Ansicht sein. Inwieweit empfinden Sie folgende Aspekte als unproblematisch oder problematisch, auf einer Skala von 1 bis 4?“ herangezogen. Die Aspekte „Datenschutzbestimmungen der Social Media-Angebote“ (n = 218), „Gefahr von Cybermobbing im Social Web“ (n = 215), „Vorselektion der Inhalte im Sinne des Anbieters“ (n = 212) sowie „Vorselektion auf Basis der Nutzungspräferenzen“ (n = 212) wurden dazu rotiert abgefragt. Das Problembewusstsein in Bezug auf die Vorselektion auf Basis der Nutzungspräferenzen (MW = 2,83; SD = 1,04) ist im Vergleich zur problematischen Einschätzung der Aspekte Datenschutz (MW = 3,1; SD = 1), Cybermobbing (MW = 3,27; SD = 1,03) sowie Vorselektion im Sinne des Anbieters (MW = 2,85; SD = 1) jedoch am geringsten ausgeprägt.

Dies ließe zunächst vermuten, dass eine auf Algorithmen gestützte (intransparente) Auswahl von Informationen für die Nutzenden keinen relevanten problematischen Aspekt darstellt. Betrachtet man jedoch die Reaktionen auf die Frage im Rahmen der Gruppendiskussionen im Detail, zeigt sich, dass unsere Überlegung, „Awareness“ manifestiere sich auch im konkreten Verhalten, zutreffend scheint. So zeigen die Berichte über das eigene Nutzungsverhalten indirekt, dass durchaus über die Problematik homogener Meinungen im Kontext der Facebook Nutzung zur politischen Information nachgedacht wird (B13: „Facebook als Meinungsmaschine (...) ich denke (…), dass es unterschwellig so ist (…) auf Grund meines eigenen Verhaltens, weil ich halt jetzt nicht so viele unterschiedliche Nachrichtenseiten zum Beispiel abonniert habe“). Dies geschieht jedoch nur vereinzelt und erst auf Nachfrage. Ein Blick auf die (rekonstruierten) Newsfeeds ergibt zudem, dass sich die Zusammenstellung der Nachrichtenströme zwischen den Probanden zum Teil deutlich unterscheidet. Drei Probanden (B1, B13, B15) berichten von überwiegend gleichgerichteten Meinungen zu politischen Themen. Bei fünf befinden sich im eigenen Feed laut Selbstauskunft unterschiedliche Meinungen (B3, B4, B5, B6, B9, B10). Bei drei Probanden sind hingegen keine politischen Themen im Newsfeed zu finden (B2, B7, B14). Die Daten der Telefonbefragung stützen an dieser Stelle das Bild individueller Unterschiede. Auf die Frage „Wie häufig kommt es denn vor, dass Ihre Freunde oder Kontakte in Ihrem Sozialen Netzwerk Inhalte posten, die Ihrer Meinung widersprechen?” antworten 32 Prozent der Befragten (n = 69) mit „häufig“ oder „sehr häufig“, 36 Prozent sagen „manchmal” (n = 77), 32 Prozent hingegen sehen „selten“ oder „nie“ (n = 68) abweichende Meinungen in ihrem Feed.

Die Vorselektion der Inhalte auf Basis der Nutzungspräferenzen wird also nicht ungestützt als problematisch benannt, auf Nachfrage aber durchaus als mögliches Problem anerkannt. Die (wahrgenommene) Homogenität der Newsfeeds erweist sich als ebenso unterschiedlich wie dessen Problematisierung. Um diese Unterschiede genauer zu beleuchten, werden mögliche Einflussfaktoren in die Auswertung einbezogen. Ein Hinweis auf einflussreiche Faktoren in Bezug auf das Bewusstsein einer Kuratierung der Newsfeeds ergibt sich aus den Gruppendiskussion: Ein Bewusstsein für die Kuratierung des Newsfeeds scheint eher mit einem hohen politischen Interesse und einer höheren formalen Bildung einherzugehen. Und tatsächlich ergibt die Auswertung der Telefonbefragung, dass bei Facebook-Nutzenden mit formal höherer Bildung (mindestens Abitur) eher ein Problembewusstsein bezüglich der Vorselektion auf Basis der eigenen Präferenzen vorhanden ist (Median = 3; n = 108) als bei denjenigen Nutzenden, die eine geringere formale Bildung aufweisen (Median = 3; n = 99; asymptotischer Wilcoxon-Test: z = -3,06, p = .002). Die relative Effektstärke nach Pearson (r = .21) weist auf einen schwachen bis mittleren Effekt der formalen Bildung hin.

Für das politische Interesse5 ergeben sich hingegen keine signifikanten Unterschiede zwischen denjenigen Facebook-Nutzenden mit einem hohen politischen Interesse (Wert 3 oder 4) (Median = 3, n = 139) und denjenigen mit geringerem politischen Interesse (Wert 1 oder 2) (Median = 3, n = 68; asymptotischer Wilcoxon-Test: z = -1,64, p > .05). Dies scheint den Ergebnissen der Fokusgruppen zu widersprechen. Allerdings bilden die quantitativen Daten zum einen nur das Problembewusstsein für eine Vorselektion auf Basis der eigenen Vorlieben ab. Zum anderen sind auch in den qualitativen Daten Hinweise auf Probanden mit hohem politischen Interesse und einer eher geringen Reflexion der Newsfeed-Kuratierung zu finden (B15). Da B15 zugleich eine eher geringe formale Bildung aufweist, stützt diese Beobachtung wiederum die Vermutung bezüglich des Einflusses der Bildung. Darüber hinaus besteht auch für die Beziehung zwischen Lebensalter und Problembewusstsein kein statistisch signifikanter Zusammenhang (rs (211) = .03, p > .05).

Da die Ergebnisse von Eslami et al. (2015: 8) zudem darauf hinweisen, dass ein höheres Bewusstsein für die algorithmische Kuratierung des Facebook Newsfeeds zu einer Änderung des Verhaltens in Form von Nutzung der Einstellungsmöglichkeiten und anderen Interaktionen (Liken etc.) führen kann, wird zusätzlich das Aktivitätslevel in die Analyse einbezogen. Dazu werden die Angaben der Facebook-Nutzenden hinsichtlich verschiedener für Facebook relevanter Aktivitäten (bewerten, teilen, kommentieren, posten von Inhalten) in einem summativen Index (keine bis 4 Aktivitäten) zusammengefasst. Eine hohe Aktivität schlägt sich jedoch nicht in einem größeren Problembewusstsein nieder (Spearmans Rho rs(212) = -.05, p > .05).

4.3 Nutzungsreflexion und Strategien zur Vielfaltssicherung

Unterschiede in der Reflexion der Nutzenden zeigen sich in den ersten beiden Auswertungsschritten. Während alle Probanden dazu in der Lage (oder willens) sind, über die Zusammenstellung der Inhalte ihres Newsfeeds nachzudenken und diese zu beschreiben, zeigen sich in der Beurteilung deutliche Unterschiede. So sehen Einige für sich selbst keine Gefahr einseitiger Informationen, weil sie ihr Verhalten entsprechend anpassen (B11: „zum Teil stimmt das [Anm.: geringe Meinungsdiversität] schon, aber deswegen habe ich ja auch mehrere Seiten abonniert und die berichten ja auch nicht immer alle gleich über ein Thema und dadurch finde ich es eigentlich wieder unproblematischer“). Andere hingegen fühlen sich durch eine rein passive Nutzung geschützt (B2: „Wenn man viel liked und viel teilt, und viele Meinungen sagt, dann wird es gefährlich, wenn man passiv ist, dann ist das nicht gefährlich, weil es keinen Effekt auf einen gibt.”). Dabei entsteht ein Widerspruch zwischen der Wahrnehmung von einseitigen Informationen als abstraktes Problem und dem konkreten Bezug auf das eigene Verhalten. B11 erklärt beispielsweise, dass sie bei Facebook eigentlich nur ihre eigene Meinung lesen will und daher bereits Personen „entabonniert“ habe. Gleichzeitig sieht sie für sich selbst jedoch keine Gefahr, dass ein homogener, einseitiger Newsfeed entstehen könnte. So berichtet B1, dass in seinem persönlichen Netzwerk zwar überwiegend ähnliche Meinungen vertreten werden. Er setzt daher jedoch bewusst auf das Abonnieren von offiziellen Seiten, die Informationen zum aktuellen Geschehen in Deutschland und der Welt bereitstellen, um auch mit anderen Ansichten konfrontiert zu werden.

Die Gruppendiskussionen zeigen jedoch, dass nicht alle Facebook-Nutzenden gezielt entsprechende Akteure oder Seiten abonnieren. Dieses Bild wird durch die quantitative Befragung gestützt. Die Verteilung der Antworten zu der Frage „Und nun zurück zu Facebook: Und wie sieht es dort aus mit offiziellen Profilen, die sich mit dem aktuellen Geschehen in Deutschland und der Welt befassen? Haben Sie solche offiziellen Profile auf Facebook abonniert?“ zeigt, dass nur jeder Dritte angibt dies zu tun (n = 72). Auch hier zeichnet sich ein Einfluss der formalen Bildung ab: Das Abonnieren von offiziellen Profilen zum aktuellen Zeitgeschehen steht mit der formalen Bildung (letzter Abschluss bis Realschule sowie Abitur und höher) in Zusammenhang (Chi-Quadrat(1) = 4,07, p < .05; n = 214). Der Zusammenhang ist allerdings nur schwach (Phi = -,138, p < .05). Ein signifikanter Zusammenhang mit dem politischen Interesse ist auch hier nicht festzustellen (Chi-Quadrat(1) = 0,006; p > .05; n = 214). Bei denjenigen, die offizielle Profile zum aktuellen Geschehen in Deutschland und der Welt abonniert haben, sind bei knapp der Hälfte (n = 33) dennoch überwiegend Inhalte im Newsfeed präsent, die Freunde oder Kontakte gepostet, empfohlen oder kommentiert haben.6 Bei beinahe ebenso vielen (n = 29) dominieren hingegen die offiziellen Profile zum aktuellen Geschehen. Immerhin knapp 9 Prozent geben an, darüber noch nicht nachgedacht zu haben bzw. dass ihnen dies nicht bewusst sei (n = 6).

4.4 Zusammenfassung der Ergebnisse

Zusammengefasst offenbaren die Gruppengespräche eine vage Vorstellung der Probanden über die Funktionsweise des Newsfeeds. Der Begriff des Algorithmus im Kontext der Facebook-Nutzung ist einigen bekannt, allerdings eher als Schlagwort ohne genauere Kenntnisse. Deutlich wird aber ein unterschiedlicher Umgang mit dieser Unsicherheit: Während einige auf Basis ihrer Nutzung Beobachtungen darüber anstellen, wovon die Anzeige bestimmter Inhalte abhängen mag, ist es anderen tendenziell egal. Hinsichtlich des Problembewusstseins zeigt sich, dass Cybermobbing und Datenschutz nicht nur in der quantitativen Befragung als problematischer wahrgenommen werden als die Vorselektion von Inhalten auf Basis der eigenen Präferenzen, sondern auch in den qualitativen Interviews ungestützt genannt und breiter diskutiert werden. Neben der Gefahr der Meinungsmanipulation durch verschiedene Akteure sind aus Sicht der Nutzenden auch Dynamiken wie Shitstorms, verhärtete, polarisierte Meinungen im Freundeskreis sowie persönliche Anfeindungen vertreten. Auch die Handlungsorientierung und eine sich selbst zugeschriebene aktive Rolle offenbaren sich. So sehen sich die Probanden keineswegs als passive „Opfer“ der Vorselektionen, sondern durchaus dazu in der Lage, ihr Verhalten entsprechend anzupassen – sofern sie dies als notwendig erachten. Denn es zeigt sich auch, dass nicht allen Nutzenden ein ausgewogener Newsfeed wichtig ist. Einigen Probanden erscheint es schlichtweg egal, wie die Inhalte zustande kommen und ob diese ausreichend vielfältig sind. Diesbezüglich und auch hinsichtlich des Problembewusstseins lassen sich jedoch keine strukturellen Unterschiede aufgrund des politischen Interesses oder der Aktivität feststellen, einzig ein leichter Bildungseffekt zeichnet sich ab. Etwa ein Drittel der Facebook-Nutzenden abonniert offizielle Profile. Unklar bleibt jedoch, ob dies als bewusste und gezielte Strategie eingesetzt wird, um Diversität im Newsfeed herzustellen.

Zusammenfassung der Ergebnisse
Begriffskenntnis „Algorithmus“ Vereinzelt, schlagwortartig, kein Detailwissen
Funktionsweise des Facebook-Newsfeeds Vage, Vermutung: hauptsächlich Einfluss durch Freunde und Interessen
Bewusstsein für Kuratierung des Newsfeeds Unterschiedlich, große Unterschiede bei Bewertung/ Reflexion möglicher Folgen für eigene Informiertheit
Diversität der Meinungen des Newsfeeds Von einseitig bis ausgewogen
Problembewusstsein Für homogene Ansichten eher weniger, nur auf Nachfrage und auch dann nicht bei allen; problematisch aus Sicht der Nutzenden eher Datenschutz und persönliche Konflikte
Strategien Vielfalt sichern durch Abonnieren von offiziellen Profilen, nur von ca. 1/3 der Nutzenden angewandt

5 Fazit

5.1 Methodenkritik

Die Ergebnisse der Fokusgruppen stützen sich auf Daten, die sowohl retrospektiv durch den Nutzenden erinnert wurden (Rekonstruktion der Inhalte des Newsfeeds) als auch durch ihren Selbstauskunftscharakter beeinflusst sein können. Letzteres gilt auch für die Daten der quantitativen Telefonbefragung. Es können streng genommen keine Auskünfte über das Verhalten der Nutzenden getroffen werden, sondern lediglich über das erinnerte Verhalten in der Wahrnehmung der Nutzenden. Mögliche Verzerrungen können daher die Auswertungen in Bezug auf Bewusstsein und Reflexion der algorithmischen Kuratierung immer dann beeinflusst haben, wenn dies indirekt über das Nutzungsverhalten analysiert wurde. Bei der Konzeption der quantitativen Befragung zu Facebook-spezifischen Aspekten musste zwischen einfachen und eingängigen, aber dennoch eindeutigen Formulierungen abgewogen werden: Sowohl für die Frage nach dem Abonnieren offizieller Profile zum aktuellen Geschehen in Deutschland und der Welt als auch nach dem Problembewusstsein für Vorselektionen von Inhalten sollte daher überprüft werden, inwieweit Forscher und Befragte hier ähnliche Inhalte aktualisieren.

5.2 Diskussion der Ergebnisse

Die Zahl empirischer Studien zur Wahrnehmung und Akzeptanz von algorithmischen Selektionsmechanismen im World Wide Web ist sehr gering, jedoch zeigen die vorhandenen Studien übereinstimmend, dass für diese Prozesse auf Seite der Nutzenden bisher kaum ein Bewusstsein entwickelt wurde (Eslami et al. 2015; Rader/Grey 2015; Schulz/Dankert 2016: 43). Unsere Ergebnisse stützen diesen Befund in Bezug auf ein konkretes und eher technisches Verständnis der algorithmischen Kuratierung. Wir konnten aber auch zeigen, dass die Faktoren, die die Zusammensetzung des Newsfeeds bestimmen, eher in „sichtbaren“ Größen wie dem Netzwerk oder abonnierten Kanälen als in „Algorithmen“ gesucht werden. Nutzenden setzen sich demnach sehr wohl mit der Zusammenstellung ihres Newsfeeds auseinander, auch wenn die entwickelten Vorstellungen oft sehr vage und nicht immer korrekt sind. Damit bestätigt sich die eingangs formulierte Vermutung: Unter Einbezug des konkreten Nutzungsverhalten in die Analyse des Bewusstseins für die algorithmische Kuratierung offenbart sich eher ein reflektierter Umgang mit dem Facebook-Newsfeed als bei einer Konzentration auf „Algorithm Awareness“ im engeren Sinn. Zukünftige Forschung sollte sich daher unbedingt der „Algorihm Awareness“ in einer weiter gefassten Bedeutung annehmen und dabei die für einen heterogenen Newsfeed förderlichen Verhaltensweisen einbeziehen.

Ein ähnlich differenziertes Bild ergibt sich in Bezug auf das Problembewusstsein. Während die ungestützten Diskussionen in den Fokusgruppen und auch die quantitative Befragung eher auf geringe Problematisierung der Vorselektionen auf Basis des Nutzungsverhaltens hindeuten, sind auf Nachfrage viele Nutzende durchaus an Diversität von Informationen im Newsfeed interessiert. Einige möchten dies sogar aktiv beeinflussen. Auch hier lässt sich vermuten, dass der Zusammenhang zwischen der Vorselektion von Inhalten auf Basis der eigenen Präferenzen und möglicherweise homogenen und einseitigen Informationen im eigenen Newsfeed durch die Nutzende nicht gesehen wird. Es offenbart sich folglich eine Diskrepanz zwischen dem, was Nutzende konkret wissen und dem, was sie vielleicht nicht vollständig bewusst tun. Zugespitzt könnte man sagen, die Nutzenden entwickeln zwar nicht unbedingt ein Bewusstsein für die Mechanismen der Newsfeed-Kuratierung, sehr wohl aber für mögliche Folgen aus dieser Praktik. Aktuell besteht offenbar (noch) eine Differenz zwischen den in der wissenschaftlichen Auseinandersetzung oftmals als problematisch erachteten Aspekten wie der Entstehung von Filterblasen und den für den einzelnen Nutzenden als konkret relevant wahrgenommenen Gefahren.

Dass die Zusammenstellung des Newsfeeds auf Basis der Nutzungspräferenzen nicht als konkretes, sondern eher als abstraktes Problem gesehen wird, das einen selbst kaum betrifft, weist zugleich aber auch auf die Bedeutung der „Algorithm Awareness“ im engeren Sinne hin. Diese kann als eine Art Vermittlungskompetenz betrachtet werden: Erst bei Auseinandersetzung mit den konkreten Mechanismen der Newsfeed-Kuratierung gelingt es dem Nutzenden, von abstrakten Gefahren auf sein konkretes Verhalten zu schließen und den Gestaltungsspielraum, der durch explizite algorithmische Personalisierung möglich wird, sinnvoll zu nutzen. Dass dies unterschiedlich gut gelingt, zeigt sich u.a. darin, dass sich die formale Bildung wiederholt als signifikanter Einflussfaktor erweist. In Anknüpfung an die „Digital Divide“-Forschung besteht demnach auch im Kontext algorithmischer Mediennutzung die Gefahr, dass privilegierte und kompetente Nutzende sich die Personalisierungstechnologien zu Nutze machen, wohingegen sich strukturell benachteiligte Gruppen eher unreflektiert von automatisiert selektierten Vorschlägen leiten lassen. Ob die Nutzung von Facebook eher durch Automation oder durch Reflexion gekennzeichnet ist, hängt damit gemäß unserer Ergebnisse maßgeblich vom jeweiligen Nutzenden ab. Während einige Facebook „einfach nur nutzen” (B5), zeigen andere ein sehr hohes Maß an Reflexion:

„Für mich ist Facebook so etwas wie eine Straße durchs Internet: Das Internet ist ja alles und nichts quasi, und Facebook ist als würde man durch so eine Stadt, so eine Straße laufen, und rechts und links ein bisschen Werbung sehen, und dann gibt es den Verkäufer, der dann irgendwas ruft, und dann trifft man jemanden auf der Straße, den man kennt, mit dem man sich kurz austauscht. So etwas ist für mich Facebook im Internet“ (B1).

Literatur

Bakshy, Eytan Solomon, Messing und Lada A. Adamic, 2015, Exposure to ideologically diverse news and opinion on Facebook, Science 58 (4): 707-731.

Beam, Michael A., 2013, Automating the news: How personalized news recommender system design choices impact news reception, Communication Research 14: 1019-1041.

Beam, Michael A. und Gerald M. Kosicki, 2014, Personalized news portals: Filtering systems and increased news exposure, Journalism & Mass Communication Quarterly 91 (1): 59-77.

Bozdag, Engin, 2013, Bias in algorithmic filtering and personalization, Ethics and Information Technology 15 (3): 209–227.

Eslami, Motahhare, Aimee Rickman, Kristen Vaccaro, Amirhossein Aleyasen, Andy Vuong, Karrie Karahalios und Christian Sandvig, 2015, “I always assumed that I wasn’t really that close to [her]”: Reasoning about Invisible Algorithms in News Feeds. S. 153-162, in: Bo Begole, Jinwoo Kim, Kori Inkpen und Woontack Woo (Hg.): Proceedings of the the 33rd Annual ACM Conference on Human Factors in Computing Systems. New York: ACM Press.

Hamilton, Kevin, Karrie Karahalios, Christian Sandvig und Motahhare Eslami, 2014, A Path to Understanding the Effects of Algorithm Awareness. S. 631-642, in: CHI Extended Abstracts on Human Factors in Computing Systems. New York. ACM Press.

Helberger, Natali, Katharina Kleinen-von Königslöw und Rob van der Noll, 2015, Regulating the new information intermediaries as gatekeepers of information diversity, Info 17 (6): 50–71.

Hölig, Sascha und Uwe Hasebrink, 2016, Reuters Institute Digital News Survey 2016 – Ergebnisse für Deutschland. (Arbeitspapiere des Hans-Bredow-Institut Nr. 38). Hamburg. Verlag Hans-Bredow-Institut.

Kuckartz, Udo, 2012, Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim. Beltz Juventa.

Mahnke, Martina, 2015, Der Algorithmus, bei dem man mit muss? Ein Perspektivwechsel, Communicatio Socialis 48 (1): 34–45.

Napoli, Philip M., 2014, Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption, Communication Theory 24: 340–360.

Pariser, Eli, 2011, The filter bubble: What the Internet is hiding from you. Penguin UK.

Pew Research Center, 2015, The Evolving Role of News on Twitter and Facebook. Online-Publikation: http://www.journalism.org/files/2015/07/Twitter-and-News-Survey-Report-FINAL2.pdf. (Stand: 10.4.2017)

Rader, Emilee und Rebecca Gray, 2015, Understanding User Beliefs About Algorithmic Curation in the Facebook News Feed. S. 173-182, in: Bo Begole, Jinwoo Kim, Kori Inkpen und Woontack Woo (Hg.): Proceedings of the the 33rd Annual ACM Conference on Human Factors in Computing Systems. New York: ACM Press.

Schulz, Wolfgang und Kevin Dankert, 2016, Die Macht der Informationsintermediäre – Erscheinungsformen, Strukturen, Regulierungsoptionen. Bonn: Friedrich-Ebert-Stiftung.

Valeriani, Augusto und Cristian Vaccari, 2016, Accidental exposure to politics on social media as online participation equalizer in Germany, Italy, and the United Kingdom, New Media & Society 18 (9): 1857-1874.

Zuiderveen Borgesius, Frederik, Damian Trilling, Judith Möller, Balázs Bodó, Claes H. de Vreese und Natali Helberger, 2016, Should we worry about filter bubbles?, Internet Policy Review 5 (1): 1-16.

.

Datenverfügbarkeit

Alle relevanten Daten befinden sich innerhalb der Veröffentlichung.

Interessenskonfliktstatement

Die Autor:innen erklären, dass ihre Forschung ohne kommerzielle oder finanzielle Beziehungen durchgeführt wurde, die als potentielle Interessenskonflikte ausgelegt werden können.


  1. Analyseeinheiten in Anlehnung an Mayring (2010: 59): Kodiereinheit: Satz oder satzähnliche Passage; Kontexteinheit: Aussage einer Person mit eindeutigem Bezug zum Frageimpuls, auch über mehrere Absätze; Auswertungseinheit: sequenziell im jeweiligen Transkript.↩︎

  2. Zugunsten einer entspannten Gesprächsatmosphäre wurde zu Beginn der Gespräche jeweils das „Du“ vereinbart.↩︎

  3. Vermutung der Autoren: Durch das Liken von Inhalten durch Freunde erfolgt die Anzeige im eigenen Newsfeed.↩︎

  4. Frageformulierung: „Seht Ihr in der Nutzung von Facebook auch Gefahren? Seht ihr irgendwelche Nachteile oder problematische Aspekte durch Facebook oder durch eure Facebook-Nutzung?“.↩︎

  5. Frageformulierung: „Wie stark interessieren Sie sich ganz allgemein für Politik? Sagen Sie mir bitte auf einer Skala von 1 bis 4, wie sehr Sie sich dafür interessieren. 1 bedeutet, dass Sie sich überhaupt nicht für Politik interessieren, 4 bedeutet, dass Sie sich sehr stark für Politik interessieren.“↩︎

  6. Frageformulierung: „Und nun denken Sie bitte noch einmal an Facebook: Wenn Sie an die Informationen zum aktuellen Geschehen in Deutschland und der Welt denken, die Sie dort erhalten. Sind das überwiegend…“↩︎

Literaturhinweise

Bakshy, Eytan Solomon, Messing und Lada A. Adamic, 2015, Exposure to ideologically diverse news and opinion on Facebook, Science 58 (4): 707-731.

Beam, Michael A., 2013, Automating the news: How personalized news recommender system design choices impact news reception, Communication Research 14: 1019-1041.

Beam, Michael A. und Gerald M. Kosicki, 2014, Personalized news portals: Filtering systems and increased news exposure, Journalism & Mass Communication Quarterly 91 (1): 59-77.

Bozdag, Engin, 2013, Bias in algorithmic filtering and personalization, Ethics and Information Technology 15 (3): 209–227.

Eslami, Motahhare, Aimee Rickman, Kristen Vaccaro, Amirhossein Aleyasen, Andy Vuong, Karrie Karahalios und Christian Sandvig, 2015, “I always assumed that I wasn’t really that close to [her]”: Reasoning about Invisible Algorithms in News Feeds. S. 153-162, in: Bo Begole, Jinwoo Kim, Kori Inkpen und Woontack Woo (Hg.): Proceedings of the the 33rd Annual ACM Conference on Human Factors in Computing Systems. New York: ACM Press.

Hamilton, Kevin, Karrie Karahalios, Christian Sandvig und Motahhare Eslami, 2014, A Path to Understanding the Effects of Algorithm Awareness. S. 631-642, in: CHI Extended Abstracts on Human Factors in Computing Systems. New York. ACM Press.

Helberger, Natali, Katharina Kleinen-von Königslöw und Rob van der Noll, 2015, Regulating the new information intermediaries as gatekeepers of information diversity, Info 17 (6): 50–71.

Hölig, Sascha und Uwe Hasebrink, 2016, Reuters Institute Digital News Survey 2016 – Ergebnisse für Deutschland. (Arbeitspapiere des Hans-Bredow-Institut Nr. 38). Hamburg. Verlag Hans-BredowInstitut.

Kuckartz, Udo, 2012, Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim. Beltz Juventa.

Mahnke, Martina, 2015, Der Algorithmus, bei dem man mit muss? Ein Perspektivwechsel, Communicatio Socialis 48 (1): 34–45.

Napoli, Philip M., 2014, Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption, Communication Theory 24: 340–360.

Pariser, Eli, 2011, The filter bubble: What the Internet is hiding from you. Penguin UK.

Pew Research Center, 2015, The Evolving Role of News on Twitter and Facebook. OnlinePublikation: http://www.journalism.org/files/2015/07/Twitter-and-News-Survey-Report-FINAL2.pdf. (Stand: 10.4.2017)

Rader, Emilee und Rebecca Gray, 2015, Understanding User Beliefs About Algorithmic Curation in the Facebook News Feed. S. 173-182, in: Bo Begole, Jinwoo Kim, Kori Inkpen und Woontack Woo (Hg.): Proceedings of the the 33rd Annual ACM Conference on Human Factors in Computing Systems. New York: ACM Press.

Schulz, Wolfgang und Kevin Dankert, 2016, Die Macht der Informationsintermediäre – Erscheinungsformen, Strukturen, Regulierungsoptionen. Bonn: Friedrich-Ebert-Stiftung.

Valeriani, Augusto und Cristian Vaccari, 2016, Accidental exposure to politics on social media as online participation equalizer in Germany, Italy, and the United Kingdom, New Media & Society 18 (9): 1857-1874.

Zuiderveen Borgesius, Frederik, Damian Trilling, Judith Möller, Balázs Bodó, Claes H. de Vreese und Natali Helberger, 2016, Should we worry about filter bubbles?, Internet Policy Review 5 (1): 1-16.

Downloads

Zitationen
0
0
0 citations recorded by Crossref
0 citations recorded by Semantic Scholar
Metriken
Views/Downloads
  • Abstract
    108
  • HTML
    54
  • PDF
    98
Weitere Informationen

Erhalten

2016-11-01

Akzeptiert

2017-02-01

Veröffentlicht

2017-05-01