Filterblasen – Ausgangspunkte einer neuen, fremdverschuldeten Unmündigkeit?

  • Carsten Ovens Universität Hamburg

DOI:

https://doi.org/10.15460/kommges.2017.18.2.582

Schlagworte:

Informationsgesellschaft, interaktive Medien, Facebook, Medienkonsum, Personalisierung, Benutzer, Verhalten, Algorithmus, Beeinflussbarkeit, soziales Netzwerk, Medienkompetenz, Meinungsbildung, Digitale Medien, Relevanz

Redaktion und Begutachtung

  • Nils Zurawski Universität Hamburg
  • Katharina Kinder-Kurlanda Gesis, Köln

Abstract

Facebook wurde lange als Chance für eine transparente Informationsgesellschaft gesehen. Zunehmend wird die Plattform jedoch kontrovers diskutiert. Kritiker befürchten die Bildung von Filterblasen. Ziel der vorliegenden Untersuchung war es deshalb, in Erfahrung zu bringen, ob nutzende Personen wissen, dass die ihnen auf Facebook angezeigten Informationen gefiltert sind und ihr eigener Informationshorizont dadurch eingeschränkt wird. Weiterhin werden Erklärungsansätze und Reaktionen der befragten Personen untersucht. Die aus dreizehn Interviews gewonnenen Erfahrungen von Facebook Nutzern bestätigen einige Erkenntnisse der bisherigen Forschung. So beeinflussen der Aufbau individueller Netzwerke und das Nutzerverhalten, wie auch der Algorithmus die Informationsvielfalt. Die in der Literatur häufig unkritisch übernommene Annahme zunehmender Homogenität von Netzwerken sollte auf Grundlage dieser Analyse zukünftig jedoch hinterfragt werden. Abschließend werden Implikationen für die weitere Forschung aufgezeigt.

1 Einleitung

Digitale soziale Medien dienen der Unterhaltung, der zwischenmenschlichen Kommunikation und zunehmend auch als Quelle von Nachrichten. Facebook hat sich dabei mit 1,71 Milliarden monatlich aktiven Nutzern weltweit zur mit Abstand größten Plattform entwickelt (Facebook 2016), weshalb das Netzwerk auch Gegenstand der vorliegenden Analyse ist. In Deutschland haben mehr als 70 Prozent der Internetnutzer einen Facebook Account, 78 Prozent davon rufen täglich Facebook auf (Vor dem Esche/Hennig-Thurau 2014).

Die Vielzahl der verbreiteten Informationen macht es für Nutzer von Facebook immer schwieriger, Inhalte zu verarbeiten, weshalb sie zunehmend eine Vorauswahl treffen (Kramer et al. 2014). Dieses Verhalten wird mit dem Begriff „Selective Exposure“ beschrieben (Messing/Westwood 2012; Knobloch-Westerwick/Meng 2011; Sears/Freedman 1967). Darüber hinaus beeinflussen technische Algorithmen, was Nutzer digitaler sozialer Medien sehen (Pariser 2011). So verarbeitet Facebook Beiträge durch computerisierte Prozesse basierend auf den Faktoren Affinität, relative Bedeutung und Zeit, um den Nutzern individuell vermeintlich relevante Inhalte in deren Newsfeed zu präsentieren. Input und Output sowie die Funktionsweisen dieser komplexen Entscheidungsprozesse sind jedoch für den menschlichen Betrachter meistens nicht transparent (Barocas et al. 2013; Tufekci 2015). Dabei scheint es Nutzern ohnehin nur bedingt bewusst zu sein, dass die ihnen dargestellten Inhalte auf Facebook überhaupt einer Filterung unterliegen (Eslami et al. 2015).

In der Vergangenheit haben vereinzelt Studien aufgezeigt, dass die algorithmische Filterung von Facebook auf das Anzeigen von Nachrichten nur geringe Auswirkungen hat, und vielmehr das Verhalten des eigenen Facebook Netzwerks dafür verantwortlich ist, was im individuellen Newsfeed angezeigt wird (Bakshy et al. 2015). Dabei scheinen sich „Selective Exposure“ und technische Algorithmen gegenseitig zu verstärken. In Kombination kann dies zu sogenannten Filterblasen führen. In Anlehnung an Pariser (2011) und Resnick et al. (2013) kann der Begriff Filterblase beschrieben werden als das durch „Selective Exposure“ und Algorithmen entstehende, einzigartige Universum eines jeden Internetnutzers, welches fundamental die Art und Weise beeinflusst, wie Informationen wahrgenommen und verarbeitet werden. Nach Flaxman et al. (2016) verstärkt dies die ideologische Segregation, da Nutzern vor allem solche Inhalte vorgeschlagen werden, denen sie wahrscheinlich zustimmen. Im Umkehrschluss bedeutet dies, dass Nutzern digitaler sozialer Medien Informationen nur noch eingeschränkt angezeigt werden, wobei häufig bereits bestehende eigene Vorstellungen bestätigen werden (Humphreys 2016).

Die Bildung von Filterblasen ist keine Neuheit an sich. Auch in der Zeit vor der Einführung von Social Media war es möglich, durch gezielten Medienkonsum vordefinierte Meinungen zu konsumieren, welche ins eigene Weltbild passten. Neu ist jedoch der interaktive Charakter von digitalen sozialen Medien, welcher eine permanente gegenseitige Bestätigung der eigenen Meinung durch andere Nutzer ermöglicht (Warner/Neville-Shephard 2011). Hierfür sind insbesondere Algorithmen verantwortlich, die zu einem signifikanten Akteur unserer zeitgenössischen Gesellschaft geworden sind (Introna 2016). Ihre zunehmende Anwendung in digitalen sozialen Medien, deren im Detail nicht bekannte Funktionsweise sowie die Auswirkungen und Effekte dieser Filterung werfen die Frage auf, wie informiert die Gesellschaft generell ist und sein sollte. Wenn Facebook nutzende Personen nicht wissen, wie die Plattform funktioniert, können sie auch nicht einschätzen, was ihr Verhalten bewirkt. Einige Studien befassen sich bereits mit der technischen Entstehung von Filterblasen (u.a. Del Vicario et al. 2016; Flaxman et al. 2016). Dabei wäre es von besonderem Interesse, inwiefern Nutzer digitaler sozialer Medien deren algorithmisierte Filterungsmechanismen überhaupt wahrnehmen und wie sich dies auf Ihr Verhalten auswirkt (Bucher 2017; Hamilton et al. 2014).

Ziel dieser Untersuchung ist es deshalb in Erfahrung zu bringen, ob Social Media Nutzer wissen, dass die ihnen auf Facebook dargebotenen Informationen gefiltert sind und dies eine individuelle Einschränkung der Informationsvielfalt bedeutet. Weiterhin soll untersucht werden, ob sich Nutzer die Entstehung dieser Einschränkung erklären können und wie sie darauf reagieren. Dazu wird zuerst eine strukturierte Literaturanalyse vorgenommen, um die Entstehung von Filterblasen zu verdeutlichen. Darauf aufbauend wird das tatsächliche Verhalten einiger Social Media Nutzer im Rahmen eines qualitativen Ansatzes untersucht. Hierzu wurden 13 Leitfadeninterviews durchgeführt, transkribiert und mittels inhaltlich-strukturierender Inhaltsanalyse (Mayring 2015) ausgewertet. Die Wahrnehmung und das Wissen der befragten Personen unterscheiden sich dabei stark.

Deshalb werden relevante Facetten der Filterblase ermittelt, kategorisiert sowie deren wechselseitige Einflüsse herausgearbeitet. Die Ergebnisse der qualitativen Studie werden dann im Kontext der bekannten Literatur diskutiert. Digitale soziale Medien nehmen eine immer größere Bedeutung für die zwischenmenschliche Kommunikation, aber auch für den Konsum von Informationen ein (Gottfried/Shearer 2016). Daher sollen abschließend Implikationen für die Kommunikationspraxis hergeleitet werden. Der vorliegende Aufsatz soll dabei auch Denkanstöße und Anregungen für die weitere Forschung liefern (Lehmann/Winer 2017).

2 Literatur

Digitale soziale Medien bieten ihren Nutzern die Möglichkeit, sich mit anderen Nutzern zu vernetzen oder bestimmten Profilen zu folgen. Dabei bevorzugen es Individuen, Beziehungen zu Menschen aufzubauen, die ihnen ähnlich sind (Kossinets/Watts 2009; Pariser 2011). Bei Facebook Nutzern spielen hierbei gemeinsame Interessen tendenziell eine größere Rolle als Faktoren wie Alter oder Einkommen (Wallace et al. 2012). Goel et al. (2010) stellen für digitale soziale Medien beispielsweise fest, dass die wahrgenommene Übereinstimmung politischer Einstellungen zwischen Freunden größer ist, als zwischen einander unbekannten Personen. Wie groß die Übereinstimmung ist, hängt auch davon ab, wie stark die Beziehung zwischen zwei Individuen ist (Goel et al. 2010).

Nach Granovetter (1973) wird die Stärke einer Beziehung unter anderem durch die investierte Zeit und das Ausmaß der Intimität determiniert. Es bilden sich Gruppen, deren Mitglieder sich ähnlich sind und Zugang zu weitestgehend gleichen Informationen haben. Zwischen diesen Personen entstehen starke Beziehungen. Demnach bieten schwächere Beziehungen, mit denen weniger interagiert wird, Zugang zu andersartigen Informationen, was nach Bakshy et al. (2012) auch auf Facebook Nutzer übertragen werden kann. Der Aufbau des individuellen Facebook Netzwerks, bestehend aus Freunden und Seiten, prädeterminiert demnach die Informationsanzeige als bedeutendster Faktor (Bakshy et al. 2015).

Das eingangs beschriebene „Selective Exposure“ Verhalten (Messing/ Westwood 2012) führt dazu, dass Individuen ihren Informationskonsum systematisch konzentrieren, da vor allem Nachrichten ausgewählt werden, welche die eigenen Überzeugungen und Hypothesen unterstützen (Knobloch-Westerwick/Meng 2011). Empfehlungen aus dem eigenen Netzwerk werden zudem mit größerer Wahrscheinlichkeit ebenfalls gelesen (Messing/Westwood 2012), was den Effekt der Selbstbestätigung noch verstärkt. Frost et al. (2015) sprechen in diesem Kontext vom sogenannten Bestätigungsfehler. Eine Erklärung gibt die „Cognitive Dissonance Theory“ (Festinger 1962; Garrett/Resnick 2011; Garrett 2009): In heterogenen Gruppen kann Dissonanz entstehen. Nach der Dissonanztheorie empfinden menschliche Individuen diese Unstimmigkeiten jedoch als unangenehm und sind folglich motiviert, diese zu reduzieren. Dazu vermeiden sie solche Informationen, die von ihrer eigenen Wahrnehmung, beziehungsweise ihrer eigenen Meinung abweichen (Festinger 1962).

Der Dissonanztheorie folgend ist es erklärbar, dass sich in digitalen sozialen Medien homogene und gleichzeitig voneinander isolierte Gruppen von Personen zusammenfinden, da jedes Individuum bestrebt ist, von seinem Standpunkt abweichende Meinungen (anderer Nutzer und Seiten sowie deren Postings) zu vermeiden. Es kann zu Gruppenpolarisierungen (Warner/ Neville-Shepard 2011) kommen. Parallel entstehende Mehrheitsillusionen führen zu einer Radikalisierung innerhalb dieser Nutzergruppen. Del Vicario et al. (2016) zeigen dies allgemein für Verschwörungstheorien.

Aktuelle Studien bestätigen dies für digitale soziale Medien (Flaxman et al. 2016; Bakshy et al. 2015). Je einfacher es dabei für Nutzer digitaler sozialer Medien wird, den eigenen Informationskonsum nach individuellen Präferenzen zu gestalten, desto eher verlieren sie den Überblick, wie Perspektiven, Probleme und Meinungen von der Gesellschaft allgemein diskutiert werden (Porten-Cheé/Eilders 2015). Die entstehende ideologische Zersplitterung thematisieren Garrett et al. (2013) als höchst problematisch.

Gearhart und Zhang (2014) stellten fest, dass sich die individuelle Bedeutung eines Themas positiv auf die Kommunikationsbereitschaft auswirkt. Dabei hat die vorherrschende Meinung grundsätzlich einen Einfluss auf die Mitteilungsbereitschaft, unabhängig von der persönlichen Präferenz in der Sache. Nach Zollo et al. (2015) interagieren Facebook Nutzer vermehrt mit Beiträgen, welche der eigenen Meinung entsprechen, während abweichende Beiträge im Gegensatz häufig ignoriert werden.

Digitale soziale Medien erweitern das geschilderte menschliche Verhalten um eine technische Komponente: so nutzt Facebook Algorithmen, um das Anzeigen von Beiträgen im individuellen Newsfeed der Nutzer zu filtern und damit zu regulieren (Gillespie 2014; Pariser 2011). Ziel ist es, die durchschnittlich rund 1500 möglichen Beiträge im Newsfeed eines jeden Nutzers durch den Einsatz von Algorithmen zu reduzieren (Backstrom 2013; Kramer et al. 2014). Der Algorithmus verarbeitet dazu laufend den Input und bestimmt die persönliche Relevanz von Beiträgen auf Grundlage der vom jeweiligen Nutzer generierten Informationen, um so einen individuellen Output zu generieren (Gillespie 2014; Bucher 2012; Cheney-Lippold 2011). Auf diesem Wege soll der „Fit“ zwischen den dargebotenen Inhalten und den Interessen der Nutzer erhöht werden, z.B. um die Verweildauer zu erhöhen. Dies betrifft nicht nur die Anzeige von Beiträgen befreundeter Personen und Seiten, sondern auch Werbeanzeigen auf Facebook. Während Hodis et al. (2015) in diesem Zusammenhang zu der Erkenntnis kommen, dass personalisierte Werbung bei Nutzern negative Gefühle auslöst, stellt Tucker (2014) fest, dass die Personalisierung der Werbung dann positiver aufgenommen wird, wenn Nutzer die Verfügbarkeit ihrer persönlichen Daten kontrollieren können.

Introna (2016) beschreibt, dass die zunehmende Verbreitung von Algorithmen als problematisch wahrgenommen wird. Dies kann auch auf digitale sozialer Medien bezogen werden. Wie eingangs beschrieben, ist es nicht vollkommen ersichtlich, wie deren algorithmisierte Filterung im Detail funktioniert (Barocas et al. 2013; Tufekci 2015). Bislang sind zudem erst wenige Studien bekannt, die sich detailliert mit der Wahrnehmung von Filtermechanismen auseinandersetzen. Eslami et al. (2015) stellen im Rahmen einer ersten Untersuchung (n=40) fest, dass Facebook nutzende Personen mehrheitlich (62,5%) nicht wissen, dass angezeigte Beiträge einer Filterung unterliegen. Nach Rader und Gray (2015) ist es Facebook Nutzer dagegen durchaus bewusst, dass sie nicht alle Beiträge ihrer Freunde angezeigt bekommen (73%), wobei dies jedoch nur knapp die Hälfte der Studienteilnehmer (223 von 464) auf einen Algorithmus zurückführt. Darüber hinaus gibt Bucher (2017) Einblicke in die persönlichen Erfahrungen von Facebook nutzenden Personen (n=25) mit dem Algorithmus, setzt allerdings im Rahmen der durchgeführten Untersuchung ein grundlegendes Bewusstsein der Existenz algorithmischer Filterung voraus.

Die genaue Funktionsweise der in digitalen sozialen Medien verwendeten Algorithmen ist unbekannt (DeVito 2016). Prinzipiell kann jedoch davon ausgegangen werden, dass Facebooks Newsfeed Algorithmus im Wesentlichen auf drei Faktoren basiert: Affinität, Bedeutung und Zeit (Bucher 2012; Pariser 2011). Interagiert ein Facebook Nutzer häufiger mit bestimmten anderen Personen oder Seiten, werden ihm deren Beiträge sowie ähnliche Postings häufiger im eigenen Newsfeed angezeigt (Backstrom 2013). Nach Yu und Tas (2015) schließt der Algorithmus selbst bei einer längeren Betrachtungsdauer auf eine positive Affinität und zeigt passende Beiträge vermehrt an. Der Algorithmus bemisst Backstrom (2013) zufolge die relative Bedeutung von Beiträgen danach, wie häufig Nutzer in der Vergangenheit mit Beiträgen interagiert haben. Dabei kommt einem Kommentar eine höhere Relevanz zu als einem Klick auf „Gefällt mir“ (Bucher 2012). Die Komponente Zeit fließt nach Pariser (2011) insofern in den Algorithmus ein, als dass neuere Beiträge eher angezeigt werden als ältere. Bekommt ein Thema zu einer bestimmten Zeit besonders viel Aufmerksamkeit, werden vermehrt Postings im Newsfeed angezeigt, die sich ebenfalls mit diesem Thema beschäftigen (Eulenstein 2014).

Beiträge zu Themen, die durch den von Facebook genutzten Algorithmus als nicht relevant eingestuft werden, erscheinen auch nicht im Newsfeed der Nutzer, was die Verbreitung von bestimmten Informationen oder Neuigkeiten stark einschränkt (Tufekci 2015). Wenn Nutzer gewisse Beiträge aber gar nicht erst sehen, ist es ihnen auch nicht möglich, mit diesen zu interagieren und so zukünftig vermehrt ähnliche Beiträge zu erhalten (Bucher 2012). Es besteht sogar das Risiko, dass Algorithmen fehlerhaft sind oder die verfügbaren Informationen im Sinne kommerzieller oder politischer Interessen manipuliert werden (Gillespie 2014).

Erschwerend kommt hinzu, dass der Algorithmus nicht nur das Anzeigen von Beiträgen beeinflusst, sondern auch die Intention verfolgt, vorherzusagen, mit welchen Nutzern wir uns gerne verbinden möchten (Humphreys 2016): Der als „Collaborative Filtering“ beschriebene Mechanismus vergleicht ähnliche Nutzerprofile und leitet auf Grundlage von Datenanalysen Vorschläge ab, wenn eine Lücke, hier ein passender neuer Kontakt, ermittelt wurde.

Wenn digitale soziale Medien nun wie beschrieben individuell gefilterte Informationen darbieten, würde die Technologie auch vorherrschende Meinungen beeinflussen, insbesondere dann, wenn Nutzer sich diesem Einfluss nicht bewusst sind und nicht entsprechend darauf reagieren können. Mit Blick auf unser tägliches Handeln, unsere sozialen Beziehungen und unser Wissen spricht Schmidt (2013) davon, dass wir uns zunehmend von digitalen sozialen Medien abhängig machen.

Dabei ist die Argumentation von Bakshy et al. (2015) zumindest kritisch zu hinterfragen: nach den Autoren sind Facebook nutzende Personen selbst verantwortlich, durch die eigene Selektion von Beiträgen verschiedene Meinungen und Perspektiven zu beachten. Dieser Gedanke impliziert, dass Nutzer digitaler sozialer Medien wissen, wie diese funktionieren und wie ihr eigenes Verhalten das Anzeigen von Informationen beeinflusst. Es ist bislang allerdings nicht hinreichend untersucht, ob Facebook Nutzer überhaupt wissen, dass sie eine gefilterte Darstellung der gewünschten Informationen erhalten. Ebenso ist unklar, ob sich Nutzer erklären können, wovon das Anzeigen von Beiträgen ihrer Freunde, von Seiten sowie von Werbeanzeigen abhängt. Schließlich ist zu untersuchen, inwiefern Nutzer darauf reagieren, wenn sie über entsprechendes Wissen verfügen. Da das Anzeigen von Beiträgen sowohl vom Aufbau des eigenen Facebook Netzwerks als auch vom bisherigen Interaktionsverhalten mit Freunden, Seiten und Werbeanzeigen abhängt, soll auch dies Gegenstand der nachfolgenden Betrachtung sein.

3 Datenerhebung und -auswertung

Die Literaturanalyse hat aufgezeigt, wie es zur Bildung von Filterblasen in digitalen sozialen Medien kommen kann. Bislang wurde nur vereinzelt und nicht systematisch untersucht, ob und wie Nutzer von Facebook und vergleichbaren Plattformen die algorithmisierte Darstellung von Inhalten wahrnehmen (Bucher 2017; Eslami et al. 2015; Rader/Gray 2015). Für den deutschsprachigen, bzw. europäischen Raum fehlen Erkenntnisse, ob sich Nutzer die Entstehung dieser Einschränkung erklären können und wie sie darauf reagieren. Die vorliegende Arbeit liefert hierzu einen ersten Beitrag. Da noch keine ausreichende Strukturierung des Forschungsgegenstandes vorliegt, und um einen tieferen Einblick in die Materie zu erhalten, wurde für diese Untersuchung ein qualitativer Ansatz gewählt (Lamnek 2010; Hodis et al. 2015).

Zur Datenerhebung wurden Tiefeninterviews als geeignete Form der Untersuchung ausgewählt, da im Rahmen der theoretischen Vorüberlegungen bereits erste mögliche Auswirkungen der Filterblase aufgezeigt worden sind und eine Analyse des Untersuchungsobjekts stattgefunden hat (Bortz/Döring 2006; Mayer 2013). Auf dieser Grundlage wurde ein Leitfaden mit offenen Fragestellungen (Anhang 1) erstellt, welcher die Vergleichbarkeit der Daten ermöglicht und diesen eine Struktur gibt (Mayer 2013).

Die Interviews wurden zwischen dem 23. Januar und dem 26. Februar 2016 in persönlichen Gesprächen durchgeführt und aufgezeichnet. Zur Gewinnung der Teilnehmer wurde ein Beitrag auf einer lokalen Facebook Seite veröffentlicht. Zusätzlich wurden Personen direkt angesprochen. Die Größe der Stichprobe wurde nicht im Voraus bestimmt, sondern im Sinne der qualitativen Untersuchung nach dem Grounded Theory Ansatz für hinreichend erklärt, als von den Befragten keine neuen Aspekte mehr angesprochen wurden, also ausreichend Material für die Argumentation zusammengetragen war (Glaser/Strauss 1965).

Die Teilnehmer sollten insgesamt 15 deduktiv aus der Literatur hergeleitete Fragen sowie einige dazugehörige Nachfragen mit offenem Charakter durch eigene Formulierungen beantworten. Dabei wurden die skizzierten Aspekte der Filterblase – sowohl die Entstehung durch „Selective Exposure“ und algorithmisches Filtern, als auch die Auswirkungen auf das Anzeigen von Beiträgen – durch die Fragen abgedeckt. So sollten die Gesprächspartner beispielsweise schildern, ob sie davon ausgehen, alle gewünschten Beiträge von Freunden und Seiten zu sehen. Von besonderem Interesse war es auch, ob es sich die Teilnehmer erklären können, warum sie welche Beiträge von Freunden, Seiten sowie Werbeanzeigen sehen. Zu Beginn der Interviews wurden zudem persönliche Informationen der Teilnehmer abgefragt. Die Fragen nach Alter, Bildungsabschluss und Haushaltsbruttoeinkommen waren dabei offen formuliert, während bei der Nutzung digitaler sozialer Medien und der derzeitigen Beschäftigung Antwortmöglichkeiten vorgegeben wurden.

Das Sample umfasst acht männliche und fünf weibliche Personen verschiedener Altersstufen. Einzige Teilnahmevoraussetzung war, dass die interviewten Personen Facebook nutzen. Die Demographika sind der Übersichtlichkeit halber in Tab. 1 aufgeführt, aber nicht Gegenstand der weiteren Analyse.

Die Interviews wurden anschließend transkribiert, wobei Dialekt und Umgangssprache in die Standardorthographie übertragen wurden, um eine spätere Nachvollziehbarkeit zu gewährleisten (Höld 2007). Anschließend wurden die Namen der Teilnehmer auf Tonaufnahmen und Abschriften unkenntlich gemacht, um eine Anonymität der Befragten zu gewährleisten (Aghamanoukjan et al. 2007). Die interviewten Personen werden nachfolgend mit der fortlaufenden Nummer aus Tab. 1 gekennzeichnet (z.B. TN7).

Tabelle 1: Interviewteilnehmer. Legende: TN = Teilnehmer; FB = Facebook, IG = Instagram, LI = LinkedIn, PT = Pinterest, SC = Snapchat, TW = Twitter, WA = WhatsApp, XG = Xing
TN Geschlecht Alter Bildungsstand Brutto- einkommen Soziale Medien Beschäftigung
1 m 24 Bachelor k.A. FB, IG, SC, WA, XG berufstätig
2 w 23 Bachelor 1.500€ FB, IG, SC, WA, XG Studentin
3 m 26 Bachelor 1.500€ FB, LI, XG, WA Student
4 w 27 Bachelor 1.500€ FB, IG, LI, PT, SC, TW, WA, XG Student
5 w 16 Kein Abschluss k.A. FB, IG, PT, WA Schülerin
6 m 19 Abitur 1.000€ FB, IG, SC, WA nicht berufstätig
7 m 52 Realschul­abschluss 5.000€ FB, IG, WA, XG berufstätig
8 m 30 Master 4.750€ FB, XG, LI, WA berufstätig
9 m 24 Bachelor 1.000€ FB, SC, TW, XG, WA berufstätig (Teilzeit)
10 m 34 Master 6.500€ FB, LI, TW, WA, XG berufstätig
11 w 26 Bachelor 500€ FB, IG, PT, WA Studentin
12 m 37 Diplom 7.000€ FB, LI, TW, WA, XG berufstätig
13 w 57 Diplom 8.000€ FB, WA berufstätig (Teilzeit)

Für die Auswertung der vorliegenden Daten wurde das Verfahren der inhaltlich-strukturierenden qualitativen Inhaltsanalyse nach Mayring (2015) gewählt. Dieses ist besonders geeignet, da die durchgeführte Untersuchung auf dem oben skizzierten theoretischen Vorwissen aufbaut und es nunmehr um die Auswertung der vorhandenen Daten geht (Srnka 2007; Mayring 2000). Das Ziel der Analyse besteht in der systematischen Auswertung des gewonnenen Datenmaterials sowie der regel- und theoriegeleiteten Analyse (Mayring 2015). Dazu wurde ein theoriegeleitetes Kategoriensystem entwickelt (s. Tab. 3 unten), welches essentiell für die zielgerechte Auswertung der Interviews ist, um bestimmte Themen, Inhalte und Aspekte aus den durchgeführten Interviews herauszufiltern und einzuordnen (Mayring 2015).

Orientiert an Mayring (2015) wurden zunächst auf Basis der Literaturauswertung deduktiv drei Oberkategorien bestimmt, die sich auch im genutzten Interviewleitfaden (Anhang 1) widerspiegeln: „Aufbau des eigenen Netzwerks“, „Interaktion mit Beiträgen” und „Anzeige von Beiträgen“. Den ersten beiden Kategorien wurden keine Zwischenkategorien, sondern ausschließlich am Material hergeleitete Unterkategorien zugeordnet, während für die dritte Oberkategorie „Anzeige von Beiträgen” nach dem eben dargestellten Verfahren auf Grundlage der vorab diskutierten Literatur zur weiteren Differenzierung drei zusätzliche Zwischenkategorien „Freunde“, „Seiten” und „Werbung“ entwickelt wurden (ebd.).

Im nächsten Schritt wurden konkrete Textstellen als sogenannte Ankerbeispiele festgelegt (Mayring 2015). Diese geben Anhaltspunkte für die Kodierung weiterer Textausschnitte, d.h. für die Einordnung der einzelnen Textstellen in die eben definierten Kategorien (Kuckartz 2014). Dazu wurden Kodierregeln festgelegt, um bei Abgrenzungsproblemen eine eindeutige Zuordnung zu ermöglichen (Mayring 2015). Der entwickelte und verwendete Kodierleitfaden ist in Tab. 2 dargestellt.

Tabelle 2: Kodierleitfaden
Oberkategorie Definition Zwischenkategorie Ankerbeispiel Kodierregeln
Aufbau des eigenen Netzwerks Gemeinsamkeiten oder Unterschiede zwischen Mitgliedern des Facebook Netzwerks sowie der resultierende Einfluss auf die eigene Meinungsäußerung

„wir sind schon ein relativ konformer Freundeskreis und haben ähnliche Interessen.“ (TN10, AW16)

„das ist ja bei Social Media so, dass das relativ wichtig ist, was andere Leute darüber denken. Also schon, dass die Meinung der anderen mir da auch relativ wichtig ist.“ (TN1, AW27)

Eine Kodierung erfolgt, wenn Gemeinsamkeiten oder Unterschiede innerhalb der individuellen Facebook Netzwerke der befragten Personen angesprochen werden.

Die Zuordnung erfolgt, wenn Einflüsse auf die Bereitschaft, die eigene Meinung zu äußern, thematisiert werden.

Interaktion mit Beiträgen Auswahl von Beiträgen durch Interaktion (bspw. Anklicken, Kommentieren oder Markieren mit „Gefällt mir“) „[Ich interagiere eher mit Beiträgen], wenn ich übereinstimme ja, wenn nicht, dann würde ich eher sagen, wird es ignoriert.“ (TN3, AW23). Zuordnung zur Kategorie, wenn die Auswahl und Interaktion mit unterschiedlichen Beiträgen oder die bewusste Beeinflussung des Inhalts des Newsfeeds zum Beispiel durch Markieren von Seiten mit „Gefällt mir“ thematisiert wird.
Anzeige von Beiträgen Wahrnehmung von im individuellen Newsfeed eingeblendeten Beiträgen jedweder Art. Freunde „ [es gibt] Leute [mit denen] man so viel zu tun hat und (...) da wird sich das wahrscheinlich so raus kristallisieren, dass manche andere nicht mehr angezeigt werden.“ (TN12, AW2) Subsumiert werden Äußerungen, die sich auf das Anzeigen von Beiträgen beziehen. Die Zuordnung zur Zwischenkategorie richtet sich danach, ob sich Aussagen primär auf Beiträge befreundeter Nutzer, Seiten oder gekaufte Werbung beziehen. Bei den Seiten geht es um solche, die von den Befragten mit „Gefällt mir“ markiert wurden.
Seiten „die Beiträge, die mir an- gezeigt werden von Seiten - das sind Seiten, die ich jetzt irgendwie neu markiert habe.“ (TN4, AW10)
Werbung „[Ich bekomme relevante Werbung, weil] die wissen, wie alt ich bin, was ich für Interessen habe.“ (TN1, AW21)

Nachdem der Kodierleitfaden erstellt worden war, konnten die Aussagen der Interviewteilnehmer den vorab deduktiv definierten Ober- und Zwischenkategorien (Tab. 3) zugeordnet werden. Dabei wurden die transkribierten Interviews nach Mayring (2015) jeweils einzeln Zeile für Zeile analysiert. Als kleinste Kodiereinheit wurden dabei Satzteile festgelegt, welche die Gesamtaussage des Satzes nicht verfälschen. Die einzelnen Interviews wurden entsprechend als Kontexteinheiten behandelt. Abschließend wurden zusätzliche Unterkategorien induktiv am Material hergeleitet (Srnka, 2007). Das bestehende Kategoriensystem wurde dabei schrittweise erweitert, bis die verschiedenen Elemente der Interviews Kategorien zugeordnet werden können. Nach Mayring (2015) werden die Unterkategorien dabei aus den Formulierungen der Interviewpartner gebildet. Dazu werden die vorliegenden Aussagen zuerst paraphrasiert und anschließend generalisiert und abstrahiert.

Das Kategoriensystem ist ausreichend erprobt, wenn nur noch wenige neue Kategorien gebildet werden. Im Rahmen der Analyse wurde die Erstellung von Kategorien nach sechs Interviews beendet. Mayring (2015) folgend wurden die bestehenden Kategorien hinsichtlich des Analysezwecks zu diesem Schritt überprüft. Zum Zweck einer besseren Einordnung des Materials in die erstellten Unterkategorien wurden einige Umformulierungen vorgenommen und das Material erneut zugeordnet. Abschließend wurden die gesamten Interviews in das erprobte und überarbeitete Kategoriensystem eingeordnet, das aus drei deduktiv hergeleiteten Ober- und Zwischenkategorien sowie 19 induktiv hergeleiteten Unterkategorien besteht (vgl. Tab. 3). Ober- und Zwischenkategorien wurden aus der Literatur extrahiert, die Unterkategorien haben sich durch die Analyse des im Rahmen der Tiefeninterviews gewonnenen Materials ergeben.

Tabelle 3: Kategoriensystem
Oberkategorie Zwischenkategorie Unterkategorie
Aufbau des eigenen Netwerks Ähnlichkeit von Interessen
Ähnlichkeit von Eigenschaften
Ungewissheit
Bereitschaft zur Meinungsäußerung
Interaktion mit Beiträgen Interesse
Übereinstimmung
Wichtigkeit des Themas
Außendarstellung
Anzeige von Beiträgen Freunde Interaktion
Gemeinsamkeiten
Inhalt
Unwissenheit
Seiten Interaktion
Inhalt
Zeit
Werbung Persönliche Informationen
Interessen auf Facebook
Nutzerverhalten im Internet
Facebook Netzwerk

Der qualitative Ansatz dieser Untersuchung geht einher mit einer kleinen Auswahl von Gesprächspartnern. Folglich steht auch nicht die Anzahl der Teilnehmer mit einem bestimmten Antwortverhalten im Mittelpunkt der Analyse, sondern vielmehr ein Überblick über die Wahrnehmung der diskutierten Facetten von Filterblasen durch die Nutzer. Im nächsten Abschnitt wird deshalb ein Überblick über die verschiedenen Facetten der Filterblase gegeben, die im Rahmen der Interviews angesprochen wurden. Die wichtigsten Erkenntnisse werden abschließend im Fazit der Arbeit zusammengefasst.

4 Darstellung und Diskussion der erhobenen Daten

Wie eingangs anhand der Literatur festgestellt, beeinflussen das eigene Netzwerk sowie das Verhalten der Nutzer die Anzeige von Beiträgen im individuellen Facebook Newsfeed. Die Oberkategorien „Aufbau des eigenen Netzwerks“ und „Interaktion mit Beiträgen“ dienen daher zur Untersuchung des vorhandenen Wissens der Interviewteilnehmer über die Auswirkungen ihres Verhaltens und somit über die Entstehung von Filterblasen. Die Oberkategorie „Anzeige von Beiträgen“ sowie die dazu gehörigen Zwischenkategorien „Freunde“, „Seiten” und „Werbung“ fokussieren die wahrgenommenen Facetten der Filterblase. Durch die Erstellung von Unterkategorien können die Aussagen der Teilnehmer schließlich übersichtlich zusammengefasst werden. Um die Interpretation des Materials nachvollziehbar zu gestalten, werden die Ergebnisse in diesem Abschnitt mittels Textpassagen dokumentiert und diskutiert (Aghamanoukjan et al. 2007). Die Antworten der Teilnehmer sind nachfolgend durch TN (Teilnehmer mit fortlaufender Nummer) und AW (Antwort auf die jeweilige Frage des Leitfadens) gekennzeichnet. Die transkribierten Interviews können auf Nachfrage beim Autor eingesehen werden.

4.1 Aufbau des eigenen Netzwerks

Wie in Tab. 3 zu sehen, bildet der Aufbau des eigenen, individuellen Facebook Netzwerks die erste deduktiv hergeleitete Oberkategorie, welche in vier Unterkategorien gegliedert ist: Ähnlichkeit von Interessen, Ähnlichkeit von Eigenschaften, Unwissenheit sowie Bereitschaft zur Meinungsäußerung.

4.1.1 Ähnlichkeit von Interessen

Viele der Befragten heben hervor, dass die Interessen der Nutzer innerhalb ihres Facebook Netzwerks ähnlich ihrer eigenen sind und bestätigen so die in der Literatur vorherrschende Meinung (u.a. Stroud 2008; Warner/Neville-Shephard 2011; Bakshy et al. 2015; Zollo et al. 2015; Flaxman et al. 2016): „Ich sehe nie, was anderen Leuten gefällt, was mir nicht gefällt“ (TN5, AW22). „Gerade bei den engen Freunden, oder den Freunden, mit denen ich auch im Alltag interagiere, auch persönlich, ist das so, dass das die gleichen Interessen, also sehr ähnliche Interessen sind“ (TN3, AW22).

Dies verdeutlicht die mögliche Beeinflussung der Wahrnehmung von Informationen durch den Algorithmus: Wenn vor allem Beiträge von Personen angezeigt werden, mit denen viel interagiert wird, und diese ähnliche Interessen haben, dann wird die Vielfalt der verfügbaren Informationen weiter beschränkt. Dies gilt sowohl bei Freunden als auch für die Wahrnehmung von Seiten: „im Großteil [sind es] im ganzen Freundeskreis viele gleiche Interessen und dementsprechend kommen auch ähnliche Seiten“ (TN6, AW16). Allerdings gibt es auch abweichende Meinungen. So bewertet eine Interviewteilnehmerin die Interessen ihres Netzwerks und die daraus resultierenden Interaktionen mit Seiten eher differenziert: „[Die sind] eher heterogen“ (TN2, AW24).

4.1.2 Ähnlichkeit von Eigenschaften

Im Rahmen der Interviews wurde mehrfach angemerkt, dass sich die Personen im eigenen Facebook Netzwerk hinsichtlich einiger Eigenschaften ähneln: „meine Facebook Freunde sind schon Leute aus meiner weiteren Peergroup“ (TN3, AW12).

Andere Studienteilnehmer betonten im Gegensatz dazu auch die Unterschiede der Eigenschaften von Mitgliedern des eigenen Facebook Netzwerks: „Aber bei Facebook ist man mit vielen Leuten befreundet, die vielleicht nicht zum engeren Kreis gehören. Auch generationsübergreifend“ (TN6, AW16).

4.1.3 Unwissenheit

Es gibt auch Befragte, die sich der Interessen sowie der Eigenschaften befreundeter Nutzer ihres Facebook Netzwerks nicht bewusst sind: „So genau weiß ich jetzt gar nicht, was denen bei Facebook gefällt. Um ehrlich zu sein, habe ich mich da noch nie so wirklich mit beschäftigt“ (TN13, AW18).

4.1.4 Bereitschaft zur Meinungsäußerung

Die Bereitschaft zur Äußerung der eigenen Meinung kann durch die erwartete Reaktion befreundeter Nutzer beeinflusst werden. Für einige der Befragten ist dabei die Zustimmung der Nutzer bedeutend und wird explizit berücksichtigt, bevor der eigenen Meinung Ausdruck verliehen wird: „Ja klar, möchte man immer gerne Zustimmung erfahren. (...) das liegt in der Natur des Menschen, dass man mit Zustimmung besser leben kann“ (TN9, AW24). „Das ist ja bei Social Media so, dass das relativ wichtig ist, was andere Leute darüber denken. Also schon, dass die Meinung der anderen mir da auch relativ wichtig ist“ (TN1, AW27). Für einige Nutzer gilt dies sowohl für eigene Beiträge, als auch für Beiträge, mit denen sie interagiert haben: „Bei Facebook (...), dass man in Form von mehreren Likes dann sieht, dass einige Leute genau so denken und irgendetwas genau so witzig finden, wie man selber. Dann ist das immer ganz schön“ (TN9, AW24).

Für einige Facebook Nutzer ist die Zustimmung anderer Nutzer nur unter bestimmten Umständen wichtig. Zum Beispiel wird zwischen Interaktionen mit Beiträgen von Seiten, bzw. mit Beiträgen von befreundeten Nutzern unterschieden: „könnte (...) sein, (...) dass ich eher dann kommentiere, wenn ich denke, dass das andere auch so sehen und ich nicht damit rechnen muss, (...), dass jetzt total Antikommentare darauf folgen. (...) Wobei ich jetzt bei Freunden, (...) auch was anderes schreiben würde, wenn ich anderer Meinung bin, als bei Seiten“ (TN4, AW24). Wie bereits von Gearhart/Zhang (2014) festgestellt wurde, bedingt offenbar die Wichtigkeit eines Themas, welche Bedeutung der erwarteten Zustimmung beigemessen wird: „Das ist schon schön, wenn andere auch meiner Meinung sind und mich unterstützen, aber ich würde jetzt nicht etwas kommentieren nur so um Zustimmung zu erhalten. Ich sage meine Meinung schon, wenn es mir wichtig ist, da interessiert mich die Zustimmung anderer nicht unbedingt so“ (TN13, AW22).

Schließlich ist anzumerken, dass keine der befragten Personen die Zustimmung befreundeter Nutzer als komplett unwichtig eingestuft hat. So werden die Ergebnisse der Literaturauswertung unterstützt, die vermuten lassen, dass Nutzer ihre Meinung vor allem dann äußern, wenn sie erwarten, dass eine Mehrheit mit ihnen übereinstimmt (u.a. Gearhart/Zhang 2014; Zollo et al. 2015). Inwiefern hier eine Differenzierung zwischen dem eigenen digitalen Freundeskreis, dem erweiterten Netzwerk inklusive Multiplikatoren sowie unbeteiligten Dritten vorgenommen werden kann, lässt sich auf Grundlage des vorhandenen Materials nicht beurteilen.

4.2 Interaktion mit Beiträgen

Aus dieser Oberkategorie ergeben sich aus der Literaturanalyse ebenfalls keine eigenen Zwischenkategorien. Daher wurden die nachfolgenden Unterkategorien direkt induktiv am Material hergeleitet: Interesse, Übereinstimmung, Wichtigkeit des Themas und Außendarstellung.

4.2.1 Interesse

Viele Interviewteilnehmer gaben als Grund für die Interaktion mit Beiträgen – also etwa das Klicken eines Links, das Liken oder das Kommentieren – das persönliche Interesse an diesen an: „wenn es für mich eine Sache ist, die mich einfach nicht interessiert, dann sehe ich auch keinen Anlass mich weiter mit der Sache zu befassen (...). Letztendlich ist der Newsfeed für mich ja etwas, wo ich sehen will, was mich genau interessiert“ (TN1, AW19).

4.2.2 Übereinstimmung

Die in der Literatur vorherrschende Meinung (u.a. Del Vicario et al. 2015; Zollo et al. 2015; Warner/Neville-Shephard 2011), nach der Teilnehmer vor allem mit solchen Beiträgen interagieren, welche ihre eigene Meinung bestätigen, wird durch die Interviewteilnehmer bekräftigt: „[Ich interagiere eher mit Beiträgen], wenn ich übereinstimme, ja, wenn nicht, dann würde ich eher sagen, wird es ignoriert“ (TN3, AW23). Dabei wird die mögliche Interaktion mit einem Beitrag auch durch die technische Funktionalität von Facebook determiniert: „Also, ‘gefällt mir nicht’ gibt es nicht. Also allein deswegen [interagiere ich mit Beiträgen] natürlich immer schon eher, (...) [wenn] ich übereinstimme“ (TN10, AW18). Dies geschieht offenbar auch, da einige Nutzer versuchen mögliche Konflikte zu vermeiden: „[Ich interagiere eher mit Beiträgen], wenn ich mit denen übereinstimme. [Das] ist ja auch [dem] gezollt, dass ich mit den Leuten ja auch keinen Streit haben möchte“ (TN11, AW18).

Diese Vermeidungsstrategie kann auch extreme Formen annehmen, welche die tatsächliche Struktur des eigenen Facebook Netzwerks beeinflussen können und es homogener werden lassen, was bisherige Analysen zur Dissonanztheorie bestätigt (u.a. Festinger 1962; Garrett 2009; Garrett/Resnick 2011): „Ich habe zum Beispiel einige Freunde gelöscht, weil die immer nur negative Beiträge über die Flüchtlingskrise gepostet haben und das hat mir nicht gefallen und das will ich auch nicht so täglich sehen, da habe ich nämlich eine andere Meinung zu“ (TN13, AW20).

4.2.3 Wichtigkeit des Themas

Sofern ein subjektiv relevanter Grund vorliegt, sind einige Teilnehmer jedoch eingeschränkt auch bereit, durch die Interaktion mit Beiträgen Konflikte auszulösen: „Kommt darauf an. Wenn mir das Thema wirklich wichtig ist, dann kommentiere ich meine Meinung. Auch wenn ich eine andere habe als derjenige, der den Beitrag verfasst hat. Oft habe ich aber auch keine Lust, mich da irgendwie groß zu streiten und ignoriere das dann einfach“ (TN13, AW20).

Den Gesprächsteilnehmern scheint durchaus bewusst, dass ihr Nutzungsverhalten eher konsensorientiert geprägt ist, und sie andere Meinungen teilweise aktiv ausblenden. Die dargestellten Antworten verdeutlichen dennoch ein zentrales Problem der Zusammenwirkung von „Selective Exposure“ und Algorithmus: Wenn Nutzer kaum mit Beiträgen interagieren, die sie nicht interessieren und Facebook wie dargestellt vor allem solche Beiträge als individuell relevant einstuft und anzeigt, die den jeweiligen Interessen der Nutzer entsprechen, kann dies eine Bildung von Filterblasen befördern.

Das vorliegende Material ermöglicht dabei keinen Rückschluss, ob Filterblasen zum grundsätzlichen Negieren der Existenz anderslautender Meinungen, beziehungsweise zu einer Radikalisierung von Meinungen führen. Umgekehrt lässt sich aufgrund der Ergebnisse allerdings auch nicht ableiten, inwiefern anderslautende Meinungen grundsätzlich respektiert werden.

4.2.4 Außendarstellung

Hinsichtlich der Interaktion mit Beiträgen, insbesondere bei der Markierung von Seiten mit „Gefällt mir“, wird durch Interviewteilnehmer angemerkt, dass die Möglichkeit der Wahrnehmung durch andere Netzwerkmitglieder wichtig wird: „Ich möchte nicht, dass Freunde denken, dass mir irgendetwas gefällt, was mir eigentlich gar nicht gefällt” (TN13, AW13). „Also ich möchte schon darauf achten, (...) dass (...) das was ich in meinem Newsfeed habe, mich gut darstellt und ich möchte auch nicht, dass andere Leute im Prinzip das [mit mir] in Verbindung bringen, wenn es (...) Sachen sind, mit denen ich mich einfach nicht identifiziere“ (TN3, AW16).

Dieses Verhalten kann sich auf die wahrgenommene Struktur des Netzwerks auswirken. Wenn vor allem mit Beiträgen interagiert wird, die einen vermeintlich vorteilhaften Eindruck vermitteln und die von anderen wahrscheinlich auch positiv bewertet werden, könnte dies Homogenisierungstendenzen innerhalb von Netzwerkstrukturen verstärken. An dieser Stelle sei angemerkt, dass Facebook nach Durchführung der Gespräche eine Reihe von weiteren Interaktionsoptionen eingeführt. So können Artikel nun auch mit den Emotionen Love, Haha, Wow, Traurig und Wütend bewertet werden. Inwieweit sich dies zukünftig auf die Auswahl und Interaktion von Beiträgen auswirkt, sollte Gegenstand weiterer Untersuchungen sein.

4.3 Anzeige von Beiträgen

Die dritte Oberkategorie wird auf Grundlage der Literatur in die Zwischenkategorien „Freunde“, „Seiten” und „Werbung“ untergliedert. Diese Zwischenkategorien und die dazugehörigen, induktiv am Material hergeleiteten Unterkategorien werden im Folgenden genauer betrachtet. Ziel dieser Betrachtung ist es, einen Überblick über die von Nutzern wahrgenommenen Facetten der Filterblase zu geben.

4.3.1 Freunde

Hinsichtlich der Anzeige von Beiträgen befreundeter Nutzer lassen sich die Aussagen der interviewten Personen in die Unterkategorien Interaktion, Gemeinsamkeiten, Inhalt und Unwissenheit einteilen.

4.3.2 Interaktion

Einige der Befragten sehen die eigene Interaktion mit anderen Nutzern als Grund dafür, dass deren Beiträge im Newsfeed angezeigt werden: „Ich glaube, die mit denen ich viel interagiere und auch irgendwie schreibe über den Messenger, das wird mehr angezeigt als die, mit denen ich jetzt schon ewig keinen Kontakt mehr hatte“ (TN4, AW3). „Ich habe hier die Vermutung (...), dass da eher Beiträge angezeigt werden [von engen Freunden], mit denen ich auch viel interagiere“ (TN6, AW2). „Wenn mich die nicht interessieren und ich nicht bei denen das Profil besuche, dass mir die Sachen auch nicht angezeigt werden, denke ich“ (TN9, AW2).

Andere Nutzer sehen die aktuelle Zahl der Interaktionen anderer Nutzer mit einem spezifischen Beitrag als ursächlich dafür, dass ihnen diese Beiträge angezeigt werden: „ein Thema (...), was kontinuierlich kommentiert wird oder gelikt wird oder weiter geteilt wird, (...) bleibt (...) aktuell“ (TN3, AW6). „Weil sie sich bei anderen User vielleicht (...) erhöhter Beliebtheit erfreuen“ (TN11, AW6).

4.3.3 Gemeinsamkeiten

Einige Teilnehmer vermuteten, dass von anderen, befreundeten Nutzern bevorzugt Beiträge im Newsfeed angezeigt werden, wenn zwischen den Nutzern Gemeinsamkeiten bestehen: „Ich kann mir gut vorstellen, dass [die Anzeige der Beiträge] damit zu tun hat, dass die einfach schauen, mit wem ich befreundet bin, was die für Interessen haben und was ich für Interessen habe und dass das auf irgendeine Art und Weise miteinander abgeglichen wird“ (TN1, AW3). „[Freunde], die ähnliches Userverhalten haben (...), dementsprechend eher angezeigt [werden]“ (TN11, AW8).

Die Wirkung von Gemeinsamkeiten zwischen Nutzern lässt sich anhand der Literatur nicht explizit bestätigen, allerdings sind bislang nicht alle Faktoren bekannt, nach denen der Algorithmus anzuzeigende Beiträge auswählt (Bucher 2012). Davon ausgehend, dass Nutzer sich wie beschrieben mittels „Selective Exposure“ bereits selbst beschränken, würde es die Vielfalt der verfügbaren Informationen zusätzlich begrenzen, wenn vermehrt Beiträge gezeigt werden, die vom Algorithmus auf Grundlage von Gemeinsamkeiten zwischen Nutzern als subjektiv inhaltlich relevant eingestuft werden.

4.3.4 Inhalt

Auch der Inhalt von Beiträgen wurde als möglicher Grund für das Anzeigen von Postings befreundeter Nutzer genannt: „Ich denke Facebook weiß, was ich gut finde und zeigt mir Dinge an, von denen sie wissen, dass ich das gut finde“ (TN4, AW13). Dies gilt aus Sicht mancher Interviewteilnehmer auch für die geographische Nähe als inhaltliches Relevanzkriterium: „[Beiträge zu] Veranstaltungen in Hamburg werden mir eher angezeigt, als die Veranstaltungen in Köln“ (TN2, AW5).

4.3.5 Unwissenheit

Einige der befragten Personen gaben an, bisher nicht bemerkt zu haben, dass einzelne Beiträge von befreundeten Nutzern gar nicht in ihrem Newsfeed angezeigt werden: „Das ist mir bewusst jetzt noch nicht aufgefallen“ (TN13, AW1). Zu den möglichen Gründen können sie auf Nachfrage keine Angaben machen: „Keine Ahnung. Habe ich mich noch nicht so mit beschäftigt“ (TN5, AW4), beziehungsweise „Nein, jetzt spontan nicht“ (TN7, AW6).

Die Aussagen der Teilnehmer unterstreichen die bereits in der Literatur skizzierte Unkenntnis (u.a. Eslami et al. 2015) über die Zusammensetzung des Newsfeeds. Auch wird anhand der Antworten deutlich, dass einige Teilnehmer möglichen Gründen eine geringe Relevanz geben. Allerdings scheinen die Gesprächspartner der Filterung von Beiträgen grundsätzlich auch nicht ablehnend gegenüber zu stehen, sondern diese eher zu begrüßen.

4.3.6 Seiten

Die Aussagen der Teilnehmer zur Anzeige von Seiten-Beiträgen lassen sich ebenfalls in Unterkategorien einteilen: Interaktion, Inhalt und Zeit.

4.3.7 Interaktion

Wie auch bei Beiträgen von Freunden nehmen einige Befragte wahr, dass vor allem Beiträge von solchen Seiten angezeigt werden, mit denen sie häufig interagieren: „jetzt, wo ich (...) mir [die Seite] wieder angeguckt habe und auch ab und zu ein Bild like, erscheint es auch wieder häufiger im Newsfeed“ (TN6, AW6). Auch aktuelle Interaktionen befreundeter Nutzer werden als relevant erachtet: „[Es wird angezeigt], weil dann viele Leute das kommentiert haben oder gelikt haben oder darunter dann ihre Glückwünsche gepostet haben“ (TN10, AW7).

Im Umkehrschluss würde dies bedeuten, dass Beiträge von Freunden und Seiten seltener angezeigt werden, wenn weniger mit den entsprechenden Accounts interagiert wird. So haben es bereits Pariser (2011) und Backstrom (2013) vermutet, beziehungsweise festgestellt. Ein Teilnehmer erklärt sich dies so: „Dass wahrscheinlich selektiert wird nach Reichweite und [man] dann die Leute nur begrenzt, die Fans sozusagen, erreichen [kann], wenn sie keinen Premium Account haben“ (TN2, AW 8). Jedoch nehmen nicht alle Gesprächspartner wahr, dass ihnen nicht alle Beiträge von Seiten angezeigt werden, denen sie folgen: „Ach doch. Ich habe das Gefühl, dass mir alle angezeigt werden“ (TN5, AW8). „Keine Ahnung. Ist mir so jetzt nichts aufgefallen dahingehend“ (TN8, AW8). Damit unterscheidet sich die Wahrnehmung der Nutzer hinsichtlich der Anzeige von Beiträgen offenbar zwischen Postings von befreundeten Nutzern und von Seiten, denen sie folgen.

4.3.8 Inhalt

Es wurde außerdem angegeben, dass eine Anzeige von Beiträgen wahrgenommen wird, die von Seiten stammen, denen die Teilnehmer eine persönliche Relevanz zuschreiben: „ich like die und die Sportseite, die und die Veranstaltungsseite, da klicke ich häufig drauf und wenn dann meine Freunde einen ähnlichen Bereich sich angucken oder liken, (...) und die [Seite] für mich auch relevant sein könnte und (...) daher im Newsfeed auch erscheint“ (TN6, AW9). Nach der Wahrnehmung dieses Teilnehmers findet also ein Abgleich des Inhalts der beteiligten Seite mit anderen Seiten statt, welche von den Nutzern mit „Gefällt mir“ markiert wurden.

4.3.9 Zeit

Zusätzlich wird die Zeit als Faktor für die Anzeige von Beiträgen einer Seite wahrgenommen. Dabei wird auf den Zeitpunkt hingewiesen, an dem eine Seite mit „Gefällt mir“ markiert wurde: „mir ist aufgefallen, dass die Beiträge, die mir angezeigt werden von Seiten, das sind Seiten, die ich jetzt irgendwie neu markiert habe. Aber Seiten, die ich schon länger habe, kann ich mich jetzt gerade nicht daran erinnern, dass da noch Sachen angezeigt werden“ (TN4, AW10).

4.3.10 Werbung

Aus dem Material lassen sich abschließend folgende Unterkategorien für die Zwischenkategorie „Werbung“ herleiten: Persönliche Informationen, Interessen auf Facebook, Nutzerverhalten im Internet sowie Facebook Netzwerk. Sie unterscheiden sich damit deutlich von den zuvor erläuterten Unterkategorien zur Anzeige von Beiträgen.

4.3.11 Persönliche Informationen

Einige der befragten Personen gehen davon aus, dass sie gesponserte Beiträge basierend auf ihren angegebenen persönlichen Informationen erhalten und ordnen diese Werbeanzeigen daher oft auch als relevant ein: „[Die Anzeige] hängt schon damit zusammen, welche Angaben ich über mich so bei Facebook gemacht habe. Die haben ja da schon eine Menge an Informationen, also wo ich herkomme, wo ich wohne, wie alt ich bin, was ich beruflich mache, solche Sachen“ (TN13, AW15). Dies bestätigt Hodis et al. (2015): Einige Social Media Nutzer sind sich bewusst, dass Werbung auf Facebook gezielt auf Basis der persönlichen Informationen geschaltet werden kann. Auf Nachfrage, ob die angezeigte Werbung eventuell überflüssig oder unwichtig ist, antwortet beispielsweise ein Gesprächsteilnehmer: „Meistens für mich relevant“ (TN2, AW19). Dennoch sind alle Interviewpartner sehr zurückhaltend, weitere persönliche Informationen mitzuteilen, um relevantere Werbung zu erhalten: „Nein, (...) weil ich ziemlich gut weiß, wie ich im Internet meine eigenen Informationen beschaffen kann“ (TN6, AW14). Die Reaktanz ist auch unabhängig davon, ob die aktuelle Werbung als relevant eingestuft wird oder nicht „Also ich persönlich, würde nicht noch mehr preisgeben und auch solche Sachen jetzt, wie (...) Orte teilen zum Beispiel, versuche ich zu vermeiden – eher weniger als mehr“ (TN10, AW14).

4.3.12 Interessen auf Facebook

Andere Nutzer vermuten, dass ihre getätigten Interaktionen sowie einmal angegebene Präferenzen die im Newsfeed erscheinende Werbung beeinflussen: „[Nutzer bekommen unterschiedliche Werbung angezeigt,] weil die ja wahrscheinlich andere Präferenzen angegeben haben (...) und dadurch dann auch eher diese personalisierte Werbung bekommen“ (TN2, AW23). Dabei werden die „Gefällt mir“-Angaben bei Facebook thematisiert: „Weil (...) im Prinzip das analysiert wird, was die Person selber halt für sich als interessant erachtet, was die likt und darauf wird die Werbung angepasst” (TN3, AW21).

4.3.13 Nutzerverhalten im Internet

Als weiterer Grund des Anzeigens von spezifischer Werbung wird das Onlineverhalten außerhalb von Facebook durch Interviewteilnehmer thematisiert: „Bei der Werbung ist das manchmal so, habe ich gestern was gegoogelt und heute ist es da“ (TN5, AW18). „Ich habe mir Winterjacken [im Internet] angeguckt, dann wurden mir halt irgendwie so Modeseiten mit Winterjacken oder so [auf Facebook] angezeigt“ (TN11, AW13).

4.3.14 Facebook Netzwerk

Ebenfalls wird angesprochen, dass die Werbung in Form von gesponserten Beiträgen direkt durch das soziale Netzwerk eines Nutzers beeinflusst wird, indem gesponserte Beiträge von Fanseiten angezeigt werden, die befreundete Facebook Nutzer mit „Gefällt mir“ markiert haben: „meistens sind [es] schon, (...) relevante Dinge auch von Fanseiten (...), oder Seiten, die vielen meiner Freunde gefallen, die werden dann angezeigt und ich meine, das sieht man dann immer an dem „Gesponsert“ Ding (...). Aber es sind eigentlich immer Sachen, (...) mit denen ich über das nähere Umfeld verbunden bin“ (TN9, AW13).

5 Fazit

Die vorliegende Arbeit diskutierte verschiedene Aspekte von Filterblasen in digitalen sozialen Medien. Ziel dieser Untersuchung war es in Erfahrung zu bringen, ob nutzende Personen wissen, dass die ihnen auf Facebook dargebotenen Informationen gefiltert sind und dies eine individuelle Einschränkung der Informationsvielfalt bedeutet. Weiterhin sollte untersucht werden, ob sich Nutzer die Entstehung dieser Einschränkung erklären können und wie sie darauf reagieren. Als Methodik wurde ein qualitativer Befragungsansatz gewählt. Insgesamt 13 Tiefeninterviews wurden auf Grundlage eines Leitfadens geführt und mittels einer inhaltlich-strukturierenden qualitativen Inhaltsanalyse ausgewertet. Die persönlichen Erfahrungen der Gesprächspartner geben tiefere Einblicke in das Wissen um die gefilterte Darstellung von Inhalten sowie zur Entstehung von Filterblasen. Darüber hinaus wurden neue mögliche Wirkungen und wechselseitige Einflüsse der einzelnen Aspekte von Filterblasen herausgearbeitet.

Einige der bisher in der Literatur vorliegenden Annahmen und Analysen konnten durch die Aussagen der Teilnehmer bestätigen werden. Dazu zählt insbesondere die Erkenntnis, dass sowohl der Aufbau individueller Netzwerke und die Interaktion mit Beiträgen, wie auch der Algorithmus die Vielfalt der individuell verfügbaren Information beeinflussen. Allerdings geben die gewonnenen Aussagen der Gesprächspartner auch Grundlage, um bisherige Annahmen zu hinterfragen. So geben einige Gesprächsteilnehmer an, auf Facebook mit Personen befreundet zu sein, die abweichende Eigenschaften und Interessen haben. Der häufig unkritisch übernommene Grundgedanke der zunehmenden Homogenität von Netzwerken sollte daher zukünftig zumindest hinterfragt werden.

Wahrnehmung und Wissen der Studienteilnehmer hinsichtlich der Entstehungsgründe sowie der Effekte von Filterblasen unterscheiden sich insgesamt beträchtlich. Einige Teilnehmer sind sich einer algorithmischen Filterung der angezeigten Beiträge überhaupt nicht bewusst, was die Erkenntnisse von Eslami et. al. (2015) bestätigt. Ähnlich wie Rader und Gray (2015) darlegen, vermuten andere Nutzer dagegen den Einsatz komplexer technischer Filtermechanismen. So geben zwölf von dreizehn Gesprächspartnern an, dass sie hinsichtlich der Beiträge befreundeter Nutzer bemerkt haben, dass ihnen nicht alle Beiträge angezeigt werden. Hinsichtlich der Beiträge von abonnierten Seiten wollen dies nur noch acht Interviewteilnehmer festgestellt haben. Erklärungsansätze für die eingeschränkte Darstellung von Inhalten im Newsfeed haben elf von dreizehn Teilnehmern (für Beiträge von Freunden), beziehungsweise zehn von dreizehn Gesprächspartnern (für Beiträge von Seiten). Als mögliche Ursache werden zumeist persönliche Interessen sowie das eigene Nutzerverhalten genannt, wobei die Aussagen in der Regel auf unbestätigten Vermutungen beruhen. Kein Teilnehmer bezieht sich bei seinen Antworten auf konkretes Wissen über die algorithmische Filterung mit den hier geschilderten Facetten.

Eine grundsätzliche, wenn auch vage Kenntnis der Filtermechanismen scheint jedoch bei der überwiegenden Zahl der Interviewteilnehmer vorhanden zu sein. Dennoch unternehmen die befragten Facebook Nutzer keine Anstrengungen, um den Effekten entgegenzuwirken, wie beispielsweise dem zusätzlichen Folgen von Seiten, die eine andere Meinung präsentieren. Im Gegenteil: die befragten Personen befürchten Imageverluste im Freundeskreis, wenn sie den „falschen“ Seiten folgen (TN4), oder lehnen es grundsätzlich ab, Seiten zu folgen, die nicht ihren Interessen entsprechen (u.a. TN5, TN7). Für Seiten kann dies bedeuten, dass sie von Nutzern nur dann mit „Gefällt mir“ markiert werden, wenn eine hohe Zustimmung im eigenen Netzwerk als gegeben vermutet wird. Die vorliegende Untersuchung bestätigt damit auch die bisherige Erkenntnis (u.a. Gearhart/Zhang 2014; Zollo et al. 2015), dass Nutzern die Zustimmung von Mitgliedern ihres Netzwerks wichtig ist.

Eine Vielzahl von Faktoren entscheidet schließlich, welche Beiträge vom Algorithmus als relevant eingestuft werden und so im Newsfeed der Nutzer angezeigt werden. Insbesondere die Interaktion mit Beiträgen von Nutzern und Seiten konnte sowohl in der Literatur als auch durch die geführten Interviews als bestimmender Faktor herausgearbeitet werden. Im Rahmen der geführten Gespräche bestätigten die Teilnehmer vorherrschende Annahmen, dass nicht alle Beiträge von Nutzern und Seiten angezeigt werden, mit denen man befreundet ist beziehungsweise denen man folgt, und vermuteten mangelnde Interaktionen ihrerseits oder der anderen Nutzer als Ursache.

Selbst wenn Personen sich also auf Facebook mit Menschen befreunden, die andere Meinungen und Interessen vertreten, so bestätigen die Aussagen der Interviewteilnehmer, dass die Funktionsweise von Facebook dazu führen kann, dass ihnen (im Zeitverlauf) ein homogenes Bild von Meinungen und Interessen im individuellen Newsfeed angezeigt wird. Das extreme Verhalten einzelner Nutzer, wie dem geschilderten Löschen von Facebook Freunden (TN13, AW20), befördert diese Entwicklung. Damit findet die Annahme von Pariser (2011) Unterstützung, dass Filterblasen in digitalen sozialen Medien entstehen können. Filterblasen können demnach auch als individualisierte, digitalisierte Lebensrealitäten beschrieben werden. In eben solchen Filterblasen können Personen nach Schweiger (2017) aber kaum zu wahrhaft „mündigen Bürgern“ werden. Die in dieser Arbeit aufgezeigten Erkenntnisse deuten darauf hin, dass soziale Medien wie Facebook und die hierin verwendeten Algorithmen zumindest bei einigen Nutzerschichten zu einer neuen Art von Unmündigkeit führen können. Zu diskutieren ist allerdings, inwiefern diese Unmündigkeit selbst- oder fremdverschuldet entsteht.

Digitale soziale Medien bieten eine Vielzahl von neuen Möglichkeiten zum Konsum sowie zur Weitergabe von Informationen. Die aufgezeigten Auswirkungen der Filterblase und die eingeschränkte Kenntnis der Nutzer hinsichtlich der daraus resultierenden Auswirkungen von Nutzerverhalten und Algorithmus werfen daher einige Implikationen für die Praxis sowie Fragen für die weitere Forschung auf. Aus Sicht der professionellen Social Media Kommunikation sind vor allem Implikationen für die Verbreitung von Informationen, insbesondere von Werbung, zu beachten. Facebook und ähnliche digitale soziale Medien fungieren als neue Gatekeeper. Wenn Filterblasen dazu führen, dass Nutzern nicht automatisch alle Beiträge angezeigt werden, die sie eventuell sehen wollen, müssen sich Social Media Manager entsprechend darauf einstellen und Strategien entwickeln, um Filterblasen zu durchbrechen. Andererseits können die Effekte der Filterblase auch vorteilhaft sein. So können beispielsweise personalisierende Maßnahmen getroffen werden, welche die Homogenität der digitalen sozialen Netzwerke berücksichtigen und von den Präferenzen des Netzwerks auf die Präferenzen der Nutzer schließen lassen, um relevantere Inhalte zu bewerben (Chung et al. 2015).

Qualitative Untersuchungen eignen sich, um Denkanstöße und Anregungen für die weitere Forschung zu geben (Lehmann/Winer 2017). Sie können zudem die Grundlage quantitativer Studien bilden (Mayer 2013). Diese Arbeit kann daher als Vorarbeit und damit als Ausgangspunkt weiterer Untersuchungen dienen und bei der Generierung von Forschungsfragen helfen. Es bietet sich an, das erarbeitete Kategoriensystem quantitativ zu überprüfen und mit einer entsprechend großen Stichprobe die Verallgemeinerung der hier durch einzelne Aussagen geschilderten Wahrnehmungen hinsichtlich der Facetten von Filterblasen auch statistisch zu validieren.

Zuiderveen Borgesius et al. (2016) argumentieren, dass Filterblasen keinen Anlass zur Sorge bieten, da die Technologie bislang nicht ausgereift sei. Dem widerspricht Schweiger (2017), der die grundlegenden, entstehenden Probleme, wie die Verstärkung individueller Einstellungen und die einhergehende Polarisierung der Gesellschaft, als längerfristige Erscheinung mit zunehmender Brisanz beschreibt. Die vorliegende Untersuchung unterstützt die Annahme solcher Entwicklungen. Bislang existieren jedoch kaum empirische Erkenntnisse über die Langzeiteffekte der Personalisierung von Inhalten durch algorithmische Filterung (Van Hoboken 2012). Die zukünftige Forschung sollte dies entsprechend berücksichtigen.

Darüber hinaus bedarf es weiterer Untersuchungen wie die unterschiedlichen Auswirkungen und Effekte der Filterblase durch Nutzer digitaler sozialer Medien bewertet werden. Die Antworten der Interviewteilnehmer lassen vermuten, dass verschiedene Nutzerschichten unterschiedlich stark betroffen sein könnten. Beispielsweise wirft Tufekci (2015) die Frage auf, ob politische aktive Facebook Nutzer eine größere Informationsvielfalt angezeigt bekommen als gewöhnliche Nutzer der Plattform. Dabei fokussieren bisherige Studien zu politischen Einflüssen von Filterblasen die USA mit ihrem Zwei-Parteien-System. In einem Mehrparteien-System können die geschilderten Effekte wiederum andere Auswirkungen haben, was Gegenstand zukünftiger Betrachtungen sein sollte. Demographische Kriterien, politische Einstellungen sowie weitere Charakteristika könnten zudem hinsichtlich der Eignung als Prognosefaktoren des Nutzerverhaltens untersucht werden.

Porten-Chée und Eilders (2015) befürchten eine Einschränkung gesellschaftlicher Diskussionen durch den zunehmend personalisierten Medienkonsum. Eine Transparenz algorithmischer Filterung wird daher immer relevanter, je weiter sich die Software entwickelt (Diakopoulos 2015), zumal der Anteil von Social Media Nutzern wächst, die ihre Nachrichten vor allem über Facebook beziehen (Gottfried/Shearer 2016). Vor dem Hintergrund des zunehmenden Einflusses von Algorithmen in einer Welt der medialen Überstimulation, und der einhergehenden stetigen Gefahr der Bildung von Filterblasen, sollte auch betrachtet werden, ob die heutigen Nutzer digitaler sozialer Medien früher andere Kanäle für den Informationskonsum genutzt haben, beziehungsweise heute zusätzlich zu Netzwerkplattformen weiterhin traditionelle Medien nutzen. Eine entsprechende Medienkompetenz, fundiert durch empirisch validiertes Wissen über die Funktionsweise digitaler sozialer Medien und den skizzierten Einschränkungen durch Algorithmen und Filterblasen, wird demnach zunehmend wichtiger. Dabei scheint auch eine offene Diskussion über mediale Standards angebracht, vergleichbar zur Debatte um den Pressekodex Anfang des 20. Jahrhunderts.

Literatur

Aghamanoukjan, Anahd, Renate Buber und Michael Meyer, 2007, Qualitative Interviews. S. 415-436, in: Renate Buber und Hartmut H. Holzmüller (Hg.): Qualitative Marktforschung – Konzepte – Methoden – Analysen. Wiesbaden. Gabler.

Backstrom, Lars, 2013, News Feed FYI: A Window into News Feed, Online-Publikation: https://www.facebook.com/business/news/News-Feed-FYI-A-Window-Into-News-Feed. (Stand: 30.08.2016).

Bakshy, Eytan, Itamar Rosenn, Cameron Marlow und Lada Adamic, 2012, The Role of Social Networks in Information Diffusion, S. 519-528, in: Proceedings of the 21st International Conference on World Wide Web. New York. ACM Press.

Bakshy, Eytan, Solomon Messing und Lada A. Adamic, 2015, Exposure to Ideologically Diverse News and Opinion on Facebook, Science 348 (6239): 1130-1132.

Barocas, Solon, Sophie Hood und Malte Ziewitz, 2013, Governing Algorithms: A Provocation Piece. Online-Publikation: https://ssrn.com/abstract=2245322. (Stand: 10.4.2017).

Bortz, Jürgen und Nicola Döring, 2006, Forschungsmethoden und Evaluation für Human-und Sozialwissenschaftler, 4. überarbeitete Auflage. Heidelberg. Springer.

Bucher, Taina, 2012, Want to Be on the Top? The Algorithmic Power and the Threat of Invisibility on Facebook, New Media and Society 14 (7): 1164-1180.

Bucher, Taina, 2017, The Algorithmic Imaginary: Exploring the Ordinary Affects of Facebook Algorithms, Information, Communication & Society 20 (1), 30-44.

Cheney-Lippold, John, 2011, A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control, Theory, Culture and Society 28 (6): 164-181.

Chung, Tuck S., Michel Wedel und Roland T. Rust, 2015, Adaptive Personalization Using Social Networks, Journal of the Academy of Marketing Science 44 (1): 66-87.

DeVito, Michael A., 2016, From Editors to Algorithms. A Values-Based Approach to Understanding Story Selection in the Facebook News Feed. Digital Journalism, Online First, DOI: 10.1080/ 21670811.2016.1178592. (Stand: 7.4.2017).

Del Vicario, Michela, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley und Walter Quattrociocchi, 2016, The Spreading of Misinformation online, PNAS 113 (3): 554-559.

Diakopoulos, Nicholas, 2015, Algorithmic accountability. Journalistic investigation of Computational Power Structures. Digital Journalism 3 (3): 398-415.

Eulenstein, Max, 2014, News Feed FYI: Listening to People’s Feedback to Show Better Ads. Online-Publikation: http://newsroom.fb.com/news/2014/09/news-feed-fyi-listening-to-peoples-feedback-to-show-better-ads. (Stand: 30.08.2016).

Eslami, Motahhare, Aimee Rickman, Kristen Vaccaro, Amirhossein Aleyasen, Andy Vuong, Karrie Karahalios, Kevin Hamilton und Christian Sandvig, 2015. "I always assumed that I wasn't really that close to [her]“: reasoning about invisible Algorithms in the News Feed. S. 153-162, in: Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems. New York. ACM Press.

Festinger, Leon, 1962, A Theory of Cognitive Dissonance, 2. Auflage. Stanford. Stanford University Press.

Facebook, 2016, Facebook Reports Second Quarter 2016 Results. Online-Publikation: https://investor.fb.com/investor-news/press-release-details/2016/Facebook-Reports-Second-Quarter-2016-Results/default.aspx. (Stand: 10.9.2016).

Flaxman, Seth, Sharad Goel und Justin M. Rao, 2016, Filter Bubbles, Echo Chambers, and Online News Consumption, Public Opinion Quarterly 80 (S1): 298-320.

Frost, Peter, Bridgette Casey, Kaydee Griffin, Luis Raymundo, Christopher Farrell und Ryan Carrigan, 2015, The Influence of Confirmation Bias on Memory and Source Monitoring, The Journal Of General Psychology 142 (4): 238-252.

Garrett, R. Kelly, 2009, Echo Chambers Online?: Politically Motivated Selective Exposure Among Internet News Users, Journal of Computer-Mediated Communication 14: 265-285.

Garrett, R. Kelly und Paul Resnick, 2011, Resisting Political Fragmentation on the Internet, Daedalus 140 (4): 108-120.

Garrett, R. Kelly, Dustin Carnahan und Emily K. Lynch, 2013, A Turn Toward Avoidance? Selective Exposure to Online Political Information, 2004-2008, Political Behavior 35 (1): 113-134.

Gearhart, Sherice und Weiwu Zhang, 2014, Gay Bullying and Online Opinion Expression: Testing Spiral of Silence in the Social Media Environment, Social Science Computer Review 32 (1): 18-36.

Gillespie, Tarleton, 2014, The Relevance of Algorithms. S. 167-194, in: Tarleton Gillespie, Pablo Boczkowski und Kirsten Foot (Hg.): Media Technologies: Essays on Communication, Materiality, and Society. Cambridge, MA. MIT Press.

Glaser, Barney G. und Anselm L. Strauss, 1965, Discovery of Substantive Theory: A Basic Strategy Underlying Qualitative Research, American Behavioral Scientist, 8 (6): 5-12.

Goel, Sharad, Winter Mason und Duncan J. Watts, 2010, Real and Perceived Attitude Agreement in Social Networks, Journal of Personality and Social Psychology 99 (4): 611-621.

Gottfried, Jeffrey und Elisa Shearer, 2016, News use across Social Media Platforms 2016, Pew Research Center, 26.5.2016. Online-Publikation: http://www.journalism.org/2016/05/26/news-use-across-social-media-platforms-2016. (Stand 10.4.2017).

Granovetter, Mark S., 1973, The Strengths of Weak Ties, American Journal of Sociology 78 (6): 1360-1380.

Hamilton, Kevin, Karrie Karahalios, Christian Sandvig und Motahhare Eslami, 2014, A Path to Understanding the Effects of Algorithm Awareness. S. 631-642, in: CHI'14 Extended Abstracts on Human Factors in Computing Systems. New York. ACM Press.

Hodis, Monica Alexandra, Rajendran Sriramachandramurthy und Hemat C. Sashittal, 2015, Interact With me on my Terms: A Four Segment Facebook Engagement Framework for Marketers, Journal of Marketing Management 31 (12): 1255-1284.

Höld, Regina, 2007, Zur Transkription von Audiodaten. S. 655-668, in: Renate Buber und Hartmut H. Holzmüller (Hg.): Qualitative Marktforschung – Konzepte – Methoden – Analysen. Wiesbaden. Gabler.

Humphreys, Ashlee, 2016, Social Media: Enduring Principles. Oxford. Oxford University Press.

Introna, Lucas D., 2016, Algorithms, Governance, and Governmentality: On Governing Academic Writing, Science, Technology & Human Values 4 (1): 17-49.

Lehmann, Donald R. und Russell S. Winer, 2017, The Role and Impact of Reviewers on the Marketing Discipline, Journal of the Academy of Marketing Science 45: 1-6.

Knobloch-Westerwick, Silvia und Jingbo Meng, 2011, Reinforcement of the Political Self Through Selective Exposure to Political Messages, Journal of Communication 61: 349-368.

Kossinets, Gueorgie und Duncan J. Watts, 2009, Origins of Homophily in an Evolving Social Network, American Journal of Sociology 115: 405-450.

Kramer, Adam D. I., Jamie D. Guillory und Jeffrey Hancock, 2014, Experimental Evidence of Massive Scale Emotional Contagion Through Social Networks, Proceedings of the National Academy of Sciences USA 111 (29): 8788-8790.

Kuckartz, Udo, 2014, Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung, 2. durchgesehene Auflage. Weinheim. Beltz Juventa.

Lamnek, Siegfried, 2010, Qualitative Sozialforschung – Lehrbuch, 5. Auflage. Weinheim. Beltz.

Mayer, Horst O., 2013, Interview und schriftliche Befragung. Grundlagen und Methoden empirischer Sozialforschung. Berlin. Oldenbourg.

Mayring, Philipp, 2000, Qualitative Inhaltsanalyse, Forum Qualitative Sozialforschung 1 (2). Online-Publikation: http://www.qualitative-research.net/index.php/fqs/article/view/1089/2383. (Stand: 02.9.2016).

Mayring, Philipp, 2015, Qualitative Inhaltsanalyse – Grundlagen und Techniken, 12. überarbeitete Auflage. Weinheim. Beltz.

Messing, Solomon und Sean J. Westwood, 2012, Selective Exposure in the Age of Social Media: Endorsements Trump Partisan Source Affiliation When Selecting News Online, Communication Research 41 (8): 1042-1063.

Pariser, Eli, 2011, The Filter Bubble: What the Internet is Hiding From You. New York. Penguin.

Porten-Cheé, Pablo und Christiane Eilders, 2015, Spiral of Silence Online: How Online Communication Affects Opinion Climate Perception and Opinion Expression Regarding the Climate Change Debate, Studies in Communication Sciences 15: 143-150.

Rader, Emilee und Rebecca Gray, 2015, Understanding User Beliefs about Algorithmic Curation in the Facebook News Feed. S. 173-182, in: Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems. New York. ACM Press.

Resnick, Paul, Kelly R. Garrett, Travis Kriplean, Sean A. Munson und Natalie Stroud, 2013, Bursting Your (Filter) Bubble: Strategies for Promoting Diverse Exposure. S. 95-100, in: Proceedings of the 2013 Conference on Computer Supported Cooperative Work. New York. ACM Press.

Schmidt, Jan-Hinrik, 2013, Social Media. Wiesbaden. Springer VS.

Schweiger, Wolfgang, 2017, Der (des-)informierte Bürger im Netz: Wie soziale Medien die Meinungsbildung verändern. Wiesbaden. Springer VS.

Sears, David O. und Jonathan L. Freedman, 1967, Selective Exposure to Information: A Critical Review, Public Opinion Quarterly 31: 194-213.

Srnka, Katharina J., 2007, Hypothesen und Vorwissen im qualitativen Forschungsprozess. S. 159-172, in: Renate Buber und Hartmut H. Holzmüller (Hg.), Qualitative Marktforschung – Konzepte – Methoden – Analysen. Wiesbaden. Gabler.

Stroud, Natalie J., 2008, Media Use and Political Predisposition: Revisiting the Concept of Selective Exposure, Political Behavior 30: 341-366.

Tucker, Catherine E., 2014, Social Networks, Personalized Advertising, and Privacy Controls, Journal of Marketing Research, 51 (5): 546-562.

Tufekci, Zeynep, 2015, Algorithmic Harms Beyond Facebook and Google: Emergent Challenges of Computational Agency, Colorado Technology Law Journal on Telecommunication & High Tech 12: 203-216.

Van Hoboken, Joris Vredy Jan, 2012, Search Engine Freedom: On the Implication of the Right to Freedom, of Expression for the legal Governance of Search Engines. Alphen aan den Rijn. Kluwer Law International.

Vor dem Esche, Jonas und Thorsten Hennig-Thurau, 2014, German Digitalization Consumer Report, Digitalization Think Lab, Marketing Center Münster, Roland Berger Strategy Consultants.

Wallace, Elaine, Isabel Buil und Leslie de Chernatony, 2012, Facebook Friendship and Brand Advocacy, Journal of Brand Management 20 (2): 128-146.

Warner, Benjamin R. und Ryan Neville-Shephard, 2011, The Polarizing Influence of Fragmented Media: Lessons from Howard Dean, Atlantic Journal of Communications 19 (4): 201-215.

Yu, Ansha und Sami Tas, 2015, News Feed FYI: Taking Into Account Time Spent on Stories. Online-Publikation: http://newsroom.fb.com/news/2015/06/news-feed-fyi-taking-into-account-time-spent-on-stories. (Stand: 30.8.2016).

Zuiderveen Borgesius, Frederik J., Damian Trilling, Judith Moeller, Balázs Bodó, Claes H. de Vreese und Natali Helberger, 2016, Should We Worry About Filter Bubbles?, Internet Policy Review. Journal on Internet Regulation 5 (1). Online-Publikation: https://policyreview.info/articles/analysis/should-we-worry-about-filter-bubbles. (Stand 10.4.2017).

Zollo, Fabiana, Alessandro Bessi, Michela Del Vicario, Antonio Scala, Guido Caldarelli, Louis Shekhtman, Shlomo Havlin und Walter Quattrociocchi, 2015, Debunking in a World of Tribes. Online verfügbar: http://arxiv.org/pdf/1510.04267v1.pdf. (Stand: 26.8.2016).

Anhang 1: Interviewleitfaden

Datum: (vom Interviewer eingetragen)

Geschlecht: (vom Interviewer eingetragen)

Alter:

Höchster Bildungsabschluss:

Haushaltsbruttoeinkommen (in 500er Schritten):

Nutzer folgender sozialer Medien:

  • Whatsapp
  • Facebook
  • Snapchat
  • Twitter
  • Instagram
  • Xing
  • Linkedin
  • Pinterest

Derzeitige Beschäftigung:

1. Haben Sie das Gefühl manchmal werden Ihnen Beiträge von befreundeten Facebook Nutzern nicht in Ihrem Newsfeed angezeigt?

i. Wenn ja, woran glauben Sie könnte es liegen, dass bestimmte Beiträge angezeigt werden und andere nicht?

2. Glauben Sie, dass Ihnen manchmal Aktionen befreundeter Facebook Nutzer, wie das Kommentieren oder das Markieren eines Beitrags mit „Gefällt mir“, nicht im Newsfeed angezeigt werden?

i. Wenn ja, woran glauben Sie könnte es liegen, dass bestimmte Aktionen angezeigt werden und andere nicht?

3. Ist Ihnen schon einmal aufgefallen, dass ältere Beiträge von befreundeten Facebook Nutzern bei Ihnen im Newsfeed angezeigt worden sind?

i. Wenn ja, woran glauben Sie könnte es liegen, dass bestimmte Beiträge erneut angezeigt werden und andere nicht?

4. Haben Sie das Gefühl manchmal werden Ihnen Beiträge von Seiten, die Sie mit „gefällt mir“ markiert haben, nicht im Facebook Newsfeed angezeigt?

i. Wenn ja, woran glauben Sie könnte es liegen, dass bestimmte Beiträge angezeigt werden und andere nicht?

5. Haben Sie schon einmal bemerkt, dass ältere Beiträge von Seiten, die Sie mit „gefällt mir“ markiert haben, im Newsfeed angezeigt worden sind?

i. Wenn ja, woran glauben Sie könnte es liegen, dass bestimmte Beiträge erneut angezeigt werden und andere nicht?

6. Werden Ihnen manchmal Beiträge von befreundeten Facebook Nutzern zu Themen angezeigt, die sie als überflüssig oder unwichtig erachten oder sind diese in der Regel für Sie relevant?

i. Wenn ja, woran glauben Sie könnte das liegen?

7. Werden Ihnen manchmal bei Facebook Beiträge von Seiten, die Sie mit „Gefällt mir“ markiert haben, zu Themen angezeigt, die sie als überflüssig oder unwichtig erachten oder sind diese in der Regel für Sie relevant?

i. Wenn ja, woran glauben Sie könnte das liegen?

8. Markieren Sie auch Seiten mit „Gefällt mir“, obwohl Sie diesen nicht positiv gegenüber eingestellt sind um Informationen zu erhalten?

i. Wenn ja, warum?

ii. Wenn nein, warum nicht?

9. Werden Ihnen bei Facebook gesponserte Beiträge/gekaufte Werbung, zu Themen angezeigt, die sie als überflüssig oder unwichtig erachten oder sind diese meistens für Sie relevant?

i. Wenn ja, woran glauben Sie könnte das liegen?

ii. Wären Sie bereit Facebook mehr persönliche Informationen zur Verfügung zu stellen um für Sie relevantere Werbung zu erhalten?

10. Glauben Sie andere Nutzer sehen die gleichen Werbeanzeigen wie Sie?

i. Warum (nicht)?

11. Haben Sie das Gefühl Ihren Facebook Freunden gefallen überwiegend die gleichen Seiten wie Ihnen oder unterscheiden sich deren Präferenzen deutlich von Ihren Interessen?

12. Interagieren Sie überwiegend mit Seiten die sie mit „Gefällt mir“ markiert haben, zum Beispiel durch Kommentieren oder Markieren von Beiträgen der Seite mit „Gefällt mir“, wenn Sie mit diesen übereinstimmen oder nicht?

13. Interagieren Sie überwiegend mit befreundeten Facebook Nutzern, zum Beispiel durch Kommentieren oder Markieren von Beiträgen der Nutzer mit „Gefällt mir“, wenn Sie mit diesen übereinstimmen oder nicht?

14. Interagieren Sie überwiegend mit Seiten, die Sie mit „Gefällt mir“ mir markiert haben, zum Beispiel durch Kommentieren oder Markieren von Beiträgen der Seite mit „Gefällt mir“, wenn Sie glauben, dass Ihre Meinung auf Zustimmung trifft oder ist das für Sie unwichtig?

15. Interagieren Sie überwiegend mit befreundeten Facebook Nutzern, zum Beispiel durch Kommentieren oder Markieren von Beiträgen der Nutzer mit „Gefällt mir“, wenn Sie glauben, dass Ihre Meinung auf Zustimmung trifft oder ist das für Sie unwichtig?

Datenverfügbarkeit

Alle relevanten Daten befinden sich innerhalb der Veröffentlichung.

Interessenskonfliktstatement

Die Autor:innen erklären, dass ihre Forschung ohne kommerzielle oder finanzielle Beziehungen durchgeführt wurde, die als potentielle Interessenskonflikte ausgelegt werden können.

Downloads

Zitationen
2
3
2 citations recorded by Crossref
  
  1. Mener une enquête empirique sur la force policière excessive en Allemagne
    Laila Abdul-Rahman et al. (2021)
    Déviance et Société
    DOI: 10.3917/ds.453.0123

  2. Media Trust in a Digital World
    Katharina Klug et al. (2019)
    Déviance et Société
    DOI: 10.1007/978-3-030-30774-5_12

3 citations recorded by Semantic Scholar
  
  1. Mener une enquête empirique sur la force policière excessive en Allemagne
    Laila Abdul-Rahman et al. (2021)
    Déviance et Société
    DOI: 10.3917/ds.453.0123

  2. Die empirische Untersuchung von übermäßiger Polizeigewalt in Deutschland
    Laila Abdul-Rahman et al. (2019)
    DOI: 10.18716/OJS/KRIMOJ/2019.2.9

  3. The Filter Bubble in Social Media Communication: How Users Evaluate Personalized Information in the Facebook Newsfeed
    Katharina Klug et al. (2019)
    Media Trust in a Digital World
    DOI: 10.1007/978-3-030-30774-5_12

Metriken
Views/Downloads
  • Abstract
    627
  • HTML
    135
  • PDF
    574
Weitere Informationen

Erhalten

2016-11-01

Akzeptiert

2017-02-01

Veröffentlicht

2017-05-01