Algorithmen, Kommunikation und Gesellschaft

  • Jan-Hinrik Schmidt Leibniz-Institut für Medienforschung, Hans-Bredow-Institut
  • Katharina Kinder-Kurlanda Gesis Leibniz-Institut für Sozialwissenschaften
  • Nils Zurawski Universität Hamburg
  • Christian Stegbauer Goethe Universität Frankfurt am Main

DOI:

https://doi.org/10.15460/kommges.2017.18.2.589

Schlagworte:

Kommunikationsverhalten, Medienkompetenz, soziotechnisches System, computervermittelte Kommunikation, Meinungsbildung, Digitalisierung, Soziale Medien

Editorial

Die Durchdringung unserer Gesellschaft mit digitalen Technologien führt dazu, dass soziales Handeln in wachsendem Maße mit Algorithmen verschränkt ist, also mit Software-Prozeduren, die digitale Daten erheben, verarbeiten und ausgeben. Diese Entwicklung macht auch vor Kommunikation nicht halt: Algorithmische Medien bringen Kommunikationspartner zusammen und konstituieren Öffentlichkeiten; sie filtern Daten, Informationen und Inhalte, bündeln sie und verbreiten sie; sie machen Kommunikationsprozesse nachvollziehbar, durchsuchbar und überwachbar. Zugleich lassen sie die Grenzen zwischen den einstmals separaten Kommunikationsmodi der massenmedial-publizistischen Kommunikation und der interpersonalen Kommunikation verschwimmen und schaffen neue, hybride Modi. Verschiedene Akteure sind am Entstehen und der Instandhaltung algorithmischer Medien beteiligt, die oft Teil komplexer und global vernetzter technischer Systeme sind und gleichzeitig neue Formen der Mensch-Computer-Interaktion nahelegen, mit denen sich Akteure wiederum auf unterschiedliche Weise auseinandersetzen.

Während die Informatik eine lange Tradition der Entwicklung und Evaluation algorithmischer Medien hat, kommt die sozial- und kulturwissenschaftliche Reflexion dieser Entwicklungen erst langsam in Fahrt: Welche Auswirkungen hat eine durch Algorithmen geprägte Kommunikation auf gesellschaftliche Strukturen und alltägliche Praktiken? Inwiefern sind die Algorithmen, ihre Parameter und ihre Rolle in umfassenderen soziotechnischen Systemen selbst Ergebnis von sozialem, kommunikativem Handeln? Und mit welchen Methoden kann eine (breit verstandene) sozialwissenschaftliche Perspektive diese Phänomene und Prozesse untersuchen?

Vor diesem Hintergrund versammelt diese Sonderausgabe des interdisziplinären sozialwissenschaftlichen Online-Journals kommunikation@gesellschaft insgesamt zehn Beiträge, die sich – aus unterschiedlichen Disziplinen und mit unterschiedlichen theoretischen oder empirischen Zugängen – mit dem Themenkomplex „Algorithmen, Kommunikation, Gesellschaft” auseinandersetzen. Sie beginnt mit einem Essay von Jonathan Harth (Witten/Herdecke) und Caspar-Fridolin Lorenz (Berlin), die Überlegungen zu einer systemtheoretischen Soziologie des Algorithmus skizzieren. Ihre Auseinandersetzung mit den Beiträgen von Peter Fuchs, Elenita Esposito und Dirk Baecker dreht sich im Kern um die Frage, ob Algorithmen mittlerweile – oder in Zukunft – als dem Menschen gleichzustellende Kommunikationspartner theoretisiert werden sollten; dies ist nicht nur für den systemtheoretischen Diskurs relevant, sondern berührt auch andere Kommmunikations- und Gesellschaftstheorien, die den Status nicht-menschlicher Artefakte, Aktanten oder Assemblagen zu klären haben.

Die folgenden beiden Beiträge zeigen die Breite, in der Algorithmen mittlerweile gesellschaftliche Bereiche und Praktiken durchdringen. Christian Papsdorf und Sebastian Jakob (Chemnitz) berichten auf Grundlage von leitfadengestützen Gesprächen, wie Jugendliche und jungen Erwachsene „sozio-technische Systeme der Automatisierung einer anspruchsvollen gesellschaftlichen Tätigkeit oder Funktion“ (S. 4) – so das zugrundegelegte Verständnis von Algorithmen – in ihrem Alltag erleben, anhand welcher Kriterien sie diese bewerten, und wie sie insbesondere dem Risiko politischer oder wirtschaftlicher Überwachung begegnen. Auch Florian Saurwein (Wien), Natascha Just (East Lansing) und Michael Latzer (Zürich) fokussieren auf Risiken algorithmischer Prozesse, allerdings aus einer Governance-Perspektive. Sie systematisieren die Funktionen algorithmischer Selektion und identifizieren potentielle Nachteile bzw. Schäden, die individuell oder gesellschaftlich aus ihrem Einsatz erwachsen können. Die Bestandsaufnahme von existierenden Marktlösungen und Governance-Maßnahmen zeigt, dass manche Risiken (etwa im Zusammenhang mit Datenschutz) bereits durch unterschiedliche Ansätze oder komplexere Governance-Arrangements adressiert werden, andere Risiken wie etwa mögliche Effekte auf kognitive Fähigkeiten oder sinkende Nutzer-Souveränität hingegen noch nicht.

Eine der grundlegenden Annahmen dieser Sonderausgabe ist, dass Algorithmen erst als Bestandteil von sozialen Praktiken und organisatorischen Strukturen ihre Bedeutung entfalten. Drei Beiträge, die sich mit dem Wandel im Verhältnis von journalistisch-publizistischen Angeboten und deren Publikum befassen, den algorithmisch unterstützte Verdatung und Selektion auslöst, unterstützen und differenzieren diese Annahme. Florian Muhle und Josef Wehner (Bielefeld) untersuchen die „Publikumsvermessung im Internet“ anhand von Expert/innen-Interviews in publizistischen Redaktionen und bei Dienstleistern für Reichweitemessung. Die technisch möglich gemachte „Echtzeit-Beobachtung des Publikums“ (S. 19) verändert ihrer Analyse zufolge journalistische Routinen, stößt aber auch Reflexionen darüber an, wie das algorithmisch generierte Wissen über das eigene Publikum und seine Segmentierungen dazu beitragen kann, dem journalistischen Auftrag besser gerecht zu werden. Nikolaus Pöchhacker, Marcus Burkhardt, Andrea Geipel und Jan-Hendrik Passoth (München) berichten erste Befunde aus einem Projekt zur Entwicklung von Empfehlungs- und Personalisierungssystemen, das die Forscher/innen gemeinsam mit einem Team des Bayerischen Rundfunks durchführen. Die Kombination von techniksoziologischer Perspektive und ethnographischer Methode macht deutlich, dass algorithmische Systeme einerseits offen für Gestaltung und Kalibrierung sind, anderseits aber auch anschlussfähig an existierende (Infra-)Strukturen sein müssen, um überhaupt praktische Wirkung entfalten zu können. Juliane Lischka (Zürich) und Markus Werning (Hamburg) schließlich kombinieren Inhaltsanalysen und Leitfrageninterviews um den Einfluss zu rekonstruieren, den der NewsFeed-Algorithmus von Facebook auf die Themenauswahl von drei deutschen Regionalzeitungen hat. An die Seite der Publikumsorientierung, die immer schon Bestandteil journalistischer Arbeit war, ist demnach die „Algorithmusorientierung“ getreten, also das Einbeziehen (vermuteter) algorithmischer Kriterien für die Priorisierung von einzelnen Beiträgen. Damit lässt sich zum einen der der inhaltsanalytische Befund erklären, dass interaktionsstärkere Boulevardthemen bzw. Soft News auf Facebook einen höheren Anteil als auf den eigenen Webseiten der Zeitungen haben. Zum anderen zeigen die Interviews mit verantwortlichen Redakteur/innen aber, dass diese Strategien zur Reichweitensteigerung genutzt werden, um quasi „im Windschatten“ auf Facebook auch Hard News an das eigene Publikum zu verbreiten.

Zentrale Bezugspunkte in der gegenwärtigen Forschung zu „Algorithmen, Kommunikation und Gesellschaft“ sind die Konzepte der „Filterblase“ und der „Echokammer“. Beide verweisen auf Konsequenzen algorithmischer Selektion für gesellschaftliche Öffentlichkeit, die meist als problematisch oder gar dysfunktional eingeschätzt werden: Menschen könnten, so die These, die Vielfalt von Informationen und Meinungen nur noch eingeschränkt erleben, weil gerade soziale Medien Inhalte hochgradig personalisieren und Räume zur Verfügung stellen, in denen man sich vorrangig in seinen bestehenden Haltungen bestärken würde. Drei Beiträge dieser Sonderausgabe berichten hierzu empirische Befunde: Carsten Ovens (Hamburg) wertet leitfadengestützte Interviews mit Nutzer/innen von Facebook aus und zeigt auf dieser Grundlage, dass die Befragten algorithmische Selektion durchaus wahrnehmen. Weil sie aber meist nur spärliche Kenntnisse über die zugrundeliegenden Mechanismen und meist kein Interesse daran haben, gezielt anderen Quellen auf Facebook zu folgen, drohe sich eine gewisse informationelle Unmündigkeit zu verfestigen.

Auf die Bedeutung von Wissen und „algorithm awareness“ deuten auch zwei Forschungsnotizen hin, die aus dem BMBF-geförderten Projekt „Algorithmischer Strukturwandel der Öffentlichkeit“ stammen: Lutz Hagen, Anne-Marie In der Au und Mareike Wieland (Dresden) berichten Ergebnisse einer repräsentativen Befragung, denen zufolge die Nutzung sozialer Medien in Abhängigkeit vom Bildungsgrad einen starken Effekt auf die Meinung hat, die Menschen von Angela Merkels Flüchtlingspolitik vertreten: Bei Personen mit geringer formaler Bildung steigert die Nutzung sozialer Medien die Wahrscheinlichkeit, zu einem extremen (positiven oder negativen) Urteil zu kommen, während sie für Personen mit höherer formaler Bildung eher sinkt, d.h. die Nutzung sozialer Medien in diesem Fall eher zu gemäßigteren Positionen führt. Mareike Wieland und Anne-Marie In der Au zeigen in einer zweiten Forschungsnotiz unter Rückgriff auf qualitative Fokusgruppen und eine quantitative Befragung, dass der Kernmechanismus der Filterblasen-These – die algorithmisch verstärkte Selektion auf Grundlage der eigenen früheren Nutzung – von den befragten Facebook-Nutzer/innen zwar weniger problematisch eingeschätzt wird, als etwa generelle Datenschutzbedenken oder destruktive Kommunikationsphänomene wie Shitstorms oder Hate Speech. Nichtsdestrotz sind viele Befragten grundsätzlich an der Diversität von Informationen interessiert, doch nur wenige, meist höher gebildete Personen greifen auf Strategien zurück, diese Vielfalt auch aktiv in ihrem Kontaktnetzwerk abzubilden.

Die Sonderausgabe komplettiert ein Praxisbericht von René Sternberg (Berlin), der als Informationsarchitekt Organisationen bei der Einführung von Intranets berät, aber auch wissenschaftlich zu diesem Thema arbeitet und mit einer Arbeit über interne Unternehmenskommunikation promoviert hat. Er schildert am Beispiel verschiedener Intranets, wie Algorithmen zur Personalisierung von Informationsumgebungen eingesetzt werden – und zeigt zugleich, dass es lohnenswert sein kann, den Blick von den weit verbreiteten Social-Media-Giganten wie Facebook, YouTube oder Twitter zu lösen und zu untersuchen, wie deren Mechanismen der algorithmischen Strukturierung von Kommunikation auch in anderen Kontexten eingesetzt werden.

Interessenskonfliktstatement

Die Autor:innen erklären, dass ihre Forschung ohne kommerzielle oder finanzielle Beziehungen durchgeführt wurde, die als potentielle Interessenskonflikte ausgelegt werden können.

Downloads

Zitationen
0
0
0 von Crossref erfasste Zitate
0 von Semantic Scholar erfasste Zitate
Metriken
Views/Downloads
  • Abstract
    502
  • HTML
    34
  • PDF
    463
Weitere Informationen

Erhalten

2016-11-01

Akzeptiert

2017-02-01

Veröffentlicht

2017-05-01