• Christian Papsdorf Technische Universität Chemnitz
  • Sebastian Jakob Technische Universität Chemnitz

DOI:

https://doi.org/10.15460/kommges.2017.18.2.587

Schlagworte:

Jugendlicher, junger Erwachsener, Internet, Nutzung, Algorithmus, Akzeptanz, Technikfolgenabschätzung, Observation, kognitive Dissonanz, Mensch-Maschine-System

Redaktion und Begutachtung

  • Jan-Hinrik Schmidt Leibniz-Institut für Medienforschung, Hamburg (HBI)
  • Christian Stegbauer Universität Frankfurt/Main

Abstract

Der vorliegende Beitrag fragt auf Basis von Leitfadeninterviews mit Jugendlichen und jungen Erwachsenen erstens danach, welche Algorithmen von ihnen im Rahmen der alltäglichen Internetnutzung wahrgenommen werden. Zweitens analysiert er die Kriterien, die der Bewertung von Algorithmisierungsprozessen zugrunde liegen. Drittens untersucht er, welche Praktiken die Nutzer entwickeln, um mit Überwachung durch Algorithmen umzugehen. Den drei Forschungsfragen liegt ein mehrdimensionales Analysekonzept von Algorithmen zugrunde. In Kombination einer medien- und techniksoziologischen Perspektive lassen sich Algorithmen hinsichtlich sieben Dimensionen strukturieren und untersuchen. Im Ergebnis zeigt sich, dass Algorithmen vor allem dann als Bereicherung wahrgenommen werden, wenn sie neuartige Funktionen bieten, wenn ihr Einsatz den Usern frei steht und gestaltet werden kann, wenn sie komplexe Funktionen ausführen und ihr Handeln transparent ist, wenn die Ergebnisse ihres Handelns verbesserte Qualität oder Quantität aufweisen, und wenn sie die User entlasten. Vier Praktiken lassen sich im Umgang mit Überwachung unterscheiden: Strategien zur Auflösung von kognitiver Dissonanz, ein partieller Nutzungsverzicht, der Wechsel des Mediums und die Anpassung der Technik. Sie schützen die User allerdings nur unzureichend vor Überwachung.

1 Einleitung

Die Mathematik und später auch die Informatik beschäftigen sich bereits seit Jahrhunderten intensiv mit Algorithmen: Sie suchen systematische und logische Regeln, um ganz verschiedenartige Probleme zu lösen. Dies können Fragen der mathematischen Zahlentheorie, der Geometrie, der Kalenderrechung, der Kryptographie oder aber auch der Programmierung von Maschinen, der Steuerung von Verkehrsanlagen und der Erkennung von Rechtschreibfehlern durch Textverarbeitungsprogramme sein. Das letzte Beispiel sticht insofern aus der Aufzählung heraus als Algorithmen hier nicht zur Lösung von Sachproblemen im engeren Sinne eingesetzt werden, sondern sich auf menschliche Kommunikation beziehen. Kommunikationen zwischen Menschen waren lange Zeit nur in geringem Umfang rationalisierbar und automatisierbar, weil ihre kontingenzbedingte Komplexität sich nur in Auszügen in Algorithmen abbilden ließ. Über simple Textverarbeitungsprogramme hinaus entstanden in den letzten zehn Jahren allerdings immer mehr Anwendungen, die anspruchsvolles menschliches Handeln und zwischenmenschliche Kommunikation in Softwarearchitekturen überführten. Möglich wurde dies durch leistungsfähigere und dezentrale (Cloud-)Hardware, große Fortschritte in der Algorithmisierung durch Software und die unglaubliche Menge an digitalen Daten.

Die Extensivierung und Intensivierung von Internetkommunikation und die IP-fizierung1 vieler technischer Artefakte und sozio-technischer Systeme führen dazu, dass Menge und Bedeutung digitaler Informationen zunehmen. So gewonnene Daten erlauben es Algorithmen, Handlungsmuster, Kommunikationsstrukturen, individuelle Präferenzen oder auch soziale Zusammenhänge zu erfassen, zu imitieren und fortzuschreiben. Vor allem in quantitativer Hinsicht sind Maschinen und Programme deutlich leistungsfähiger als Menschen. Sie können mehr Informationen in kürzerer Zeit verarbeiten, sie brauchen keine Pausen, machen keine Fehler und liefern im Rahmen ihrer Möglichkeiten stets optimale Ergebnisse. Dementsprechend ist es wenig überraschend, dass in nahezu allen gesellschaftlichen Bereichen Kommunikation durch Algorithmen automatisiert wird. An der Börse etwa wird der Großteil des Handels automatisiert abgewickelt, in der Politik geben Voting Advice Applications Wahlempfehlungen, Partnersuchende bekommen auf Online-Datingplattformen Vorschläge durch Algorithmen, im Rechtssystem werden Bürger durch umfangreiche Programme überwacht und Newsbots schreiben immer häufiger Artikel für Zeitungen (Papsdorf 2015).

Trotz der inzwischen weiten Verbreitung von Algorithmen und der großen Dynamik innerhalb dieses Feldes steht die sozialwissenschaftliche Algorithmenforschung noch ganz am Anfang. Der vorliegende Beitrag widmet sich folglich primär grundlegenden Fragen zum Zusammenhang gesellschaftlicher Kommunikation und deren Automatisierung durch Algorithmen. In Kombination einer userzentrierten medien- und techniksoziologischen Perspektive sowie basierend auf 30 leitfadenorientierten Interviews mit Jugendlichen und jungen Erwachsenen zum Thema, sollen drei aufeinander aufbauende Fragen beantwortet werden. Erstens geht es darum, welche Formen und Ausprägungen von Algorithmen Individuen im Alltag wahrnehmen. Dem liegt die Annahme zugrunde, dass nicht die volle Bandbreite von Algorithmen für User eine Rolle spielt, sondern vielmehr ein Großteil dieser im Hintergrund agiert und deren Lebenswelt allenfalls indirekt beeinflusst. Zweitens wird danach gefragt, wie User den Einsatz von Algorithmen im Rahmen der Internetnutzung bewerten. Dabei geht es nicht schlicht um die Deskription von Affirmation und Negation, sondern um die Analyse der Einflussfaktoren auf die Bewertung von Algorithmisierungsprozessen. Drittens wird untersucht, welche Praktiken des Umgangs mit Algorithmisierung die User entwickeln. Im Fokus steht dabei die von den Usern als dominant wahrgenommene Form internetbasierter Algorithmen: die Überwachung von Kommunikation durch Wirtschaft und Politik. Bevor diese Fragen beantwortet werden können, wird im nächsten Abschnitt zunächst der Stand der Forschung aufgearbeitet und der Beitrag theoretisch gerahmt. Hierbei wird ein mehrdimensionales Konzept von Algorithmen vorgestellt, das den nachfolgenden Analysenschritten zugrunde liegt. Im dritten Abschnitt beschreiben wir das methodische Vorgehen, bevor wir im vierten Teil Ergebnisse präsentieren, die wir anschließend diskutieren und kontextualisieren.

2 Stand der Forschung und theoretische Rahmung

2.1 Forschungsstand

Eine substanzielle sozialwissenschaftliche Algorithmenforschung liegt bis heute nicht vor, wenngleich das Forschungsinteresse parallel zur realweltlichen Bedeutungszunahme gestiegen ist. Auch innerhalb der Internetsoziologie und der Techniksoziologie werden Prozesse der Algorithmisierung allenfalls am Rande thematisiert. Dementsprechend mangelt es bis heute an einer allseitig akzeptierten Definition oder gar einem substanziellen Analysekonzept von Algorithmen. Selbst in der Mathematik und Informatik gibt es Diskussionen über die einheitliche Begriffsbestimmung (Moschovakis 2001; Gurevich 2014). Einer Minimaldefinition folgend, werden Algorithmen „defined as a series of steps undertaken in order to solve a particular problem or accomplish a defined outcome“ (Diakopoulos 2014: 3). Algorithmen sind dabei stets datenbasiert und ihre Leistungsfähigkeit hängt von der Qualität der ihren Aktionen zugrundeliegenden Daten ab. Schließlich sind „Algorithms without data […] just a mathematical fiction“ (Constantiou/Kallinikos 2015: 54). Weiterhin wird das selbstständige Treffen von Entscheidungen als eine entscheidende Fähigkeit angesehen, die einen Entwicklungssprung darstellt. Der sozialwissenschaftliche Zugang zu Algorithmen ist noch einmal schwieriger, unter anderem, weil Algorithmen aufgrund ihrer Vielgestaltigkeit und Eingebettetheit in komplexe, oft geschlossene sozio-technische Systeme „almost impossible to know“ (Neyland/ Möllers 2016: 3) seien. Wählt man eine userorientierte Perspektive auf den Gegenstand, werden zudem hochgradig unterschiedliche Vorstellungen von Funktionsweisen sowie von Ursachen und Folgen von Algorithmisierungsprozessen offenkundig (Rader/Grey 2015). Auch innerhalb einer sozialwissenschaftlichen Forschung sind vielfältige und teils gänzlich verschiedene Zugänge zu Algorithmen möglich: Sie können wirtschaftlich, kulturell, philosophisch, soziologisch, ethisch oder auch politisch gedacht und konzipiert werden (Kitchin 2017: 14).

Implizit werden Algorithmen immer dann thematisiert, wenn Phänomene theoretisiert oder empirisch erforscht werden, die zu wesentlichen Teilen auf Algorithmen basieren. Dazu gehören beispielsweise Big Data (Mayer-Schönberger/Cukier 2013), Online Surveillance (Fuchs 2013; Fuchs/Trottier 2015; Trottier/Lyon 2014), Algo Trading (Gomolka 2011), oder Quantified Self (Ruckenstein/Pantzar 2015). Im Zentrum der Forschung stehen in der Regel die Veränderungen innerhalb des jeweiligen gesellschaftlichen Feldes, während Algorithmen als Ursache zwar benannt und in ihren Folgen beschrieben, jedoch ihre Funktionalität oder ihre Wechselwirkung mit menschlichen Akteuren im Rahmen sozio-technischer Systeme nicht fokussiert werden. An anderer Stelle haben wir den Versuch unternommen, die Automatisierung von Kommunikation durch internetbasierte Algorithmen in einer Heuristik zu systematisieren und die genannten Einzelphänomene in vergleichender Perspektive aufeinander zu beziehen (Papsdorf 2015). Ganz im Sinne des vorliegenden Beitrags konnte dabei gezeigt werden, dass Kommunikation durch Algorithmen auch nachteilige Folgen hat, deren Kompensation Aufgabe der User ist.

Die reflexive Forschung zu Algorithmen beschränkt sich gegenwärtig auf die meist unsystematische und zudem oft nicht empirische Erforschung von Einzelaspekten. Dazu gehören die Kritik an Algorithmen aufgrund von Dysfunktionalitäten und unintendierten Folgen (Kitchin 2017; Tufekci 2015), die Akzeptanz von Entscheidungen durch Algorithmen (Dietvorst et al. 2014) oder die in Algorithmen eingeschriebenen ethischen Werte (Kraemer et al. 2011). Zukunftsweisend scheint darüber hinaus ein Forschungsstrang, der nach der Verantwortung für das Handeln von Algorithmen und eng damit verbunden nach dem gesellschaftlichen Einfluss von Algorithmen fragt (Diakopoulos 2014; Neyland/Möllers 2016; Bucher 2012). Vereinzelt finden sich Studien zu Wahrnehmung von Algorithmen im Alltag (Willson 2017; Rader/Grey 2015; Hamilton et al. 2014), die durchaus dem vorliegenden Beitrag ähnliche Fragen verfolgen, sich aber auf Einzelbetrachtungen, wie etwa den Facebook News Feed, beschränken.

Den Forschungsdesideraten in konzeptioneller Hinsicht soll sich hier zumindest in einem ersten Schritt gewidmet werden. Das heißt zunächst, aus sozialwissenschaftlicher Sicht zu bestimmen, wann von Algorithmen gesprochen werden kann und wie diese analysiert werden können. Hier werden zwei Perspektiven miteinander kombiniert: Die mediensoziologische Forschung zu internetvermittelter Kommunikation und die techniksoziologische Forschung zur Handlungsträgerschaft von technischen Artefakten. Die Auswahl resultiert aus der Tatsache, dass gegenwärtig dominante Algorithmen erstens zu weiten Teilen internetbasiert sind, folglich im Rahmen von Medienkommunikation zu Interaktionspartnern werden und damit weit über assistive Operationen hinausgehen und menschliches Handeln substituieren. Zweitens handelt es sich bei Algorithmen um sozio-technische Systeme, die auch als solche betrachtet werden müssen.

2.2 Theoretische Rahmung

In Anknüpfung an die obenstehende Minimaldefinition werden im Folgenden Algorithmen als softwarebasierte sozio-technische Systeme der Automatisierung einer anspruchsvollen gesellschaftlichen Tätigkeit oder Funktion verstanden. Algorithmen lösen also im hier verstandenen Sinne soziale und nicht primär technische Probleme, wenngleich dies im Rahmen einer Technisierung geschieht. Damit wird die Bandbreite an Phänomenen in dreifacher Hinsicht reduziert. Erstens spielen nur technische Algorithmen eine Rolle, wohingegen andere Regelsysteme (wie etwa Rezepte, Bauanleitungen oder Ähnliches) nicht berücksichtigt werden. Zweitens werden solche Algorithmen aus der Untersuchung ausgeschlossen, die verhältnismäßig triviale Vorgänge, wie das Hinzufügen einer Signatur zu einer E-Mail, beschreiben. Drittens werden primär technische Vorgänge von begrenzter gesellschaftlicher Bedeutung, etwa die Aufteilung einer E-Mail in einzelne Datenpakete, hier nicht berücksichtigt.

Unwidersprochen handelt es sich dabei um eine vorläufige Definition, die aber eine bestimmte Gruppe von Algorithmen fokussiert und eine Loslösung vom für eine sozialwissenschaftliche Betrachtung nicht zielführenden niedrigschwelligen mathematischen Algorithmenbegriff erlaubt. Damit wird das im Stand der Forschung angerissene Problem technischer Entscheidungsfähigkeit und Macht insofern ins Zentrum gerückt, als Algorithmen dann als soziologisch relevant angesehen werden, wenn sie nicht triviale gesellschaftliche Tätigkeiten oder Funktionen und damit auch komplexes menschliches Handeln zum Gegenstand haben. Doch wann handelt es sich um ein derartiges sozio-technisches System der Automatisierung einer anspruchsvollen gesellschaftlichen Tätigkeit oder Funktion? Hierbei kann auf ein basales Kriterium von sozio-technischen Systemen verwiesen werden: Es sind diejenigen Systeme als sozio-technisch zu verstehen, bei denen ein (hypothetischer) Wegfall der Technik notwendig die Sinnlosigkeit der verbleibenden Organisation impliziert (Weingart 1989: 178ff.). So wäre eine klassische Partnervermittlung auch ohne Technik prinzipiell arbeitsfähig, während dies auf eine Online-Dating-Plattform nicht zutrifft. Gleichwohl bleibt eine unumgängliche Bewertungsrelativität bestehen, weil „System“ vor allem ein perspektivischer Begriff ist (Kornwachs 1994: 412). Im Zuge eines ersten Zugangs zum Phänomen wird hier auf die Untersuchung von kleinteiligen und nicht in größere gesellschaftliche Zusammenhänge eingebettete Algorithmen, wie beispielsweise Fahrassistenzen, verzichtet.

Trotz dieser Reduktion schließt die Definition eine große Variationsvielfalt an Phänomen ein. Dem soll beigekommen werden, indem wir Analysedimensionen erarbeiten, die die Vielfalt zu strukturieren wissen. Hierfür werden das Technisierungskonzept (Weyer 2008: 40ff.) und die Theorie der Mediatisierung (Krotz 2001) miteinander kombiniert. Beide Ansätze eint die grundlegende Logik, dass soziale Prozesse durch den Einsatz von artifizieller Technik mit dem Ziel der Optimierung und Effizienzsteigerung verändert werden. Bei Technisierungsprozessen stehen körperlich-materielle Handlungen im Vordergrund, wie etwa die Verbesserung der Fahrsicherheit durch Assistenzsysteme. Bei Mediatisierungsprozessen handelt es sich hingegen um Kommunikation, deren Qualität sich, beispielsweise in Form von Taktung und Reichweite durch Mikroblogging-Dienste, verändert. Die gegenwärtige Algorithmisierung umfasst beide Spielarten. Die Kombination von medien- und techniksoziologischer Perspektive ist insofern fruchtbar, als beide Disziplinen über ein unterschiedliches, aber sich ergänzendes Forschungsinstrumentarium verfügen, das jeweils unterschiedliche Dimensionen von Algorithmen sichtbar werden lässt.

Technisierung (Popitz 1995: 18ff., Weyer 2008: 40ff) meint einen dreistufigen Prozess, bei dem ein Konstrukteur technische Artefakte oder Systeme intentional schafft, um einen Zweck zu erfüllen, d.h. einen Ursache-Wirkungs-Zusammenhang möglichst effizient zu beherrschen. Im Unterschied zu einer nicht technisierten Operation wird erstens ein Umweg über ein Werkzeug gewählt, anstatt das Ziel direkt anzusteuern. Zweitens wird eine kausale Simplifikation, also eine Vereinfachung des ursprünglichen Prozesses gesucht. Und drittens wird dabei eine Effizienzsteigerung, beispielsweise in Form der Verbesserung des Wirkungsgrades oder der Steigerung des Outputs erreicht. Neben einfacher Sachtechnik lassen sich Technisierungsprozesse geradezu idealtypisch im Rahmen von Algorithmen beobachten, da diese im hier vorgeschlagenen Zuschnitt gesellschaftliche oder individuelle Probleme durch Automatisierung lösen. Für Technisierungsprozesse lassen sich mindestens fünf techniksoziologische Analyseperspektiven und -dimensionen identifizieren, die für die Untersuchung von Algorithmen bedeutsam sind.

Dazu gehört zunächst die Technikgenese- und Innovationsforschung mit der Frage, ob es sich bei Inventionen um grundlegend neuartige, das heißt radikale Innovationen handelt oder ob es sich um eine inkrementelle Innovation, also eine Weiterentwicklung und Verbesserung handelt (Hughes 1987: 57ff). Für die Analyse von Algorithmen ist diese Dimension insofern relevant, als der häufig proklamierte Innovationscharakter kritisch hinterfragt werden kann. Die Gegenüberstellung unterschiedlicher Technikbereiche im Rahmen der Akzeptanzforschung (Renn 2005) verweist auf unterschiedliche Grade an Freiwilligkeit für User, die Technik zu nutzen. Auch von Algorithmen können User unfreiwillig betroffen sein, etwa im Rahmen von individualisierter Werbung oder sie können selbst über die Nutzung von Algorithmen entscheiden. Eine dritte Dimension der Charakterisierung von Algorithmen liefern Rammert und Schulz-Schaeffer (2002) mit dem Konzept verteilten und gradualisierten Handelns. Sie fragen danach, ob Technik zu menschenähnlichem Handeln in der Lage ist, indem sie zwischen drei Ebenen oder Niveaus der Handlungsfähigkeit unterscheiden. Technik, und damit auch Algorithmen, kann im Sinne bewirkenden Handelns einen Unterschied im Vergleich zu einem vorherigen Zustand machen. Sie kann aber auch kontingent agieren, indem sie ihre Aktionen auf Umweltbedingungen anpasst oder lernfähig ist. Schließlich kann Technik auch ein gewisses Maß an Intentionalität zugeschrieben werden, wenn sich Aktionen von Technik so interpretieren lassen, als ob sie eine Struktur (Metaprogramm) besäßen, die ihre Operationen in eine bestimmte Richtung treibt. Diese Dreigliederung erlaubt es, Algorithmen hinsichtlich ihrer Avanciertheit, aber auch ihrer „Menschenähnlichkeit“ zu analysieren. Eine für die Techniksoziologie fast schon triviale Unterscheidung ist für die Algorithmenforschung hingegen durchaus aussagekräftig: Es lässt sich materielle Technik von immaterieller Technik unterscheiden (Rammert 1993: 10ff.). So stehen körperlich-sachliche Artefakte wie Fahrzeuge, Werkzeuge und Infrastrukturen auf der einen Seite, informationsbasierten Verfahrensweisen, Regeln und symbolischen Artefakten auf der anderen Seite gegenüber. Damit lassen sich zwei grundlegende Arten von Algorithmen unterscheiden: solche, die primär Informationen verarbeiten und solche, die unmittelbare materielle Konsequenzen haben, wie im Falle des Internets der Dinge oder beim autonomen Fahren.

Sowohl die Technik- als auch die Mediensoziologie interessieren sich für die individuellen und gesellschaftlichen Folgen der Technisierung beziehungsweise Mediatisierung. Wie oben bereits beschrieben, sind diese Prozesse grundlegend mit dem Anspruch einer Rationalisierung oder sonstigen Verbesserung versehen. Algorithmen können folglich danach unterschieden werden, ob sie primär qualitative oder quantitative Verbesserungen anstreben (Papsdorf 2015). Darüber hinaus bilden Dysfunktionalitäten und unintendierte Folgen eine weitere Klasse an Konsequenzen, die sowohl bei bestimmten Sachtechnologien (beispielsweise ökologische Probleme) als auch im Rahmen von Medienkommunikation (etwa Internetsucht) auftreten. Das Mediatisierungskonzept interessiert sich explizit für die individuellen und gesellschaftlichen Folgen von Mediatisierungsprozessen (Hepp 2013: 619), die eine zeitliche und räumliche (Papsdorf 2013: 108), aber auch funktional-alltägliche Dimension (Jurczyk et al. 2015) aufweisen. Zudem verweist das Konzept auf zwei Dimensionen, die in der Techniksoziologie oft vernachlässigt werden: Erstens fokussiert das Mediatisierungskonzept die Akteurskonstellationen in der Gegenüberstellung interaktiver und massenmedialer Kommunikation. In Anknüpfung daran hat Papsdorf (2013: 219) bereits an anderer Stelle gezeigt, dass auch Mensch-Maschine-Kommunikation und Kommunikation zwischen Maschinen Teil des Mediatisierungsprozesses sind. Zugespitzt können Algorithmen dahingehend unterschieden werden, ob sie direkt mit Menschen interagieren oder ob sie im Hintergrund wirken. Schließlich untersucht die Mediatisierungsforschung, welche Inhalte im Rahmen technisch mediatisierter Kommunikation vermittelt werden (Hepp et al. 2010: 224). Auch Algorithmen lassen sich hinsichtlich der gesellschaftlichen Anwendungsfelder, innerhalb derer sie wirken, unterscheiden. Tab. 1 fasst die Dimensionen noch einmal zusammen.

Tabelle 1: Sieben Dimensionen der Charakterisierung von Algorithmen
Ursprung Dimension Fragestellungen Ausprägungen
Techniksoziologie Geneseszenario Handelt es sich um grundlegend neuartige Möglichkeiten? Adaption menschlichen Handelns
Radikale Innovation
Grad der Optionalität Können User frei über den Einsatz von Algorithmen entscheiden? User sind unfreiwillig betroffen
User entscheiden über Betroffenheit
Handlungskompetenz Wie avanciert ist die Handlungsfähigkeit der Algorithmen? Ebene der Differenz
Ebene der Kontigenz
Ebene der Intentionalität
(I)-Materialität Beziehen sich Algorithmen auf Informationen oder auf die materielle Welt? Erzeugen, bearbeiten, präsentieren von Daten
Körperlich-materielle Handlungsmöglichkeiten
Technik- und Mediensoziologie Konsequenzen Führen Algorithmen zu Rationalisierungen? Qualitative Verbesserungen
Quantitative Verbesserungen
Dysfunktionalität
Mediensoziologie Akteurskonstellation Agieren Algorithmen im Hintergrund oder interagieren User direkt mit ihnen? Interaktionspartner für Internetnutzer
Software-Agenten im Hintergrund
Anwendungsfeld In welchem Bereich der Gesellschaft wirken Algorithmen? Politik
Wirtschaft
Gesundheit
Intimbeziehung
etc.

Diese primär theoretisch hergeleiteten Dimensionen dienen im Folgenden als Analyseraster für das dreifache Erkenntnisinteresse dieses Beitrags. So können erstens die von den Befragten im Rahmen ihrer Mediennutzung wahrgenommenen Algorithmen nicht nur benannt, sondern auch charakterisiert und vor dem Hintergrund des Spektrums verfügbarer Algorithmen eingeordnet werden. Die zweite Forschungsfrage wird präzisiert, indem die Einflussfaktoren, die den Bewertungen der Algorithmen durch die User zugrunde liegen, sichtbar werden. Drittens soll gezeigt werden, auf welche Charakteristika der Algorithmen sich die Praktiken des Umgangs mit der Überwachung durch Algorithmen beziehen. Gleichwohl ist das Forschungsdesign, wie im nachfolgenden Abschnitt beschrieben, offen für weitere Dimensionen, die aus dem empirischen Material resultieren.

In der öffentlichen, aber auch wissenschaftlichen Diskussion über Algorithmen wird einem spezifischen Anwendungszusammenhang eine herausgehobene Rolle zuteil, die sich auch in diesem Beitrag widerspiegelt. Es handelt sich dabei um Überwachung durch Algorithmen in den Bereichen der Politik und Wirtschaft. Theoretisch wird hierbei unterschieden zwischen neutralen und negativen Konzepten (Fuchs 2011: 135). Erstere beschreiben Überwachung als systematische Sammlung von Daten, wie sie alle modernen Organisationen durchführen müssen, um Handlungsfähigkeit zu erlangen. Analog zur bestehenden Forschung über Social Media Surveillance beziehen wir uns allerdings auf den zweiten Zugang zu Überwachung (vgl. Fuchs 2011, Bauman/Lyon 2014). Dabei wird unter Überwachung „the collection of data on individuals or groups that are used so that control and discipline of behaviour can be exercised by the threat of being targeted by violence“ (Fuchs 2011: 136) verstanden. Bezogen auf die Logik des Web 2.0 präzisiert Fuchs: „Web 2.0 surveillance is directed at large user groups who help to hegemonically produce and reproduce surveillance by providing user-generated (self-produced) content“ (Fuchs 2011: 138). Gegenwärtige Formen der Überwachung werden durch Algorithmen realisiert und weisen neue „Qualitäten“ auf: „Während unser Alltag für die uns beobachtenden Organisationen in allen Details transparenter wird, entziehen sich deren Aktivitäten zunehmend unserer Einsichtsmöglichkeiten“ (Bauman/Lyon 2014: 24). Diese Unsichtbarkeit der Überwachung wurde hat auch Zurawski (2014) beschrieben, dem zufolge heutige vernetzte Konsumgüter nicht mehr ohne Überwachung gedacht werden können. Überwachungstechnologien, die Konsumgewohnheiten aufzeichnen, sind als Konsequenz der Informationsgesellschaft heutigen Konsumgütern inhärent. Die dritte Forschungsfrage des vorliegenden Beitrags adressiert diese neuartigen und nicht unproblematischen Entwicklungen.

3 Methodisches Vorgehen

Für die vorliegende Studie wurde eine Sekundäranalyse von Daten durchgeführt, die aus einer zwischen Februar und April 2016 durchgeführten Studie stammen. In ihrem Rahmen wurden 30 Leitfadeninterviews mit Jugendlichen und jungen Erwachsenen im Alter zwischen 14 und 25 Jahren geführt. Die Interviews hatten vier Schwerpunkte: Erstens wurde die Technikbiographie und die gegenwärtige Internetnutzung erfragt. Zweitens standen Vorteile der Internetkommunikation und Nutzungsgründe im Fokus. Drittens wurde in der Gegenperspektive nach Defiziten und Nachteilen der Internetkommunikation gefragt. Und viertens wurden die Jugendlichen und jungen Erwachsenen gebeten, zu berichten, welche Praktiken sie entwickelt haben, um den Widerspruch zwischen Nutzungsgründen und -zwängen auf der einen Seite und Nachteilen und Defiziten auf der anderen Seite aufzulösen. Diese breit angelegte Studie mit dem Ziel, Praktiken der Nichtnutzung des Internets vor dem Hintergrund allgegenwärtiger Mediatisierung zu erforschen, offenbarte die teils große Bedeutung von Algorithmen im Alltag der User. Der vorliegende Beitrag konzentriert sich auf diese spezielle Form der Internetkommunikation. Die hier interessierenden Prozesse der Algorithmisierung fanden sich im Leitfaden auf dreifache Weise wieder. Erstens wurde im Rahmen der alltäglichen Internetnutzung auch danach gefragt, welche Rolle Online-Medien der Mensch-Maschine-Kommunikation, etwa Suchmaschinen oder Online-Datenbanken, spielen. Zweitens wurde nach der Technik als Störquelle im Rahmen der Internetnutzung gefragt. Hierbei ging es um Dysfunktionalitäten, Eigenwilligkeiten oder defizitäre Usability sowohl der Hardware als auch der Software, die in der Regel im Kontext „handelnder“ Technik auftreten. Drittens wurde nach dem Kenntnisstand, den Nutzungsweisen sowie den Bewertungen von automatisierter Kommunikation, etwa am Beispiel von personalisierter Werbung, gefragt. Damit wurden die Interviewpartner nicht direkt zu Algorithmen befragt, sondern zu Kommunikationen, die auf Algorithmen basieren. Im Anschluss wurden diejenigen Interviewpassagen ausgewertet, die dem hier vorgelegten Verständnis von Algorithmen entsprechen.

Die Dauer eines Interviews betrug durchschnittlich eine Stunde. Unter den Befragten befanden sich 17 Frauen und 13 Männer, von denen 25 studieren und fünf noch zur Schule gehen. Die Interviewpartner wurden online wie offline kontaktiert. Trotz des explorativen Charakters der Studie wurden die Teilnehmer im Rahmen des Theoretical Samplings neben Geschlecht und Ausbildungsrichtung auch hinsichtlich ihrer Internetnutzung mit dem Ziel maximaler Kontrastierung ausgewählt. Das Spektrum reichte dabei von Intensivnutzern bis zu Alltagsnutzern2. Die Untersuchung erfolgte mittels leitfadengestützter Interviews, die eine große Vielfalt an Aussagen ermöglichten, auch jenseits des dezidierten Forschungsinteresses. Während in der Primäranalyse das Kodierverfahren weniger stark theoriegeleitet war und sich in der Vorgehensweise an der Grounded Theory orientierte (Glaser/Strauss 1967), wurde in der vorliegenden Studie im Vorfeld eine theoretisch angeleitete Systematik erarbeitet (siehe Tab. 1), die gleichwohl offen ist für weitere Dimensionen. Die Auswertung der Interviews erfolgte im Rahmen einer qualitativen Inhaltsanalyse (Mayring 2008) mit der Software MAXQDA. Die Intercoderrealibilität wurde innerhalb der Forschungsgruppe im Rahmen der Software ermittelt und das Kategoriensystem darauf basierend fortwährend weiterentwickelt.

4 Ergebnisse

4.1 Formen und Ausprägungen der Algorithmen in der Internetnutzung

Die Auswertung der ersten Forschungsfrage zielt auf die Formen und Ausprägungen von Algorithmen ab, die die Befragten wahrnehmen. Im Zentrum stand dabei die alltägliche Nutzung des Internets, die sowohl berufliche wie private, als auch mobile wie räumlich gebundene Kommunikationspraktiken umfasst. Es zeigen sich insgesamt 19 verschiedene Varianten und Ausprägungen von Algorithmen (siehe Tab. 2). Diese Breite von Phänomenen überrascht angesichts der vielfältigen Nutzungsweisen des Internets nicht. Die Algorithmen wurden entlang der gesellschaftlichen Bereiche (vgl. Papsdorf 2013: 154f), in denen sie primär wirken, kategorisiert. Hierdurch zeigt sich, dass Algorithmen entweder nicht in allen gesellschaftlichen Teilbereichen von ihnen wahrgenommen werden oder schlicht nicht von ihnen genutzt werden. So nannten die jungen und tendenziell hoch gebildeten Nutzer beispielsweise keine Anwendungen in den Bereichen der Erziehung und Religion. Die meisten Nennungen stammen aus dem Feld der Wirtschaft und der Massenmedien. Dies hängt einerseits damit zusammen, dass das Internet selbst eine mediale Infrastruktur bildet und der Untersuchungsgegenstand der vorliegenden Studie war. Andererseits kann dem Bereich der Wirtschaft in Bezug auf Technologien, die Effizienzvorteile versprechen, in der Regel eine Avantgarde-Stellung zugesprochen werden. Neben dem Anwendungsfeld strukturiert eine zweite Dimension zentral die Vielfalt an Algorithmen. In den Interviews findet sich eine starke Bedeutung des Grads der Optionalität, also bezüglich der Unterscheidung zwischen freiwilliger und erzwungener Nutzung (vgl. auch Schuster et al. 2015) wieder.

Tabelle 2: Von den Befragten wahrgenommene Algorithmen
Grad der Optionalität
Anwendungsfeld Freiwillig Erzwungen
Wirtschaft Preisvergleiche/-kalkulationen
Algo-Trading
Autonomes Fahren Bezahlverfahren
Bewerberauswahl
Big Data-Analysen
Massenmedien Suchmaschinen
Social Media
Recommendation Engines
Adblocker Targeted Advertising
Gesundheit Automatische Notrufsysteme
Quantified Self Versicherungstarife
Intimbeziehungen Online-Partnervermittlung
Sport Quantified Self
Recht Anti-Viren-Programme Cyberkriminalität
Politik Anonymisierungsdienste Überwachung

Viele Algorithmen befinden sich im direkten Wahrnehmungsbereich der User, ein Teil der Algorithmen ist hingegen aufgrund seiner spezifischen Charakteristika nur mittelbar erfahrbar. So basiert das Wissen der User über den Einsatz von Algorithmen bei der Bewerberauswahl, im Rahmen von Überwachung oder bei Versicherungstarifen sowie Cyberkriminalität überwiegend auf Berichten in Massenmedien. Auch wenn die Auswirkungen oft erst im Nachhinein erfahrbar sind oder hergeleitet werden können, üben sie dennoch Einfluss auf das Verhalten der User aus. Entsprechend des Thomas-Theorems (Merton 1995) haben auch nicht im engeren Sinne objektive Situationsdefinitionen Einfluss auf individuelles Handeln. Dies zeigt sich beispielsweise im Surfverhalten oder bei der Nutzung von Anonymisierungsdiensten oder Anti-Viren-Programmen, ohne dass User eigene Erfahrungen mit Überwachung oder Cyberkriminalität und deren Folgen haben. Quantified Self-Anwendungen finden sich in zwei verschiedenen gesellschaftlichen Bereichen wieder. Einerseits werden sie im Feld des Sports zur Leistungssteigerung genutzt, andererseits dienen sie der Gesundheitsvorsorge.

Von herausgehobener Bedeutung sind für die Befragten Algorithmen, die der Überwachung im weitesten Sinne dienen: „Na, irgendwie hab ich das Gefühl, wenn man sich irgendwo anmeldet oder man irgendwelche Seiten besucht und dann wird gesagt: ‚Ok, du kannst jetzt hier nur rein, wenn du dich mit Facebook verbindest!’ oder so und dann weiß die Seite eben auch, was Du auf Facebook machst und so weiter. [...] Es ist halt schon erschreckend, wie Unternehmen oder Firmen, oder wer auch immer das alles leitet, so ganz einfach an Informationen herankommen, die vielleicht nicht mal jeder aus deinem Umfeld weiß“ (jps02: 107).3 Aus dem Zitat geht hervor, dass Überwachung durch Algorithmen im Rahmen von Social Media und durch Unternehmen problematisiert und als qualitativ neuartig eingeschätzt wird. Offenkundig wird die (ungebetene) Überwachung anhand einzelner Phänomene, wie personalisierter Werbung: „[Ich] habe mir eine neue Matratze gekauft und da find ich jetzt ständig bei Amazon oder bei Facebook in der Werbung immer wieder Matratzenwerbung, obwohl ich das alles schon gekauft haben. Aber die hören halt nicht auf. Die haben nicht verstanden, dass ich jetzt schon eine Matratze gekauft habe“ (sj01: 51). Auch die Überwachung durch staatliche Behörden wird von den Usern wahrgenommen und beeinflusst die Internetnutzung: „Klar, mit Snowden und NSA, das ist natürlich schwierig. […] Ich [habe] ‚Die globale Überwachung’ geschenkt bekommen, von dem Snowden-Journalisten Greenwald. Ja, und das hat mir auch so ein bisschen die Augen geöffnet. Das ist halt wirklich heftig, also das hat natürlich auch so ein bisschen dem Internet die Unschuld geraubt. So, was man jetzt macht und man überlegt schon ein bisschen mehr darüber, was man jetzt schreibt“ (jps04: 92).

4.2 Bewertung von Algorithmen aus Perspektive der User

Die zweite Forschungsfrage zielt auf die Bewertung der Algorithmen durch die User ab, womit es letztlich um Aspekte der Technikakzeptanz geht. Diese lassen sich jedoch im Rahmen bekannter Modelle der Technikakzeptanz (Davis et al. 1989, Venkatesh/Davis 2000) nur unzureichend abbilden. Zum einen handelt es sich bei Algorithmen um eine hochgradig differenzierte Klasse neuartiger Phänomene, deren Nutzung zum anderen hier nicht im Vordergrund steht. Es geht damit nicht um die Frage, ob und wie diese genutzt werden, sondern um deren Bewertung als wünschenswert oder unerwünscht. Mit dem Ziel einer ersten Exploration sollen im Folgenden positiv wie negativ bewertete Aspekte der Algorithmisierung identifiziert und auf die eingangs vorgeschlagenen Dimensionen bezogen werden. Dabei zeigten sich zwei Besonderheiten im empirischen Material, die zu einer Modifikation der vorgeschlagenen Dimensionen führten: Erstens standen die Befragten der Unterscheidung zwischen Algorithmen, die sich auf Informationen und solchen die sich auf die materielle Welt beziehen, indifferent gegenüber. Es spielte also keine Rolle für die Bewertung, ob es sich bei den Algorithmen beispielsweise um selbstfahrende Autos oder Recommendation Engines handelt. Allerdings könnte es sich dabei auch um einen Bias handeln, da Algorithmen jenseits der Verarbeitung von Informationen gegenwärtig in der Wahrnehmung der User wenig präsent sind und die empirische Untersuchung zudem stark auf Internetkommunikation fokussiert war. Die zweite Besonderheit besteht in der Ergänzung einer Dimension, die auf Basis der theoretischen Betrachtung aus technik- und mediensoziologischer Perspektive zunächst nicht offenkundig war. So spielt der Umgang der Algorithmen mit den (persönlichen) Daten der User eine wichtige Rolle. Die Auswertung des empirischen Materials zeigt, dass entlang von sieben Dimensionen Algorithmen als positiv oder negativ bewertet werden.

Tabelle 3: Bewertung der Algorithmen durch die User
Charakteristikum Positive Bewertungen Negative Bewertungen
Geneseszenario
  • Neuartige Informationen oder neuartige Kombination von Informationen

  • Entlastung der User durch Innovationen

  • Keine neuartigen Funktionen

  • Problematische Nebenfolgen durch Automatisierung

Grad der Optionalität
  • Nutzung ist freiwillig, es kann zwischen Algorithmen gewählt werden

  • Algorithmen können angepasst oder deaktiviert werden

  • Offline-Alternativen fehlen

  • Nutzung geht einher mit Zwängen

  • Unfreiwillige Betroffenheit von Algorithmen

Handlungskompetenz
  • „intelligentes“ Handeln der Technik
  • Algorithmen handeln selbst bei simplen Aufgaben fehlerhaft

  • Entscheidungen von/durch Algorithmen sind nicht nachvollziehbar

Konsequenzen
  • Verbesserte Quantität in Bezug auf Menge und Geschwindigkeit

  • Verbesserte Qualität in Bezug auf Selektion

  • Überforderung durch die Menge an Informationen

  • Informationen werden entkontextualisiert

  • User fühlen sich manipuliert

  • Resultat ist dysfunktional

Akteurs­konstellation
  • Entlastung, indem Funktionen im Hintergrund erledigt werden
  • Interaktion mit Algorithmen ist „unnatürlich“

  • Fehlende Transparenz

  • Handlungs­motivationen sind nicht nachvollziehbar

  • Störung im Alltag durch unnötige Interaktion

Anwendungsfeld
  • Medium/Wissenschaft: Vielfalt und Selektion von Informationen

  • Gesundheit: Selbstermächtigung und Sicherheit

  • Wirtschaft: Preis- und Zeitersparnis

  • Gesundheit: Ungenauigkeiten, Datenschutzprobleme

  • Politik: Überwachung persönlicher Daten

  • Wirtschaft: Konsumanreizsetzung

  • Intimbeziehungen: Oberflächlichkeit

Datenschutz/Privacy
  • Verhindern von Tracking und Werbung
  • Überwachung der User

  • Verknüpfen bisher getrennter Informationen

  • Ermöglichen Diskriminierung

4.2.1 Geneseszenario

Hinsichtlich des Geneseszenarios, also der Frage, ob es sich bei den Algorithmen um (radikale) Innovationen handelt, ist die Bewertung seitens der befragten User tatsächlich ganz wesentlich davon geprägt, ob neuartige Funktionen bereitgestellt werden können oder nicht. In Bezug auf eine Quantified-Self-Anwendung sagt ein User: „Es ist mal interessant zu sehen, wie schnell ich in welchem Streckenabschnitt war, aber ob man es jetzt dabei hat oder nicht, ist auch egal“ (cp02: 151). Die von ihm genutzten Devices und Apps bieten demnach keine neuartigen und vor allem substanziellen Funktionen, die eine Nutzung rechtfertigen. Positive Bewertungen finden sich vor allem im Rahmen der Darstellung, Selektion und Aufbereitung von Informationen. Recommendation Engines oder Virtual Reality-Anwendungen etwa stellen sie in einer Form bereit, die über nichttechnisierte Möglichkeiten der Darstellung hinausgeht. Solche Innovationen der Informationsbearbeitung werden dann positiv wahrgenommen, wenn sie User entlasten: „Dein Onlineticket kannst Du Dir per E-Mail schicken lassen und dann über das Smartphone einfach aufrufen lassen. Du musst es nicht erst ausdrucken. Das sind halt alles so Sachen, die es halt vereinfachen“ (cp04: 72). Führen innovative Algorithmen hingegen zu problematischen Nebenfolgen, werden sie tendenziell kritisch gesehen. Dazu gehören beispielsweise auch eigene Verhaltensweisen: „Früher hat man halt noch überlegt, was man machen kann. Heute holt man sein Handy raus und googelt es. Also man verliert schon ein bisschen den Anreiz, selbstständig noch irgendetwas zu denken“ (sj01: 44).

4.2.2 Grad der Optionalität

Bezogen auf die zweite Dimension, den Grad der Optionalität, werden Algorithmen von den Interviewten positiv bewertet, wenn sie frei über deren Einsatz und Reichweite entscheiden können. Weiterhin sehen sie es als vorteilhaft an, wenn sie Algorithmen deaktivieren oder anpassen können: „Ich glaube, bei meinen Freunden heißt es Hintergrundaktualisierungen. Kann man für WhatsApp auch ausstellen“ (cp07: 196). So können die User bei bestimmten Diensten nicht erwünschte Inhalte und Anwendungskontexte umgehen. Existieren keine gleichwertigen Online- oder Offline-Alternativen, ist es folglich nicht möglich, Algorithmen zu deaktivieren oder gänzlich auf sie zu verzichten, wird dies von den Usern als negativ wahrgenommen. Dies zeigt sich exemplarisch bei Ortungsfunktionen: „Ortungsdienste sind schräg. Aber wenn man Navigation nutzen will, um was zu finden, dann […] geht es ja nicht ohne. Dann muss man es ja aktivieren“ (cp07: 253–255). Bei Diensten, wie Facebook etwa, gehört die Erhebung und Analyse der Userdaten zum Kerngeschäft des Unternehmens: „Genau, sowas, das ist dann schon ja, nicht beängstigend, aber man denkt sich schon, die wissen ja alles, egal was ich mache, das kommt direkt auf die Startseite“ (cp03: 99). Die User sind so unfreiwillig vom Einsatz durch Algorithmen betroffen: „Weil eben alles getrackt wird und irgendwie, wenn man dann auf Facebook zurückgreift, oder sonst wohin, sieht man ja direkt alle Werbungen eingeblendet, wo man gerade irgendetwas gegoogelt hat oder so“ (cp03: 99).

4.2.3 Handlungskompetenz

Die dritte Dimension ist seitens der Befragten durch einen grundlegenden Widerspruch geprägt. Einerseits werden Algorithmen grundlegend positiv eingeschätzt, wenn sie zu intelligentem Handeln im weitesten Sinne in der Lage sind. Die interviewten User verstehen darunter in der Regel kontingente Handlungen, die folglich an Umweltbedingungen oder vorhergehende Erfahrungen angepasst sind und gerade nicht mechanistisch ablaufen: „Ja, prinzipiell finde ich das gut. Das wäre total praktisch, wenn mein Kühlschrank elektronisch erfassen würde, dass die Milch leer ist und die auf Facebook dann mir Werbung für Milch [anzeigen] und dann drücke ich einmal und dann wird die Milch bestellt“ (jps01: 90). Dieser positiven Bewertung steht ein zentrales Problem gegenüber: Gegenwärtig funktionieren Algorithmen auch bei scheinbar simplen Aufgaben nicht fehlerfrei.

Die befragten Jugendlichen und jungen Erwachsenen stehen beispielsweise personalisierter Werbung nicht grundlegend negativ gegenüber, üben allerdings deutliche Kritik, wenn der zugrundeliegende Algorithmus unpassende Informationen anzeigt: „Diese personalisierte Werbung: Facebook auf jeden Fall. Also, da denke ich mir auch: Habe ich das denn jemals angeklickt? Das ist halt teilweise auch totaler Müll, den sie mir da anzeigen“ (jps05: 85). Ähnliches findet sich auch in anderen Zusammenhängen: „Manchmal möchte man einfach eine Seite öffnen und dann sagt das Anti-Viren-Programm: ‚Nein, das ist gefährlich!’ Aber eigentlich ist man noch vor drei Monaten auf der Seite gewesen und das ist eine ganz normale Seite, auf die jeder andere auch kommt, aber das Anti-Viren-Programm meint jetzt: ‚Nein, da darfst Du nicht drauf’“ (jps02: 163). In dem Zitat kommt ein weiteres Problem zum Ausdruck, das tendenziell zu einer negativen Bewertung von Algorithmen führt: Die Entscheidungen von Algorithmen sind oftmals nicht nachvollziehbar und die ihnen zugrundeliegenden Kriterien und deren Gewichtung sind für User intransparent, wodurch schließlich die Entscheidungen als irrational und damit störend wahrgenommen werden. Schließlich besteht eine Gefahr darin, dass zu avancierte Algorithmen die User überfordern: „Manchmal denke ich echt so: ‚Eigentlich bräuchte man von jetzt auf heute mindestens einen Generationensprung, um irgendwie hinterherzukommen, weil die Beschleunigung wird halt auch immer schneller. Der Mensch kommt da eigentlich nicht ansatzweise hinterher’“ (jps04: 160).

4.2.4 Konsequenzen

Hinsichtlich der vierten Dimension, den Konsequenzen der Nutzung, findet sich eine große Bandbreite an positiven wie negativen Einschätzungen. Wohlwollend wird die verbesserte Quantität in Bezug auf Menge und Geschwindigkeit der zu verarbeitenden Informationen genannt. Eine Zahlung über Near-Field-Communication-Technologien „geht viel schneller“ (cp05: 102) und „Google spuckt einfach so tausend Millionen Links raus“ (jps05: 31), wenn man ein Thema recherchiert. Zudem wird eine Verbesserung der Qualität positiv wahrgenommen. Dies zeigt sich deutlich beim Shopping, weil Algorithmen hier Preise vergleichen und besonders relevante, oft auch besonders günstige Angebote ausfindig machen und von solchen separieren, die eher unattraktiv sind. Die als positiv bewertete Menge an Informationen, die durch Algorithmen verarbeitet werden kann, schlägt aber schnell in ihr Gegenteil um, wenn sie die User überfordert: So bekommen die befragten User beispielsweise „andauernd diese E-Mails geschickt, dass irgendjemand etwas upgedatet hat“ (cp02: 114). Weiterhin problematisch ist die Entkontextualisierung von Informationen im Zuge ihrer algorithmischen Verarbeitung. Die Befragten haben Angst, „wenn man sich irgendwo bewirbt, dass da nicht irgendwelche kommentierten Fotos oder sonst was auftauchen, von denen man möglicherweise gar nichts weiß“ (sj03: 219). Regelrecht entrüstet ist ein User über den offensichtlichen Verkauf seiner Daten an ein Finanzinstitut: „Als ich mir meine erste eigene Wohnung gesucht habe, habe ich dann auch im Internet nach Wohnungen geguckt. Und dann kam nach drei Wochen ungefähr von meiner Bank ein Brief [...]: ‚Wir haben erfahren, dass Sie eine Wohnung suchen’ und ob sie mir einen Kredit anbieten können“ (sj01: 44). Er fährt fort: „Auf irgendeiner Seite haben sie dann die Daten verkauft und da war ich schon kurz davor, zu der Bank rein zu gehen, den Brief auf den Tisch zu knallen und zu fragen, was da los ist“ (sj01: 47).

Ein weiteres Problem besteht für User, wenn Algorithmen ihr Verhalten auf eine für sie negative Art und Weise beeinflussen. Dies wurde vor allem im Rahmen von Social Media genannt: „Aber wenn man dann nach drei Tagen mal wieder bei Facebook ist, dann steht das oben bei den Neuigkeiten. Da denke ich, dass die schon beobachten, dass man täglich dort sein sollte. […] Aber die probieren einem dann ja klarzumachen, dass man etwas verpasst hat. […] Vielfach wird man doch dazu gedrängt, dass man viel Zeit im Internet verbringt“ (sj02: 101). Zudem werden durch Algorithmen immer wieder neue Inhalte angeboten, was nicht unproblematisch ist: „Dann schaue ich natürlich auch alle 50 Videos an, weil ich ja Zugang dazu habe. Und dann kommt man vom Hölzchen aufs Stöckchen. Man kann das Internet halt nicht leer schauen. Aber ich glaube, viele Leute versuchen das halt schon“ (jps01: 64). Schließlich wird auf Algorithmen basierende Technik dann negativ bewertet, wenn ihre Funktionalität nicht gewährleistet ist: „Die haben jetzt ein Wearable auf den Markt gebracht, […] das immer aufzeichnet, wie man schläft und so alles. Der Witz ist aber, wenn ich mich ins Bett lege, dann muss ich noch auf der Uhr drücken, tipp tipp tipp, jetzt gehe ich schlafen. Die Uhr misst aber nicht, wann ich wirklich schlafe, sondern nur, wann ich getippt habe. Und wenn ich aber 20 Minuten später erst einschlafe, dann also … ja, was soll ich damit“ (jps02: 163)?

4.2.5 Akteurskonstellation

Hinsichtlich der fünften Dimension werden Algorithmen, die im Hintergrund tätig sind, mit denen also nicht unmittelbar interagiert wird, positiv bewertet, wenn sie die User entlasten: „Heutzutage läuft halt auch vieles einfach automatisch, das machen die PCs sozusagen im Hintergrund. Ich weiß noch, dass ich früher regelmäßig selbst geguckt habe, dass ich Anti-Viren-Programme laufen lasse. Die machen ja auch mittlerweile vieles im Hintergrund und ich habe auch gar nicht das Gefühl, dass ich es irgendwie nötig habe, mich jetzt noch wirklich mal hinzusetzen und zwei Stunden lang das Programm einen vollständigen Scan durchführen zu lassen“ (jps04: 140). Ähnliches wurde auch in Bezug auf andere Zusatzsoftware, wie beispielsweise Adblocker genannt, durch die User Werbeeinblendungen nicht mehr händisch entfernen müssen. Negativ hingegen wurde Handeln durch Algorithmen bewertet, das unangemessen stark in das eigene Leben eindringt. Dies kann im Rahmen von Kommunikation der Fall sein: „Ja, ich hatte da ein Szenario gelesen, wo man mit seinem Smartphone, ohne es jetzt zu benutzen, in die Nähe von irgendeinem Café kommt und dann kommt da Werbung von wegen so: ,Hey, kommt doch herein!’ Also ganz schlimme Dinge, das finde ich echt gruselig. […] Das ist schon erschreckend, wenn man sich das so vorstellt“ (jps02: 206).

Ein weiteres Problem stellen für die Befragten Algorithmen dar, deren Wirken im Hintergrund verborgen ist und damit nicht eingeschätzt werden kann: „Ich finde eher die ganze politische Aufarbeitung von diesem, beispielsweise hier jetzt, Bundesnachrichtendienst, der spioniert uns schon aus. Und dass das halt alles so verschleiert wird von der Politik, finde ich ätzender als die Tatsache, dass ich irgendwie ausspioniert werde“ (jps05: 87). Ähnliche Kritik findet sich auch jenseits der Überwachung durch Politik: „Ich finde nicht gut, dass man nie so den konkreten Überblick hat, wie viel denn jetzt gesammelt wird und was Google dann benutzt. Also bestimmt sehr viel, wahrscheinlich auch alles, aber man kriegt es persönlich nicht mit“ (jps03: 99).

4.2.6 Anwendungsfeld

Mit Bezug auf die sechste Dimension, den Kontext der Anwendung, nehmen die Interviewpartner Algorithmen in Medien und Wissenschaft, Gesundheit und Wirtschaft positiv wahr. Positiv wird etwa die Vielfalt und Selektion von Informationen hervorgehoben, die durch verschiedene Apps und Anwendungen gefiltert werden können: „[D]a habe ich jetzt eher so Nachrichten-Apps, ‚Tagesschau’-App und so, das eher und da sage ich mir auch: ‚Ok, da will ich diese Push-Meldungen haben!‘. Dann gehe ich zum Beispiel in meine Gruppenchats oder auf meine Facebook-Messenger-Sachen, die habe ich alle ausgeschaltet“ (cp04: 236). Auch mit Bezug auf die individuelle Gesundheit werden Algorithmen teilweise befürwortet. Automatische Notrufsysteme in Autos können beispielsweise die wahrgenommene Sicherheit erhöhen (cp01: 222). Ein anderer gesundheitlicher Aspekt liegt in der Selbstermächtigung über den eigenen Körper im Rahmen von Quantified Self. Mit der Aufzeichnung körperbezogener Daten (zurückgelegte tägliche Schritte, Pulsfrequenz, Schlafrhythmus etc.), wissen die User zunehmend mehr über ihren eigenen Körper und werden so zu Experten ihrer selbst: „Das [Smartphone, Anm. d. Verf.] konnte man dann unter das Kopfkissen legen und dann wurden im Prinzip diese REM-Phasen im Schlaf aufgezeichnet und da konnte man das ganze analysieren. Da habe ich dann eben immer verschiedene Faktoren ausprobiert, […] eine Woche lang abends immer nur Kaffee getrunken, um zu gucken wie sich das auf den Schlaf auswirkt“ (sj03: 169). Im Feld der Wirtschaft können User mit Hilfe von Algorithmen Preise und Produkte besser vergleichen oder bequem von zu Hause einkaufen: „Also wir gehen jetzt nicht mehr in das Reisebüro, sondern gucken uns selber im Internet um. Da gibt es doch dieses ‚UrlaubsGuru’, ‚Urlaubs-Piraten’ und so, wo du kostengünstiger [buchen kannst]“ (cp04: 108).

Kritisiert wird hingegen die Übertragung, Speicherung und Weiterverwendung persönlicher Daten der Gesundheit: „Ich speichere keine Gesundheitsdaten von mir, weil ich mir nicht sicher bin, was dann später mal Krankenkassen oder so damit machen werden“ (sj03: 167), ist die Antwort eines Nutzers zur Frage nach der Rolle von Smart Devices. Dies ist jedoch nicht immer einheitlich und hängt von der Art der Daten und dem Anwendungsfeld (Schlaf, Sport, Krankenakten) ab. Persönliche Krankendaten oder Erhebungen von Fitnessarmbändern werden deutlich kritischer gesehen, als beispielsweise zurückgelegte Wege mit dem Rad oder zu Fuß. Auch kritisieren die User die Ungenauigkeit der Algorithmen im Gesundheitsbereich und berufen sich lieber auf ihre Intuition, die augenscheinlich verlässlicher ist als die Smart Devices: „Ich glaube, da vertraue ich meinem Körper muss ich sagen“ (cp05: 116). Die Auswertung und Analyse von Daten durch Algorithmen im Bereich der Politik wird ebenso stark kritisiert, aber im Alltag nur in Ansätzen wahrgenommen. Dies hängt augenscheinlich damit zusammen, dass staatliche Überwachung weitgehend unsichtbar funktioniert und nur über den medialen Diskurs ans Licht kommt: „Klar, mit Edward Snowden und NSA: Das ist natürlich schwierig“ (jps04: 92).

Im Feld der Wirtschaft wird Targeted Advertising überwiegend negativ wahrgenommen. Dieses führt auch zu „erschreckenden“ oder „gruseligen“ Überraschungseffekten, da die befragten User nicht vollständig nachvollziehen können, woher die Unternehmen ihr Suchverhalten kennen: „Wobei das bei Facebook manchmal schon ein bisschen, schon fast erschreckend ist: Wenn ich nebenbei google, beispielsweise irgendein Land, dann [bekomme] ich oft in der Woche darauf bei Facebook für dieses Land Werbung angezeigt, obwohl es ja gar nicht bei Facebook war, sondern bei Google“ (lp01: 167). In diesem Zuge kritisierten die User auch die ständigen Anreize zum Konsum im Rahmen der gezielt manipulativen Darstellung von Inhalten durch Algorithmen: „Ich habe bei eBay eine Kameratasche gesucht und bei Facebook wurde mir ein Bild dieser Kameratasche gezeigt, mit der Überschrift: ‚Noch Interesse daran? Jetzt kaufen!‘“ (jps06: 71). Zu guter Letzt werden Algorithmen im Kontext von Intimbeziehungen kritisiert, da sie eine unangemessene Oberflächlichkeit zur Folge haben: „Wie gesagt, diese Partnerschafts-Apps, die gibt es ja auch. Und mit einem Fingerwisch: ‚Ich mag dich, ich mag dich nicht’. […] Man stuft da quasi dieses ganze emotionale Empfinden, das Kennenlernen, auf einen Fingerwisch herunter“ (lp05: 240).

4.2.7 Datenschutz

Die letzte Dimension schließlich, der Datenschutz, umfasst abgesehen von der bereits diskutierten Software zur Verhinderung von Tracking oder personalisierter Werbung, in unserem Sample ausschließlich negative Bewertungen. Neben der grundlegend kritisch beurteilten Tatsache, dass User mit Hilfe von Algorithmen überwacht werden, wird vor allem die Verknüpfung bisher getrennter Informationen kritisiert. Dies geschieht über Geräte, aber auch über einzelne Medien hinweg: „Ich hatte das Tracking am Anfang an, ohne es zu wissen. Und dann geht man irgendwann auf Apple-Maps und geht auf ‚Route’, weil man irgendwo hin will. Und dann, nur weil man auf Route klickt, sagt einem Apple, wie lange man jetzt bräuchte, um nach Hause zu kommen. Und da dachte ich: ‚Ok. Woher weiß der das eigentlich?’ […] Und dann wusste ich, dass es mir sagen konnte, wie oft ich zu Hause bin und wann ich zu Hause bin. Und es konnten mir die letzten zwei Wochen angezeigt werden und dann hat es mir gezeigt, wo ich überall war und jeweils von wann bis wann“ (sj06: 383–385). Derartige Vorschläge werden von Usern als anmaßend, zu intim und Verletzung der Privatsphäre empfunden. Zudem gehen mit der Überwachung durch Algorithmen neuartige Möglichkeiten der (Preis-)Diskriminierung einher. Die Interviewten bemängeln: „Bei den Gesundheitsdingern [Wearables; Anm. d. Verf.] habe ich so eine Dystopie im Kopf, mit den Krankenkassen. Es gibt halt schon Ansätze, wo probiert wird, die Leute zu kategorisieren und zu sagen: ‚Wenn Du Dich gesund ernährst, musst Du weniger bezahlen’. Und das ist für mich ein absolutes Unding“ (cp01: 218). Nicht nur im Gesundheitsbereich, sondern auch bei Finanzdienstleistungen nehmen User entsprechende Probleme wahr: „Das hat mich auch ein bisschen erschreckt: Man muss auch gucken, was man dann googelt, weil wenn sie eben daraus schließen, dass wenn man dann vielleicht etwas Anderes googelt, dass dann vielleicht die Kreditwürdigkeit heruntergesetzt wird, oder irgendetwas. Das war schon eine Erkenntnis“ (sj01: 50).

Damit lässt sich hinsichtlich der Bewertung von Algorithmisierungsprozessen durch die befragten Jugendlichen und jungen Erwachsenen für die einzelnen Dimensionen ein recht klares Bild zeichnen: Algorithmen werden primär als Bereicherung aufgenommen, (1) wenn sie neuartige Funktionen bieten, die zuverlässig und frei von Nachteilen genutzt werden können, (2) wenn ihr Einsatz den Usern frei steht und gestaltet werden kann, (3) wenn sie komplexe Funktionen ausführen und ihr Handeln transparent ist, (4) wenn die Ergebnisse ihres Handelns eine verbesserte Qualität oder Quantität aufweisen, ohne dabei störende Nebenfolgen zu bewirken und (5) wenn sie die User entlasten, ohne zusätzlichen Aufwand zu erzeugen. Die Bewertung variiert zudem hochgradig über verschiedene gesellschaftliche Bereiche hinweg und fällt vor allem im Zusammenhang mit Aspekten des Datenschutzes negativ aus.

4.3 Subjektpraktiken im Umgang mit ubiquitärer Überwachung

Die dritte Forschungsfrage fokussiert die Praktiken der User im Umgang mit Kommunikation unter Einbezug von Algorithmen. Eine zentrale Rolle spielen in den Interviews die negativen Bewertungen, weil positiv besetzte Formen derartiger Kommunikation vor allem Nutzungspraktiken erfordern, die weniger komplex und konfliktbehaftet sind. Primär als problematisch eingeschätzte Algorithmen, deren Nutzung zudem oft nicht freiwillig ist, erfordern hingegen Umgangsweisen, die deren Nachteile vermeiden oder zumindest kompensieren. Hinsichtlich des Umgangs mit den negativ bewerteten Algorithmen fokussieren wir im Folgenden auf einen singulären Anwendungskomplex, namentlich die politische wie wirtschaftliche Überwachung durch Algorithmen. Dies hat zwei Gründe: Erstens spielt dieser im Kontext der Automatisierung von Internetkommunikation in jüngerer Vergangenheit eine herausgehobene Rolle. Zweitens bezieht sich in unserem Material die größte Bandbreite an Umgangsweisen auf derartige Algorithmen. So zeigen sich insgesamt vier, in sich noch einmal differenzierte Umgangsweisen: Strategien zur Auflösung kognitiver Dissonanz, ein partieller Nutzungsverzicht, der Wechsel des Mediums und die Anpassung der Technik.

4.3.1 Strategien zur Auflösung kognitiver Dissonanz

„Ja, ich hatte anfangs schon Bedenken, dass die irgendwelche Daten mitlesen: Was ich wo im Internet mache, wo ich bin, welche Geräte benutze, was ich mache. Aber, wie gesagt, durch meine Mutter, die mir solche Sachen erklärt hat: […] Es liest jeder sowieso immer alles mit. […] Ich meine, ich bin halt eher eine von denen, die sagen: Naja, ich habe nichts zu verbergen, dann sollen sie es ruhig mitlesen, das ist mir egal. […] Dann sollen sie halt mein langweiliges Leben abspeichern und mit den Daten glücklich werden, die sie davon haben und mich mit Werbung zumüllen“ (lp05: 232). Wie die Interviewpassage verdeutlicht, versuchen die Befragten kognitive Dissonanzen aufzulösen, die durch die Nutzung von Algorithmen entstehen. Bei Social Media-Angeboten entstehen kognitive Dissonanzen durch zwei Aspekte: Auf der einen Seite erkennen die User die Vorteile der zahlreichen Apps und Plattformen, die ihnen in vielerlei Hinsicht das Leben erleichtern. Diese Vorteile wären ohne den Einsatz von Algorithmen nicht möglich. Gleichzeitig werden die permanent anfallenden Nutzungsdaten von den Dienstanbietern gesammelt, gespeichert, analysiert und weiterverarbeitet. Es hat sich gezeigt, dass die User diese Auswertung ihrer Daten sehr negativ bewerten. Um diesem Dilemma zu entkommen, entwickeln sie im Umgang mit kognitiver Dissonanz drei Strategien: Sie rahmen die Überwachung als Austauschgeschäft, sprechen ihr die Bedeutsamkeit ab oder resignieren vor ihr.

Die Rahmung als Austauschgeschäft ermöglicht die Weiternutzung von Algorithmen, weil die unangenehme Überwachung scheinbar durch einen anderen Nutzen kompensiert wird. Viele der von den Befragten genutzten Apps sind entweder kostenlos verfügbar oder sehr günstig. Für Unternehmen, die Apps anbieten, sind die Daten in der Regel mehr wert als ein einmaliger Verkaufspreis. In der Gegenperspektive ist es um den Wert der Daten anders bestellt. So sagt eine Interviewte: „Daten kosten mich nichts“ (sj08: 137). Für einen anderen User, der Überwachung durchaus kritisch gegenübersteht, erscheint der Tausch seiner Daten gegen einen kostenlosen und unkomplizierten Dienst durchaus fair: „Also ich könnte auch SMS schreiben, aber die meisten machen es ja nicht und ich finde WhatsApp auch angenehmer. Gut, dann ist wieder, ja, hat man alle seine Daten verkauft oder verschenkt und so, aber, irgendwie nimmt man das dann ja doch in Kauf“ (lp02: 157).

Die Annahme einer generellen Bedeutungslosigkeit der persönlichen Daten stellt eine zweite Form des Umgangs mit kognitiver Dissonanz dar. Viele der interviewten Jugendlichen und jungen Erwachsenen waren der Meinung, die Dienstanbieter interessieren sich schlichtweg nicht für persönliche Informationen von ihnen. Vielmehr gehen sie davon aus, dass die Daten zwar gesammelt, aber nicht ausgewertet werden und folgenlos bleiben: „Ich habe das Gefühl, dass mich das jetzt nicht so sehr jetzt betrifft, weil ich nichts Illegales mache und ich jetzt auch nicht so die außergewöhnlichen Posts oder Fotos oder so an meine Schwester oder an meinen Freund oder sonst wen schicke“ (cp04: 254). Auch denken sie, dass die Unternehmen und Regierungen ohnehin nicht das Personal hätten, die Daten im Detail auszuwerten: „Also so datenschutztechnisch sollte das schon irgendwo eingegrenzt werden, aber inwiefern und was die nun mitlesen dürfen und was nicht … das meiste sind ja Algorithmen, die das dann lesen. Es ist ja nicht so, als hätte der BND 100.000 Menschen, die sich meine E-Mails durchlesen. Und da denke ich mir, ob das nun ein Algorithmus durchscannt oder nicht, das ist mir egal“ (sj06: 375). Weil Maschinen und eben nicht Menschen sie überwachen, wird die Über­wachung als weniger problematisch eingeschätzt. Langzeitfolgen werden zugunsten einer gegenwartsbezogenen Einschätzung weitestgehend ausgeblendet.

Drittens finden sich verschiedene Formen resignativer oder fatalistischer Einstellungen gegenüber der Überwachung durch Algorithmen. User sind sich darüber bewusst, dass sie durch verschiedene Organisationen überwacht werden und ergeben sich diesem Zustand. Das Gefühl der Überwachung soll in den Hintergrund rücken, damit sie sich nicht länger damit beschäftigen müssen: „Alles wird überwacht. […] Aber im Endeffekt macht das einem oder mir nicht so viel aus, weil ich mir denke, man wird eben so oder so überwacht. […] Aber ja klar, man denkt schon daran und ich denke, dass das nie anders war“ (cp03: 97). Die Überwachung der Online-Kommunikation wird als ein Normalzustand aufgefasst, der als nicht sonderlich beunruhigend angesehen wird.

4.3.2 Partieller Nutzungsverzicht

Ein partieller Nutzungsverzicht ist eine weitere Praktik des Umgangs mit ubiquitärer Überwachung. So nutzen User das Internet zwar insgesamt, verzichten jedoch bewusst auf einen Teil der Medien und Funktionen oder schränken die Nutzung in bestimmten Kontexten ein. In den Interviews zeigten sich zwei Formen der eingeschränkten Nutzung: Lurking beziehungsweise Datensparsamkeit und eine userseitige Einschränkung des Funktionsumfangs bestimmter Medien.

Lurking bezeichnet die passive Teilnahme an Internetforen, Mailinglisten oder sozialen Netzwerken (Stegbauer/Rausch 2001). Aus den Interviews geht hervor, dass die Jugendlichen und jungen Erwachsenen entgegen der Logik von User-generated content vor allem keine persönlichen Inhalte posten, sondern lediglich Inhalte abrufen und konsumieren. Diese Praktik wird vor dem Hintergrund ubiquitärer Überwachung von den Befragten als Datensparsamkeit gewertet. So müssten User „eben wirklich vor allem darauf achten, dass man nicht zu viel im Internet von sich selber preisgibt“ (sj01: 64). Die zweite Form des Nutzungsverzichts umfasst zunächst die freiwillige Beschränkung des Medienangebots einzelner Anbieter. So wird Facebook beispielsweise ausschließlich über den Browser genutzt und die Messaging-App bewusst nicht installiert, um nicht unnötig Daten preiszugeben. Aber auch einzelne Funktionen von Apps werden beschränkt: „Irgendwelche Sachen, wo man halt sich jetzt mit Facebook verbinden sollte und so etwas. Also wenn es geht, dann mache ich das nicht. Vor allem wenn so verschiedene Informationen in einen Topf geschmissen werden und ich dann keine Kontrolle darüber habe“ (jps04: 104). Daraus resultieren zwar Einbußen in der Usability, aber die Kombination von Informationen unterschiedlicher Provenienz durch Algorithmen wird über den bewussten Verzicht auf bestimmte Funktionen eingeschränkt.

4.3.3 Wechsel des Mediums

Um der Überwachung durch Algorithmen zu entgehen, haben die User die Möglichkeit mediale Online- und Offline-Alternativen zu nutzen und machen davon auch Gebrauch. Online-Alternativen umfassen etwa die Nutzung alternativer Suchmaschinen wie DuckDuckGo oder xQuick, die keine persönlichen Informationen speichern und so auch der Entstehung einer Filter Bubble4 vorbeugen: „Ja, ich gucke dann jetzt nicht wirklich so auf Google, sondern eher auf anderen Plattformen, wo sie anscheinend die Daten noch nicht speichern und verkaufen“ (sj01: 54). Bei bestimmten Diensten ist es allerdings, auch aufgrund der marktbeherrschenden Stellung, nicht so einfach möglich, ohne Einschränkungen auf einen alternativen Anbieter auszuweichen: „Es sind halt die meisten auf WhatsApp. Deswegen bin ich da auch geblieben“ (jps06: 85). Die E-Mail hat interessanterweise vielmals das Image verhältnismäßig sicher hinsichtlich der Überwachung zu sein: „Und dann unterscheide ich auch schon mal, welche Information ich über welchen Kanal versende. Ich würde zum Beispiel, was weiß ich, Adressen, meine Heimatadresse, wenn ich Freunde aus [Stadt anonymisiert, Anm. d. Verf.] einlade, wo ich mein Praktikum gemacht habe, […] nicht über Facebook oder WhatsApp versenden, sondern nur über E-Mail“ (cp03: 97).

Zudem haben datensichere Alternativen, wie Medien des Tor Networks, die ein weitgehend anonymes Surfen ermöglichen und von vielen Befragten bereits ausprobiert wurden, auch Nachteile. Die Such-Algorithmen bei DuckDuckGo sind nicht so ausgereift und die Verbindung über das Tor Network ist beispielsweise langsamer als mit einer direkten Verbindung über einen klassischen Browser: „Ich habe mal eine Weile lang Tor probiert. […] Aber das hat mir irgendwie zu lange gedauert. Also der Verbindungsaufbau war mir zu langsam und das hat es dann ein bisschen unattraktiv gemacht“ (sj03: 217–219).

4.3.4 Anpassung der Technik

Eine Anpassung der Technik ist, mit Blick auf die Überwachung, nur sehr eingeschränkt realisierbar. Auf Seiten der Hardware sind lediglich einfache, aber dennoch weitverbreitete Schutzmaßnahmen, wie das Abkleben der Kamera oder des Mikrofons von Laptops, möglich. Auf Softwareseite bieten sich hingegen einige fruchtbare Möglichkeiten, der Überwachung durch Algorithmen zu entgehen. So werden etwa Produktempfehlungen auf Marktplätzen deaktiviert, Werbebanner über sogenannte Adblocker ausgeblendet und Anonymisierungsdienste beim Surfen eingesetzt: „Cyberghost [Anonymisierungsdienst für Browser, Anm. d. Verf.], […] das habe ich ausprobiert“ (cp03: 112). Zudem sind die technischen Möglichkeiten augenscheinlich noch defizitär: „Man kann ja beispielsweise bei einer App nicht einstellen, dass man zwar Bilder zulässt, aber den Standort nicht, oder umgekehrt. Man muss ja die App so nehmen, wie die das einem anbieten. Da hat man halt keine Optionen. Entweder nutze ich WhatsApp und bin damit einverstanden oder ich nutze es halt nicht. Und da fühle ich mich schon irgendwie gezwungen es auch zu nutzen, denn sonst, […] ist man halt irgendwie auch ein bisschen ausgegrenzt“ (lp01: 147). Gemäß dem Partizipationsparadox (Schmidt 2013: 81) stellen die Dienstanbieter unterschiedliche Anwendungen und Partizipationsmöglichkeiten bereit, schließen die User jedoch von der Mitsprache bei der kommerziellen Weiterverarbeitung ihrer Daten aus. Entweder die Nutzer akzeptieren die (sich häufig ändernden) Nutzungsbedingungen, oder sie werden von der Nutzung vollständig ausgeschlossen. In diesem Machtverhältnis sind sie in einer denkbar schlechten Verhandlungsposition. Nicht zuletzt wird das Web 2.0 daher auch als Marktideologie bezeichnet, da es sich lediglich um eine Pseudo-Teilhabe handelt (vgl. Fuchs 2011: 137).

Aus den vier vorgestellten Praktiken lassen sich zunächst zwei Folgerungen ableiten. Erstens zeigt sich für alle Interviewten, dass sie Lösungsmöglichkeiten für die Nachteile, die mit Überwachung durch Algorithmen einhergehen, suchen. Es gibt damit, dem Stand der Forschung entsprechend (etwa Initiative D21 2013; Winter 2013), ein grundlegendes Problembewusstsein, auch wenn ihnen die konkrete Funktionsweise und das Ausmaß der Überwachung nicht vollumfänglich bewusst sind. Daran anknüpfend sind die Praktiken zweitens oft fragmentarisch und vorläufig. Das durch einen hohen Grad an Komplexität, Indirektheit und Intransparenz geprägte Feld der Überwachung durch Algorithmen wird von den Befragten trotz teils hoher technischer Expertise nur in Auszügen wahrgenommen. Ein wichtiger Grund hierfür resultiert aus der Rolle der Algorithmen. So ist in der bisherigen Diskussion nur unzureichend berücksichtigt, dass die Algorithmen nicht nur beliebiges Mittel zum Zweck der Überwachung sind, sondern die Ausgestaltung der Überwachung direkt prägen. Die „Qualität“ des Überwachungszusammenhangs hängt so eng mit den Merkmalen (im Sinne der sieben vorgestellten Dimensionen) der Algorithmen zusammen. Mit der hier vorgeschlagenen Konzeption von Algorithmen als sozio-technische Systeme lässt sich dabei erstens der spezifische Beitrag der Technik zum „Surveillance Regime“ von dem der beteiligten Akteure und Organisationen abgrenzen. Zweitens lässt sich das Verhältnis zwischen Mensch und Technik differenzierter darstellen. Dabei konnte gezeigt werden, dass User das Handeln von Algorithmen im Kontext sensibler Informationen nicht per se ablehnen, wohl aber genaue Grenzen zu beschreiben wissen.

Die Praktiken im Umgang mit Überwachung durch Algorithmen sind vielmals insofern vergebens, als sie das Individuum nur unzureichend vor Überwachung zu schützen vermögen: Sie gleichen einem Kampf gegen Windmühlen. Wie einst Don Quijote stehen sie vielarmigen (Daten-)Riesen gegenüber, denen sie mehr oder weniger hilflos ausgeliefert sind. Viel schlimmer noch ist, dass auch bei Überwachung durch Algorithmen nicht immer klar ist, was Fiktion und was Realität ist. Dieser Zustand speist sich aus drei unterschiedlichen Quellen. Für User ist es erstens nahezu unmöglich einzuschätzen, welche ihrer Online-Kommunikation, in welchem Umfang, durch welche Organisationen, mit welchen Zielen und mit welcher Persistenz überwacht wird. Dies hängt zentral damit zusammen, dass Algorithmen gewissermaßen unsichtbar agieren, weil sie im Hintergrund, hochgradig flexibel, in Echtzeit und weitestgehend ohne zeitliche, räumliche oder inhaltliche Beschränkungen tätig sind. Zudem ist die Wirtschaft als Träger von technischen Innovationen den Usern (wie auch den Sozialwissenschaften) immer einen Schritt voraus. Die Analyse der Praktiken hat gezeigt, dass User angesichts der Totalität von Online-Überwachung nur sehr stumpfe Waffen zur Verfügung haben. Zweitens sind Unternehmen und staatliche Organisationen, deren Geschäftsgrundlage das Erheben, Kombinieren und Auswerten von User-Daten ist, darauf bedacht, ihre Algorithmen möglichst unter Verschluss zu halten. Nicht unwesentliche Teile der heute verfügbaren Informationen stammen folgerichtig aus Leaking-Initiativen oder wurden von Datenschützern mühevoll zusammengetragen. Drittens schließlich zeigte sich in den Interviews, dass die Befragten zwar in vielen Bereichen der Internetnutzung ein hohes Maß an technischer Kompetenz aufweisen, aber in Bezug auf Algorithmen insgesamt und solche der Überwachung im Speziellen keine ausreichenden Kenntnisse aufweisen. So fanden sich auch Praktiken, die gänzlich wirkungslos blieben oder allenfalls an der Oberfläche wirksam waren.

Aus der öffentlichen Diskussion ist zwar die grundlegende Problematik bekannt, aber handlungsrelevantes Wissen beziehen die User primär aus Erzählungen oder versuchen sich dieses auf Basis von Mutmaßungen selbst zu erschließen. In diesem Kontext sind auch die vorgestellten vier Praktiken zu verstehen: Die Strategien zur Auflösung kognitiver Dissonanz ändern am konkreten Problem wenig, sondern allenfalls an dessen Auswirkung auf das individuelle Wohlbefinden. Der partielle Nutzungsverzicht und der Wechsel des Mediums stehen für einen Kompromiss: Zwar werden die negativen Folgen der Algorithmisierung vermieden, aber gleichermaßen muss auf das Internet oder zumindest auf bestimmte Anwendungen und Dienste verzichtet werden. Die Anpassung der Technik schließlich verspricht den besten Schutz gegen Überwachung, übersteigt aber jenseits simpler Maßnahmen schnell die Fähigkeiten der User und ihre Motivation, sich diese anzueignen: Die Unkompliziertheit und Geschwindigkeit der Nutzung stehen oft über dem Wunsch, sich vor ungewünschten Algorithmen zu schützen.

5 Zusammenfassung und Ausblick

Unsere Studie hat zunächst gezeigt, dass seitens der von uns befragten User keine grundsätzlichen Bedenken gegenüber Kommunikationen, an denen Algorithmen beteiligt sind, bestehen. Auch wenn sich an einigen Stellen noch Berührungsängste zeigen, etwa wenn die Interaktion mit Maschinen als unnatürlich oder befremdlich wahrgenommen wird, so bestehen dennoch keine grundsätzlichen Zweifel daran, dass auch Maschinen Handlungs- und Entscheidungsfähigkeit zugesprochen werden kann oder sogar sollte. Vielmehr wird die Nützlichkeit solcher Automatisierungsprozesse im Sinne einer Entlastung der User in den Vordergrund gestellt. Allerdings deuten sich auch Grenzen der Akzeptanz der Algorithmisierung an. An vielen Stellen machten die Befragten deutlich, dass sie eine Beeinflussung des eigenen Handelns durch Algorithmen überaus kritisch sehen, oft auch explizit ablehnen. Eine solche „Manipulation“ des Verhaltens scheint aus zwei Gründen inakzeptabel. Erstens ist sie oft verbunden mit einer neuartigen Eingriffstiefe. Beispielsweise sind User auch bisher schon vielfältigen und teils manipulativen Werbekampagnen ausgesetzt. Wenn auf Basis von Big Data-Anwendungen allerdings personalisierte, kontextuierte und zielgerichtete Werbung geschaltet wird, wird dies von den Usern abgelehnt. Ähnliches zeigt sich beispielsweise auch im Bereich der Medien, wenn Inhalte durch Recommendation Engines und Ähnliches derart präsentiert werden, dass die Nichtrezeption sehr viel Disziplin verlangt. Je näher Algorithmen an die Lebenswelt und Persönlichkeit der User rücken, desto heikler ist deren Einsatz, wenngleich wenig „treffsichere“ Algorithmen ebenso abgelehnt werden.

Ein zweites Problem zeigt sich, wenn zu kontingentem Handeln fähige Maschinen in bisher privaten Kontexten agieren. Wenn Algorithmen, vor allem in materialisierter Form wie Roboter, in Privathaushalten zum Einsatz kommen, wird dies als „gruselig“ oder „beängstigend“ umschrieben. Dahinter scheinen einerseits Sicherheitserwägungen zu liegen, andererseits aber auch fehlende Erfahrungen, denn in den Interviews bezogen sich die kritischen Einstellungen auf Nutzungsszenarios, nicht aber auf konkrete Erlebnisse. Gleichwohl ist plausibel, dass für eine Akzeptanz im privaten Umfeld größere Barrieren bestehen als im öffentlichen Raum oder der Arbeitswelt. Eine Lösung für beide Probleme bestünde ohne Frage in mehr Transparenz hinsichtlich des Einsatzes, der Wirkungsweisen und der Ziele von Algorithmen (vgl. auch Introna/Wood 2004) bei gleichzeitig erhöhten Wahlmöglichkeiten für die User.

Darüber hinaus weist die Studie drei wichtige Ergebnisse auf: Erstens konnte gezeigt werden, welche Formen und Ausprägungen von Kommunikation unter Einbezug von Algorithmen Jugendliche und junge Erwachsene im Alltag wahrnehmen. Dabei war eine starke Konzentration im Feld der Wirtschaft und der Massenmedien evident. Vereinzelt findet sich derartige Kommunikation auch im Bereich der Gesundheit, der Intimbeziehungen, des Sports, des Rechts und der Politik. Die darauf aufbauende zweite Forschungsfrage untersuchte anhand der im zweiten Abschnitt erarbeiteten Dimensionen die Einflussfaktoren auf die Bewertung von Algorithmisierungsprozessen. Algorithmen werden demnach vor allem dann als Bereicherung wahrgenommen, wenn sie neuartige Funktionen bieten, die zuverlässig und frei von Nachteilen genutzt werden können, wenn ihr Einsatz den Usern frei steht und gestaltet werden kann, wenn sie komplexe Funktionen ausführen und ihr Handeln transparent ist, wenn die Ergebnisse ihres Handelns eine verbesserte Qualität oder Quantität aufweisen, ohne dabei störende Nebenfolgen hervorzurufen, und wenn sie die User entlasten, ohne zusätzlichen Aufwand zu erzeugen. Die Bewertung variiert zudem hochgradig über verschiedene gesellschaftliche Bereiche hinweg; sie ist negativ vor allem in Zusammenhang mit Aspekten des Datenschutzes. Thematisch verengt auf politische und wirtschaftliche Überwachung durch Algorithmen wurde drittens danach gefragt, welche Umgangsweisen die Befragten in Bezug auf solche Algorithmen entwickeln. Vier Praktiken lassen sich unterscheiden: Strategien zur Auflösung von kognitiver Dissonanz, ein partieller Nutzungsverzicht, der Wechsel des Mediums und die Anpassung der Technik. Allerdings gelingt es den Usern durch diese Praktiken nur sehr eingeschränkt, die als problematisch wahrgenommenen Aspekte von Online-Überwachung zu verhindern oder zumindest zu kompensieren. Die Praktiken haben stark fragmentarischen Charakter und beschränken sich zudem häufig auf Oberflächenphänomene.

Neben diesen empirisch fundierten Ergebnissen sind drei Limitationen der Studie zu konstatieren. Aufgrund der Sekundärauswertung im Rahmen eines auf die Internetnutzung insgesamt ausgelegten Projekts lag nicht zu allen Aspekten der Algorithmisierung eine hohe Materialdichte vor. Im Rahmen einer expliziten „Algorithmenstudie“ käme wohl eine noch größere Bandbreite an Phänomenen zur Sprache. Gleichwohl führt der vorliegende Zugang zum Thema dazu, dass die in den Wahrnehmungsmustern der User vordergründigen Phänomene untersucht wurden. Zweitens bilden Jugendliche und junge Erwachsene eine spezifische Gruppe von Internetnutzerinnen und -nutzern, deren Wahrnehmungs- und Bewertungsmuster von, aber auch Umgangspraktiken mit Algorithmen sich nicht mit anderen Gruppen decken müssen. Ebenso kann der Bildungshintergrund der Befragten, die entweder das Gymnasium besuchen oder studieren, einen Einfluss auf die Wahrnehmung und Bewertung von Algorithmen haben (DIVSI 2014). Es kann angenommen werden, dass sie die geringsten Vorbehalte gegenüber neuer Technik haben und zudem über ein vergleichsweise hohes Technikwissen verfügen. Menschen, die nur wenig Erfahrung mit internetbasierten und algorithmischen Anwendungen haben, entwickeln möglicherweise andere Umgangspraktiken als unsere Gruppe. Drittens schließlich ist das rekonstruktive Verfahren hinsichtlich der Datenqualität weniger verlässlich als Erhebungsverfahren, die direkt am Alltag ansetzen. Im Rahmen eines begleitenden Surfens oder von teilnehmenden Beobachtungen ließen sich ohne Frage noch aufschlussreichere Ergebnisse erzielen. Auch hier ist anzunehmen, dass der Kontext der Nutzung oder der Betroffenheit von Algorithmen deren Bewertung und den Umgang mit ihnen beeinflusst. Gleichwohl zeigt die Studie, dass eine empirisch fundierte, am Individuum ansetzende Algorithmenforschung überaus fruchtbare und wichtige Beiträge zu Ursachen, Erscheinungsformen und Folgen dieser neuartigen Technisierungsprozesse leisten kann.

Literatur

Bauman, Zygmunt und David Lyon, 2014, Daten, Drohnen, Disziplin. Ein Gespräch über flüchtige Überwachung, 3. Auflage. Berlin. Suhrkamp.

Bucher, Taina, 2012, Want To Be on the Top? Algorithmic Power and the Threat of Invisibility on Facebook, New Media & Society 14 (7): 1164–1180.

Constantiou, Ioanna D. und Jannis Kallinikos, 2015, New games, new rules: Big data and the changing context of strategy, Journal of Information Technology 30 (1): 44–57.

Davis, Fred D., Richard P. Bagozz und Paul. R. Warshaw, 1989, User acceptance of computer technology – a comparison of two theoretical models, Management Science 35 (8): 982–1003.

Diakopoulos, Nicholas, 2014, Algorithmic Accountability Reporting: On the Investigation of Black Boxes. New York. Tow Center. Online vefügbar: http://towcenter.org/wp-content/uploads/2014/02/78524_Tow-Center-Report-WEB-1.pdf. (Stand: 26.10.2016).

Dietvorst, Berkeley J., Joseph P. Simmons und Cade Massey, 2014, Algorithm Aversion: People Erroneously Avoid Algorithms after Seeing Them Err, Journal of Experimental Psychology 144 (1): 114–126.

DIVSI, 2014, DIVSI U25-Studie, Kinder, Jugendliche und junge Erwachsene in der digitalen Welt. Hamburg.

Fuchs, Christian, 2013, Societal and Ideological Impacts of Deep Packet Inspection Internet Surveillance, Information, Communication & Society 16 (8): 1328–1359.

Fuchs, Christian, 2011, New Media, Web 2.0 and Surveillance, Sociology Compass 5 (2): 134–147.

Fuchs, Christian und Daniel Trottier, 2015, Towards a theoretical model of social media surveillance in contemporary society, Communications 40 (1): 113–135.

Glaser, Barney G. und Anselm L. Strauss, 1967, The Discovery of Grounded Theory. Strategies for Qualitative Research. New Brunswick/London. Aldine Transaction.

Gomolka, Johannes, 2011, Algorithmic Trading. Analyse von computergesteuerten Prozessen im Wertpapierhandel unter Verwendung der Multifaktorenregression, Potsdam. Universitätsverlag.

Gurevich, Yuri, 2014, What is an Algorithm? (Revised), S. 165–186, in: Adam Olszewski, Bartosz Brozek und Piotr Urbańcyzk (Hg.): Church’s Thesis. Logic, Mind and Nature. Kraków. Copernicus Center Press.

Hamilton, Kevin, Christian Sandvig, Karrie Karahalios und Motahhare Eslami, 2014, A path to understanding the effects of algorithm awareness. S. 631-640, in: Proceedings of the 32nd Annual ACM Conference on Human Factors in Computing Systems. New York. ACM Press.

Hepp, Andreas, 2013, The communicative figurations of mediatized worlds: Mediatization research in times of the „mediation of everything“, European Journal of Communication 28 (6): 615–629.

Hepp, Andreas, Stig Hjarvard und Knut Lundby, 2010, Mediatization – Empirical perspectives: An introduction to a special issue, Communications 35: 223–228.

Hughes, Thomas P., 1987, The Evolution of Large Technological Systems, S. 51–82, in: Wiebe E. Bijker, Thomas P. Hughes und Trevor J. Pinch (Hg.): The Social Construction of Technological Systems. New Directions in the Sociology and History of Technology. Cambridge/London. The MIT Press.

Initiative D21 e.V. und TNS Infratest GmbH, 2013, D21 - Digital - Index: Auf dem Weg in ein digitales Deutschland?! Berlin. Initiative D 21.

Introna, Lucas und David Wood, 2004, Picturing Algorithmic Surveillance. The Politics of Facial Recognition Systems, Surveillance & Society 2 (2–3): 177–198.

Jurczyk, Karin, G. Günter Voß und Margit Weihrich, 2015, Conduct of Everyday Life in Subject-Oriented Sociology: Concept and Empirical Research, S. 34–64, in: Ernst Schraube und Charlotte Højholt (Hg.): Psychology and the Conduct of Everyday Life. East Sussex. Routledge.

Kitchin, Rob, 2017, Thinking critically about and researching algorithms, Information, Communication & Society 20 (1): 14–29.

Kornwachs, Klaus, 1994, Steuerung und Wachstum. Ein systemtheoretischer Blick auf große technische Systeme, S. 410–445, in: Ingo Braun und Bernward Joerges (Hg.): Technik ohne Grenzen, Frankfurt a.M.. Suhrkamp.

Kraemer, Felicitas, Kees van Overveld und Martin Peterson, 2011, Is there an ethics of algorithms?, Ethics, Information, Technology 13: 251–260.

Krotz, Friedrich, 2001, Die Mediatisierung kommunikativen Handelns. Der Wandel von Alltag und sozialen Beziehungen, Kultur und Gesellschaft durch die Medien. Wiesbaden. VS Verlag für Sozialwissenschaften.

Mayer-Schönberger, Viktor und Kenneth Cukier, 2013, Big Data. A revolution that will transform how we live, work and think. London. Eamon Dolan.

Mayring, Philipp, 2008, Qualitative Inhaltsanalyse: Grundlagen und Techniken. 10., neu ausgestattete Auflage. Weinheim: Beltz Verlag.

Merton, Robert K. 1995, The Thomas Theorem and The Matthew Effect, Social Forces 74 (2): 379–424.

Moschovakis Yiannis N., 2001, What is an algorithm? S. 919–936, in: Björn Engquist und Wilfried Schmid (Hg.): Mathematics Unlimited and beyond. Berlin/Heidelberg. Springer.

Neyland, Daniel und Norma Möllers, 2016, Algorithmic IF ... THEN rules and the conditions and consequences of power, Information, Communication & Society 20 (1): 45–62.

Papsdorf, Christian, 2013, Internet und Gesellschaft. Wie das Netz unsere Kommunikation verändert. Frankfurt a.M./New York. Campus Verlag.

Papsdorf, Christian, 2015, How the Internet automates communication, Information, Communication & Society 18 (9): 991–1005.

Pariser, Eli, 2011, The Filter Bubble. What the Internet Is Hiding from You. New York. Penguin Press.

Popitz, Heinrich, 1995, Der Aufbruch zur Artifiziellen Gesellschaft. Zur Anthropologie der Technik. Tübingen. J.C.B. Mohr.

Rader, Emilee und Rebecca Gray, 2015, Understanding User Beliefs About Algorithmic Curation in the Facebook News Feed. S. 173-182, in: Proceedings of the 33nd Annual ACM Conference on Human Factors in Computing Systems. New York. ACM Press.

Rammert, Werner, 1993, Technik aus soziologischer Perspektive. Opladen. Westdeutscher Verlag.

Rammert, Werner, und Ingo Schulz-Schaeffer, 2002, Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt, S. 11–64, in: Werner Rammert und Ingo Schulz-Schaeffer (Hg.): Können Maschinen handeln? Frankfurt am Main/New York. Campus Verlag.

Renn, Ortwin, 2005, Technikakzeptanz: Lehren und Rückschlüsse der Akzeptanzforschung für die Bewältigung des technischen Wandels, Technikfolgenabschätzung – Theorie und Praxis 14 (3): 29–38.

Ruckenstein, Minna und Mika Pantzar, 2015, Beyond the Quantified Self: Thematic exploration of a dataistic paradigm, New Media & Society, Online First,https://doi.org/10.1177/1461444815609081.

Schmidt, Jan-Hinrik, 2013, Social Media. Wiesbaden. VS Verlag für Sozialwissenschaften.

Schuster, Simon, Pascal Jürgens, Dieter Dörr, Birgit Stark und Melanie Magin, 2015, Neutralität, Transparenz und Kompetenz. Rechtliche Ansatzpunkte für eine Neuregulierung des Suchmaschinenmarktes, S. 87–118, in: Martin Emmer und Christian Strippel (Hg.): Kommunikationspolitik für die digitale Gesellschaft. Berlin. DGPuK.

Stegbauer, Christian und Alexander Rausch, 2001, Die schweigende Mehrheit – „Lurker“ in internetbasierten Diskussionsforen, Zeitschrift für Soziologie 30 (1): 48–64.

Trottier, Daniel und David Lyon, 2012, Key Features of Social Media Surveillance, S. 89–105, in: Christian Fuchs, Kees Boersma, Anders Albrechtslund und Marisol Sandoval (Hg.): Internet and Surveillance. The Challenge of Web 2.0 and Social Media. New York/London. Routledge.

Tufekci, Zeynep, 2015, Algorithmic Harms Beyond Facebook and Google: Emergent Challenges of Computational Agency, Colorado Technology Law Journal 13: 203–218.

Venkatesh, Viswanath und Fred D. Davis, 2000, A theoretical extension of the technology acceptance model: Four longitudinal field studies, Management Science 46 (2): 186–204.

Weingart, Peter, 1989, Großtechnische Systeme – ein Paradigma der Verknüpfung von Technikentwicklung und sozialem Wandel?, S. 174–196, in: ders. (Hg.): Technik als sozialer Prozeß. Frankfurt a.M. Suhrkamp.

Weyer, Johannes, 2008, Techniksoziologie. Genese, Gestaltung und Steuerung sozio-technischer Systeme. Weinheim/München. Juventa Verlag.

Willson Michele, 2017, Algorithms (and the) everyday, Information, Communication & Society 20 (1): 137–150.

Winter, Jennifer S., 2014, Surveillance in ubiquitous network societies: normative conflicts related to the consumer in-store supermarket experience in the context of the Internet of Things, Ethics and Information Technology 16 (1): 27–41.

Zurawski, Nils, 2014, Geheimdienste und Konsum der Überwachung, Aus Politik und Zeitgeschichte 64 (18/19): 14–19.

Datenverfügbarkeit

Alle relevanten Daten befinden sich innerhalb der Veröffentlichung.

Interessenskonfliktstatement

Die Autor:innen erklären, dass ihre Forschung ohne kommerzielle oder finanzielle Beziehungen durchgeführt wurde, die als potentielle Interessenskonflikte ausgelegt werden können.


  1. IP-fizierung bezeichnet die Verbindung von immer mehr technischen Artefakten, vor allem von Alltagstechnik, die bisher offline war, mit dem Internet.↩︎

  2. Als Intensivnutzer werden im Folgenden Personen verstanden, die eine große Bandbreite an Internetmedien nutzen, technisch versiert sind, eine umfassende Ausstattung an Internetgeräten haben, die größte tägliche Nutzungsdauer aufweisen und die Internetmedien in der Regel anderen Kommunikationsformen vorziehen. Dieser (gleichwohl heterogenen) Gruppe lassen sich sogenannte Alltagsnutzer gegenüberstellen, für die das Internet keine herausgehobene Bedeutung hat, sondern eine Kommunikationsform unter vielen darstellt. Sie nutzen das Internet selektiv, pragmatisch und moderat. Sie bilden insofern das andere Ende des Spektrums, als das Sample keine Nichtnutzer umfasste.↩︎

  3. Die Interviewsequenzen wurden zur besseren Lesbarkeit sprachlich geglättet. Die Quellenangabe gibt die Nummer des Interviews sowie den entsprechenden Absatz wieder.↩︎

  4. Eine Filter Bubble bezeichnet nach Pariser (2011) die meist unsichtbare Beeinflussung der User durch Empfehlungen, Selektionen oder Einschränkungen über Algorithmen, die zu einer Isolation der User „in“ bestimmten Kontexten führt und die Vielfalt an Informationen stark reduziert.↩︎