Algorithmische Selektion im Internet

Risiken und Governance automatisierter Auswahlprozesse

  • Florian Saurwein Alpen-Adria-Universität Klagenfurt
  • Natascha Just Michigan State University
  • Michael Latzer Universität Zürich

DOI:

https://doi.org/10.15460/kommges.2017.18.2.586

Schlagworte:

Internet, Nutzung, Algorithmus, Selektion, Information, Automatisierung, Risikoabschätzung, Einfluss, Verhalten, Technikfolgenabschätzung

Redaktion und Begutachtung

  • Jan-Hinrik Schmidt Leibniz-Institut für Medienforschung, Hamburg (HBI)
  • Christian Stegbauer Universität Frankfurt/Main

Abstract

Algorithmen im Internet prägen zunehmend unseren Alltag und unsere Wahrnehmung der Welt. Sie wählen Informationen aus, weisen ihnen Relevanz zu und helfen, die Informationsflut im Internet zu bewältigen. Gleichzeitig wird die Verbreitung von algorithmischer Selektion von Risiken und regulatorischen Herausforderungen begleitet. Der Beitrag beleuchtet Anwendungszwecke und den Einfluss von algorithmischer Selektion und bietet einen Überblick zu den damit verbundenen Risiken. Die Risiken bilden Ausgangspunkte für etwaige Markteingriffe und die Suche nach adäquaten Steuerungs- und Regelungsarrangements (Governance). Vor diesem Hintergrund analysiert der Beitrag die Möglichkeiten und Grenzen von unterschiedlichen Governance-Ansätzen auf dem Kontinuum zwischen Markt und Staat und liefert Grundlagen für die Auswahl von passenden Governance-Optionen. Die Untersuchung zeigt, dass sich keine Einheitslösung für die Governance von algorithmischer Selektion anbietet. Die Aufmerksamkeit muss auf mehrdimensionale Lösungsansätze gerichtet werden, in denen Governance-Maßnahmen kombiniert werden, die sich gegenseitig ermöglichen und ergänzen.

1 Anwendung und Nutzen algorithmischer Selektion

Wirtschaft und Gesellschaft unterliegen weitreichenden Veränderungen, die maßgeblich durch Digitalisierung, mobile Kommunikation, Big Data und künstliche Intelligenz geprägt werden. Von den vielen Facetten der IKT-Entwicklung erlangen folgende Phänomene zunehmende Aufmerksamkeit (Latzer et al. 2014; 2016): Algorithmen und Prozesse automatisierter, algorithmischer Selektion. Algorithmische Selektion ist ein Prozess, der Elementen mittels automationsgestützter, statistischer Bewertung extern generierter Datensignale Relevanz zuweist. Dabei steht Selektion für die Auswahl oder Auslese von Elementen aus einer Gesamtheit sowie deren Strukturierung, Ordnung und Sortierung durch Relevanzzuweisung. Im Wesentlichen kann die Funktionsweise algorithmischer Selektion als Input-Throughput-Output-Modell beschrieben werden (Latzer et al. 2014; 2016). Dabei ist der Throughput-Prozess durch die Zuweisung von Relevanz und die entsprechende Selektion gekennzeichnet. Relevanzzuweisung und Selektion erfolgen auf Basis unterschiedlicher Inputdaten (z.B. Anzahl Verlinkungen, Benutzerprofil) und Funktionsweisen (z.B. Paarung, Aus- und Einsortierung, Filterung), die sich dann im Output wieder in unterschiedlichen Formen zeigen (z.B. Rangliste, Empfehlung, Angebot, Text, Musik).

Algorithmische Selektion ist der technisch-funktionale Kern einer Fülle von Anwendungen, deren Anzahl und Einfluss auf die Prozesse gesellschaftlicher Information, Kommunikation und Transaktionen rasant zunehmen. Auf ihr basieren Anwendungen wie Suchmaschinen, Informationsaggregatoren, Empfehlungssysteme, Bewertungssysteme (Scoring), Überwachungs- und Prognoseanwendungen, intelligente Filtermechanismen, die automatisierte Inhaltsproduktion (Algorithmischer Journalismus) und Allokationsanwendungen wie algorithmisch gesetzte Werbung (Computational Advertising) oder algorithmen-basierter Handel (Algo Trading) (vgl. Latzer et al. 2014; 2016; Tab. 1). Algorithmische Selektion dient dazu, die Relevanz von Webdokumenten zu berechnen, Nachrichtenbeiträge zu sortieren, Bücher, Musikstücke, Filme und Partner zu empfehlen, personalisierte Werbeanzeigen zu schalten, Preise und Reiserouten festzulegen, die Reputation von individuellen und kollektiven Akteuren zu bestimmen, kriminelle Handlungen aufzudecken oder zu prognostizieren, und eine immense Anzahl an Transaktionen in enormer Geschwindigkeit abzuwickeln.

Tabelle 1: Funktionale Typologie algorithmischer Selektion (Funktionszwecke). Quelle: Latzer et al. 2014; 2016
Funktionstyp (Zweck) Fallbeispiele
Suche Universalsuchmaschinen (z.B. Google Search)
Aggregation Nachrichtenaggregatoren (z.B. nachrichten.de)
Überwachung Geheimdienstüberwachung (z.B. Prism/xKeystore)
Prognose Predictive Policing (z.B. PredPol)
Filterung Spam-Filter (z.B. Norton)
Empfehlung Recommendersysteme (z.B. Spotify)
Bewertung/Scoring Social Scoring (z.B. Klout), Credit-Scoring (z.B. Kreditech)
Inhaltserstellung Algorithmischer Journalismus (z.B. Narrative Science/Quill)
Allokation Computational Advertising, Algo Trading (z.B. Quantopian)

Durch diese vielfältigen Funktionen liefert algorithmische Selektion einen bedeutenden gesellschaftlichen Nutzen. Es ist unmöglich geworden, sich der Informationsflut ohne technische Auswahl-Mechanismen zu stellen. Der rasante Zuwachs an Inhalten und Daten führt zu einem Überfluss an Informationen, dem die Knappheit an verfügbarer Aufmerksamkeit auf der Nutzerseite gegenübersteht. Entsprechend verstärkt sich der Bedarf nach Selektion von relevanten Inhalten. Internet-Anwendungen, die auf algorithmischer Selektion basieren, wie etwa Suchmaschinen, Empfehlungssysteme oder Informationsaggregatoren filtern die wachsende Informationsmenge, treffen eine Auswahl und sortieren Information nach bestimmten „Relevanzkriterien“. Algorithmische Selektion leistet damit einen wichtigen Beitrag zur Bewältigung der Informationsüberflutung. Sie trägt dazu bei, Informationsasymmetrien abzubauen, Suchkosten zu reduzieren und die Markttransparenz zu verbessern. Algorithmische Selektion strukturiert das Informationsangebot und bietet Nutzern Orientierung. Damit kanalisiert algorithmische Selektion auch Aufmerksamkeit, die zentrale knappe Ressource der Informationsgesellschaft (Franck 1998).

Zusätzlich zu diesem Orientierungswert für Nutzer stiftet algorithmische Selektion auch einen bedeutenden Nutzen für Unternehmen und die Wirtschaft. Hier sind vor allem die neuen Potenziale zur Beobachtung und Prognose des gesellschaftlichen und individuellen Verhaltens bedeutsam. Zu beobachten sind die Entwicklung neuer algorithmisch-selektierender Anwendungen, die Entstehung innovativer Geschäftsideen und -modelle sowie die Etablierung neuer Unternehmen, Produkte und Dienstleistungen, die sich algorithmischer Anwendungen bedienen, um Prozesse zu optimieren und Entwicklungen zu prognostizieren. Rund um digitale Daten bildet sich eine heterogene Sammlungs- und Verwertungsindustrie, der eine goldene Zukunft vorhergesagt wird. Daten werden mitunter als der Rohstoff, das Gold oder das Erdöl der Zukunft bezeichnet (WEF 2011) und algorithmische Selektions-Anwendungen zählen zu den Werkzeugen, mit denen diese Schätze gehoben werden sollen. Die betriebs- und volkswirtschaftlichen Effekte von neuen und verbesserten algorithmischen Analyse- und Prognosewendungen werden als vielversprechend eingestuft. Auch die OECD (2013) spricht von einem neuen datengetriebenen, sozioökonomischen Modell, in dem die Daten das Kern-Asset bilden, mit dem Wettbewerbsvorteile kreiert und Innovation, nachhaltiges Wachstum und Entwicklung angetrieben werden können. Algorithmische Selektion trägt in den vielfältigen Anwendungsfeldern dazu bei, Wertschöpfung zu erzielen und Nutzen zu generieren, z.B. mittels personalisierter Gesundheitsvorsorge oder zur Optimierung des Ressourcenmanage­ments in intelligenten, nachhaltigen Städten. So sollen Algorithmen künftig beispielsweise in der Lage sein, Finanzkrisen frühzeitig zu erkennen (Rönnqvist/Sarlin 2016) und Verkehrsströme automatisiert zu organisieren (Helbing 2015).

Die gesellschaftliche Bedeutung algorithmischer Selektion resultiert des Weiteren aus der Durchdringung vielfältiger Wirtschafts- und Gesellschaftsbereiche mit algorithmischen Anwendungen. Es scheint kaum einen Wirtschaftssektor oder einen gesellschaftlichen Lebensbereich zu geben, in dem algorithmische Selektion nicht in irgendeiner Form bereits zum Einsatz kommt oder in Zukunft zum Einsatz gebracht werden könnte. So werden Algorithmen in unterschiedlichsten Anwendungsfeldern wie im elektronischen Handel, im Börsen- und Versicherungswesen, in den Bereichen soziale Interaktion, Sicherheit/Überwachung, Politik, Bildung/Wissenschaft, Logistik/Verkehr, in der Arbeitsplatzvermittlung und im Gesundheitswesen verwendet.

Anwendungen, die auf algorithmischer Selektion basieren, haben gesellschaftlichen Einfluss. Sie strukturieren Informations- und Kommunikationsprozesse, vollziehen Transaktionen und operieren dabei – in unterschiedlichem Ausmaß – automatisiert. Dementsprechend wird algorithmischer Selektion ein starker Einfluss, mitunter sogar grosse Macht zugeschrieben (Slavin 2011; Steiner 2012; Gillespie 2014). Wirkungen und Einfluss lassen sich anhand von Beispielen illustrieren, wie dem Einfluss von Empfehlungssystemen auf das Kaufverhalten im elektronischen Handel (Senecal/Nantel 2004; Hinz/Eckert 2010), dem Einfluss von Suchmaschinen-Rankings auf die Lenkung von Aufmerksamkeit im Internet (Epstein/ Robertson 2013; Döpfner 2014;) oder dem Einfluss von Newsfeeds in sozialen Netzwerken auf die Nachrichtenindustrie (Bucher 2012; Somaiya 2014). Zudem wird häufig argumentiert, dass Technik, Software und Algorithmen eine regulierende, verhaltenssteuernde Wirkung haben (Dolata/Werle 2007), die mit jener des Rechts vergleichbar ist (Lessig 1999; Manovich 2013; Gillespie 2014; Pasquale 2015). Die Steuerung von einzelnen konkreten Handlungen oder Operationen erfolgt dabei jeweils mittels abstrakter, institutionalisierter Regelsysteme (Softwareprogramm, Gesetz). Sowohl Recht als auch Technik werden daher als Institutionen begriffen und im wissenschaftlichen Diskurs wird auch von einer Steuerung durch Algorithmen (Governance-by-Algorithms) gesprochen (Just/Latzer 2016).

2 Risiken algorithmischer Selektion

Der Nutzen von algorithmischen Selektionsanwendungen wie Suchmaschinen, der erleichterte Umgang mit der Informationsvielfalt im Internet und das neueröffnete Potenzial für Innovationen stellen jedoch nur eine Seite der Medaille der algorithmischen Selektion dar. Den Nährboden für einen kritischen öffentlichen Diskurs bildet eine Reihe von Risiken für individuelle Nutzer und die Gesellschaft. Diese Risiken begleiten die algorithmische Selektion und sie stehen den Vorteilen und dem Nutzen der algorithmischen Anwendungen gegenüber. Zu den Risiken zählen gemäß Latzer et al. (2014):

  • Probleme der Manipulation von Selektionsprozessen und -ergebnissen (Rietjens 2006; Bar-Ilan 2007; Schormann 2012) durch Betreiber algorithmisch-selektierender Anwendungen selbst oder durch externe Akteure (z.B. mittels „Google-Bomben“);

  • Die Gefahr der Wirklichkeitsverzerrungen durch bzw. in Form von Bias (Zhang/ Dimitroff 2005; Bozdag 2013; Cushing Weigle 2013), Filterblasen (Pariser 2011) und Echokammern (Sunstein 2001; 2009);

  • Die Gefahr der Beschränkung der Kommunikationsfreiheit, beispielsweise durch Zensur mittels intelligenter Filter (Zittrain/Palfrey 2008);

  • Die Verletzung von Datenschutzrechten und Privatsphäre (Lyon 2003; Zimmer 2008; Toch et al. 2012), z.B. durch automatisierte Überwachung (Christl/Spiekermann 2016);

  • Die Verletzungen des Gleichheitsgrundsatzes durch soziale Diskriminierung (Gandy 2010; Gangadharan 2014; Chander 2016; The White House 2016);

  • Die Verletzung von Eigentumsrechten, v.a. von Urheberrechten beispielsweise durch Nachrichtenaggregatoren (Clark 2010; 2012; Chiou/Tucker 2013; Quinn 2014);

  • Die Herausbildung von einseitig dominierten Machtstrukturen (Power-Law-Verteilungen) und das Risiko eines Missbrauchs von Markmacht durch dominante Anbieter (Patterson 2013);

  • Negative Effekte von Automatisierung und Algorithmen für die kognitiven Fähigkeiten der Menschen (Carr 2010; Sparrow et al. 2011);

  • Die Gefahr von zunehmender Dominanz von Technologien (Fremdbestimmung) sowie damit einhergehende sinkende Souveränität der menschlichen Nutzer (Selbstbestimmung), z.B. aufgrund einer zunehmenden Macht der Daten (Beer 2016) und einer Unkontrollierbarkeit von Algorithmen.

Die starke Durchdringung von Wirtschaft und Gesellschaft mit algorithmischer Selektion wirft aktuelle und brisante Fragen nach den damit verbundenen Risiken auf. Sie werden bislang stärker von Seiten des Journalismus und der Populärwissenschaft gestellt. Die (sozial-) wissenschaftliche Forschung hinkt im Bereich der Risiko-Analyse hinterher. Zur Illustration der Risiken werden vielfach mitunter hypothetische Beispiele herangezogen und mögliche problematische Entwicklungslinien skizziert, aber nicht immer lassen sich die Befürchtungen bereits mit empirischer Evidenz untermauern. Über die praktische Relevanz der Gefahren und Risiken besteht daher nur wenig Einigkeit. Einschätzungen schwanken von Alarmismus bis hin zu Fatalismus, die wissenschaftliche Risikobewertung im Bereich algorithmischer Selektion steckt noch in den Kinderschuhen und differenzierte Ansätze stehen noch aus.

3 Governance algorithmischer Selektion

Mit dem technologischen Fortschritt stellt sich die Frage, wie dieser im öffentlichen Interesse und zum gesellschaftlichen Nutzen entwickelt, kontrolliert und gestaltet werden kann. Vor allem der Blick auf die rasante Verbreitung, den Einfluss und die Risiken von Algorithmen und Automatisierung lassen den Ruf nach regulatorischen Reaktionen lauter werden. Welche Kontrollmöglichkeiten gibt es und welche Möglichkeiten des kontrollierten Einsatzes algorithmischer Anwendungen zum Nutzen der Gesellschaft bieten sich an? Mit welchen Governance-Arrangements und Steuerungsmaßnahmen können Risiken verringert werden? Immer öfter wird darauf verwiesen, dass die digitale Revolution nach neuen und adäquaten Regelungsstrukturen verlangt, um den Nutzen des Fortschritts zu steigern und seine Gefahren zu kontrollieren. Mittlerweile wurden dafür verschiedene mehr oder weniger konkrete Vorschläge formuliert, über deren Eignung zur Bewältigung der anstehenden Herausforderungen jedoch noch keine Einigkeit besteht.

Aus der Sicht des öffentlichen Interesses können Eingriffe u.a. durch die Risiken gerechtfertigt sein, die mit algorithmischer Selektion einhergehen. Mittels Steuerung und Regulierung sollen der Nutzen von Innovationen wie algorithmischer Selektion gefördert und Risiken minimiert werden. Nutzen und Risiken stehen in einer engen Wechselbeziehung, weil Risiken den Nutzen schmälern können. Dementsprechend setzt ein „risiko-basierter“ Ansatz (Black 2010) bei den identifizierten Risiken an und untersucht die Möglichkeiten und Grenzen, um diese Risiken zu reduzieren und damit auch den Nutzen zu steigern. Dafür steht eine Reihe unterschiedlicher Markt- und Governance-Mechanismen zur Verfügung, die sich aus institutioneller Perspektive nach dem Grad der staatlichen Involvierung unterscheiden und auf einem Kontinuum zwischen Markt und Staat lokalisiert werden können (Latzer et al. 2002; 2003). Das Spektrum von Möglichkeiten zur Reduktion von Risiken reicht von (1) reinen Marktmechanismen, über (2) firmeninterne Selbstorganisation, (3) kollektive Selbstregulierung von Branchen bis hin zu (4) Ko-Regulierung und (5) staatlicher Steuerung, z.B. in Form von „harter“ hoheitlicher Regulierung am Ende des Spektrums. Aus theoretischer Perspektive sind staatliche Eingriffe gerechtfertigt, wenn Probleme nicht durch Marktmechanismen oder die Selbstregulierung der Industrie gelöst werden können (Subsidiarität). Aus analytischer Perspektive erfordert dies einen Vergleich der Möglichkeiten und Grenzen der unterschiedlichen Markt- und Governance-Arrangements.

Im Folgenden wird gezeigt, wie solche Möglichkeiten und Grenzen einer Governance von algorithmischer Selektion analysiert und skizziert werden können (Latzer et al. 2013, 2014; Saurwein et al. 2015). Das explorative Assessment beruht auf zwei analytischen Eckpfeilern: Im Rahmen einer Literaturanalyse werden in einem ersten Schritt Marktlösungen und Governance-Maßnahmen gesammelt, die in den westlichen Industriestaaten mit hoher Internetverbreitung (USA, Europa) bereits implementiert sind oder vorgeschlagen werden, um Risiken algorithmischer Selektion zu begegnen. Gemeinsam verweisen diese Maßnahmen und Vorschläge auf Governance-Optionen, die auf dem Kontinuum zwischen Markt und Staat klassifiziert werden können. Im zweiten Analyseschritt werden die Grenzen der Marktlösungen und Governance-Optionen systematisch für die einzelnen Kategorien am Kontinuum zwischen Markt und Staat diskutiert. Diese Diskussion beruht auf analytischen Ansätzen zur Identifikation geeigneter Governance-Arrangements (Governance-Choice) (Latzer et al. 2002; 2007; Saurwein 2011). Überprüft werden v.a. ermöglichende Kontextfaktoren, die darüber Aufschluss geben, ob sich spezifische Governance-Arrangements für bestimmte Risikoformen eignen bzw. unter bestimmten Rahmenbedingungen überhaupt etablieren können.

3.1 Marktlösungen und Governance-Optionen

Tab. 2 gibt einen ersten Überblick zu den Ergebnissen der positiven Analyse, mit der gezeigt wird, welche Marktlösungen und Governance-Maßnahmen zur Reduktion von Risiken algorithmischer Selektion implementiert sind oder vorgeschlagen werden. Der Überblick zeigt einige Muster der Governance von Algorithmen und verweist v.a. auf Unterschiede in der Auswahl und der Kombination von Governance-Ansätzen in Reaktion auf bestimmte Risiken.

Tabelle 2: Ausgewählte Marktlösungen und Governance-Maßnahmen nach Risiken. Quellen: Saurwein et al. 2015: 38, Latzer et al. 2014
Nach­frage­seitige Markt­lösungen An­gebots­seitige Markt­lösungen Selbst- organi­sation
v. Firmen
Selbst- regu­lierung v. Branchen Ko-Regu­lierung Staat­liche Inter­vention
Manipu­lation X X X X
Bias / Ver­zerrung X X
Zensur X X X X
Ver­letzung der Privats­sphäre X X X X X X
Soziale Dis­krimi­nierung X X X
Ver­letzung von Urheber­recht X X X X
Miss­brauch von Markt­macht X X
Effekte für kogni­tive Fähig­keiten
Fremd­bestim­mung

So werden einige Risiken von algorithmischer Selektion (z.B. Datenschutz) bereits mit mehreren unterschiedlichen Governance-Arrangements adressiert, während gegen andere Risiken (z.B. Fremdbestimmung) noch keine Governance-Maßnahmen ergriffen oder vorgeschlagen wurden. Während einige der Risiken (z.B. Bias/Verzerrung) beinahe exklusiv den Marktlösungen überlassen sind, bestehen für andere Risiken sowohl staatliche als auch private/industrielle regulatorische Lösungen (z.B. Verletzung von Urheberrechten). Und während es eine Reihe von Vorschlägen und Maßnahmen im Bereich der individuellen Selbstorganisation der Firmen gibt, finden sich noch kaum Maßnahmen oder Vorschläge für Ko-Regulierung, wo staatliche und private Akteure auf Basis einer rechtlichen Grundlage regulatorisch kooperieren. Zusammenfassend ist somit kein übergreifendes institutionelles Muster für die Governance der Risiken von algorithmischer Selektion erkennbar. Praktisch zeigt sich jedoch eine große Vielfalt an Maßnahmen und Vorschlägen zur Governance von algorithmischer Selektion, wie die folgenden Beispiele zeigen.

Marktlösungen: Nicht alle Risiken algorithmischer Selektion verlangen notwendigerweise nach regulatorischen Interventionen. Risiken können auch durch freiwillige Änderungen im Marktverhalten von Anbietern und Nachfragern reduziert werden. Im Sinne nachfrageseitiger Marklösungen können Konsumenten unter anderem die Nutzung von Diensten verweigern, den Dienstanbieter wechseln oder sich mit technischen Maßnahmen selbst schützen. So gibt es beispielsweise technische Selbstschutzmechanismen für Konsumenten um Zensur, Bias und Verletzungen der Privatsphäre zu verhindern. Konsumenten können Gebrauch von Anonymisierungsdiensten wie Tor machen, oder virtuelle private Netzwerke (VPN) nutzen, um ihre Privatsphäre zu schützen und Zensurmaßnahmen zu umgehen. Ebenso sind Technologien zur Erhöhung des Datenschutzes (Privacy-Enhancing-Technologies, PETs) verfügbar, z.B. Kryptographie und Technologien, die vor einer unerwünschten Nachverfolgung (Tracking) des Online-Verhaltens schützen sollen (Do-not-track-Technologien, DNT). Webbrowser bieten Möglichkeiten zur Entpersonalisierung und können dabei helfen, Verzerrungen zu reduzieren, die aus Personalisierung resultieren. Diese Beispiele zeigen Möglichkeiten für technischen Selbstschutz durch Konsumenten. Die nachfrageseitigen Lösungsansätze hängen jedoch vielfach von der Verfügbarkeit passender Angebote ab.

Die Anbieter von Diensten, die auf algorithmischer Selektion basieren, tragen zu angebotsseitigen Marktlösungen bei, indem sie Risiken im Rahmen ihrer Geschäftsstrategien adressieren. Dafür eignen sich v.a. Produktinnovationen, mit denen neue, risikoarme Dienste eingeführt oder bestehende Dienste modifiziert werden, um Risiken zu begegnen. Es gibt Beispiele für Dienste, die eingeführt wurden, um Verzerrungen sowie Verletzungen von Urheberrechten und der Privatsphäre zu reduzieren. So wurden von einigen Nachrichtenaggregatoren (z.B. nachrichten.de) Geschäftsmodelle eingeführt, die Kompensationen für Nachrichtenproduzenten vorsehen. Um die Privatsphäre zu schützen, wurden algorithmische Dienste etabliert, die kaum Nutzerdaten sammeln und auf Personalisierung verzichten (z.B. DuckDuckGo). Solche Produktinnovationen können im Erfolgsfall auch zur Verbesserung des Wettbewerbs und zur Reduktion von Marktkonzentration beitragen.

Andere Ansätze setzen verstärkt auf externe Kontrolle durch Dritte und Aufklärung der Konsumenten. Kontrolle von außen kann z.B. für Algorithmen durch „Reverse-Engineering“1 erfolgen, mit dem Funktionsweisen und problematische Implikationen von algorithmischen Anwendungen „investigativ” offengelegt werden („Algorithmic-Accountability-Reporting“, siehe Diakopoulos 2015; Gourarie 2016). In der Praxis werden solche Formen der Kontrolle, beispielsweise in den USA, mit journalistischen Investigativprojekten (The Marshall Project, ProPublica) umgesetzt, mit denen u.a. problematischer, diskriminierender Bias gezeigt wurde (Angwin et al. 2016). In Deutschland wurde 2016 die Initiative AlgorithmWatch gegründet, die darauf abzielt, eine bessere Transparenz der Funktionsweisen und Auswirkungen algorithmischer Entscheidungsprozesse auf menschliches Verhalten herzustellen. AlgorithmWatch hat sich zum Ziel gesetzt, die Auswirkungen algorithmischer Entscheidungsfindungsprozesse auf menschliches Verhalten zu analysieren, ethische Konflikte aufzuzeigen und die Eigenschaften und Auswirkungen komplexer Prozesse algorithmischer Entscheidungsfindung für eine breite Öffentlichkeit zu erläutern. Darüber hinaus möchte AlgorithmWatch als Plattform für den Austausch unter Experten fungieren sowie Ideen und Strategien entwickeln, mit denen die Nachvollziehbarkeit algorithmischer Entscheidungsfindungsprozesse ermöglicht wird (AlgorithmWatch 2016).2 Solche Initiativen liefern wichtige Informationen, verbessern die Transparenz und können geeignet sein, Selbsthilfe- oder Governance-Maßnahmen anzustoßen.

Andere Ansätze zielen darauf ab, Verbesserungen mit Hilfe von technischen Lösungen zu erzielen. Unter Governance-by-Design lassen sich Maßnahmen fassen, mit denen versucht wird, bestimmte Zielsetzungen wie Datenschutz, Wahrheit, Ausgewogenheit oder Fairness mit technischen Maßnahmen umzusetzen. So können beispielsweise ethische Zielsetzungen im Rahmen von Innovationsprozessen mittels werte-basierten Design-Ansätzen verfolgt werden (Spiekermann 2015; van den Hoven et al. 2015). Dadurch sollen die problematischen Begleiterscheinungen der technologischen Entwicklung ihrerseits durch Technikeinsatz, z.B. durch Assistenzsysteme, gelöst werden. Zur Reduktion von Risiken wie Bias und Diskriminierung bieten sich ebenfalls technische Lösungen an, wie z.B. mathematische Analysen der Daten-Inputs (Feldman et al. 2014; Datta et al. 2016) oder Formen des maschinellen Lernens (Krishnan et al. 2014). Solche Methoden funktionieren nach denselben Prinzipien wie die Genauigkeitsüberprüfungen und Fehleranalysen in anderen Datenverarbeitungsprozessen (Gourarie 2016). Praktisch werden technische Maßnahmen beispielsweise auch von Inhalte-Anbietern zur Selbsthilfe genutzt, um ihre Inhalte vor unerlaubtem Zugriff zu schützen. Dienste wie ConsiderIt, Reflect und OpinionSpace basieren auf Designs mit denen Verzerrungen und die Entstehung von Filter-Blasen verhindert werden sollen, und die z.B. Zufallselemente (Serendipity) berücksichtigen, die bei starker Personalisierung verloren gehen (Munson/Resnick 2010; Schedl et al. 2012; Resnick et al. 2013).

Starker technischer Selbstschutz wird von Unternehmen eingesetzt, um Manipulationen zu verhindern. Der Selbstschutz vor Manipulation durch Dritte liegt dabei im Interesse der Anbieter von Diensten, die auf algorithmischer Selektion basieren. Im Bereich von Suchmaschinen und Empfehlungssystemen ist mittlerweile ein digitales Wettrüsten beobachtbar (Wittel/ Wu 2004; Jansen 2007), in das sowohl Anbieter algorithmisch-selektierender Dienste als auch Anbieter von Inhalten und Produkten involviert sind, die Optimierungsstrategien verfolgen (z.B. Suchmaschinenoptimierung). Technische Massnahmen können freiwillig gesetzt oder rechtlich geboten sein. Privacy-by-Design und Privacy-by-Default (Schaar 2010; Cavoukia 2012) bezeichnen beispielsweise datenschutzfreundliche Grundeinstellungen in Internet-Anwendungen, für die ein breiter Spielraum für freiwillige Implementierungen besteht. Die ab Mai 2018 anzuwendende Datenschutz-Grundverordnung (Verordnung (EU) 2016/679, Art. 25) schreibt für den EU-Raum Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen mittlerweile auch rechtlich vor.

Selbstorganisation durch Firmen: Neben Produktinnovationen und technischen Lösungen bieten sich für Unternehmen auch organisatorische Vorkehrungen an, um Risiken zu begegnen. Typische Instrumente der unternehmerischen Selbstorganisation umfassen Prinzipien und Verhaltenskodizes auf Unternehmensebene, die öffentliche Interessen reflektieren, Maßnahmen zur firmeninternen Qualitätssicherung und Beschwerde- bzw. Ombudsstellen, um mit Beschwerden umzugehen. Das Bekenntnis zur Selbstorganisation ist mitunter Teil einer breiteren Corporate-Social-Responsibility-Strategie zur Reputationsverbesserung. Anbieter algorithmischer Dienste können sich zu bestimmten Werten bekennen (Introna/Nissenbaum 2000), wie beispielsweise zur Neutralität bei Suchergebnissen oder zum Minimumprinzip im Datenschutz (Langheinrich 2001; Cavoukia 2012). Des Weiteren gibt es Vorschläge zum Einsatz von Ethikbeiräten auf Firmenebene, um die ethischen Implikationen der Softwareentwicklung kritisch zu begleiten. Für Risiken wie Zensur, Diskriminierung, Bias und Manipulation können interne Qualitätskontrollen eingeführt werden. So hat Google beispielsweise die Einsetzung eines Ethikbeirates angekündigt (Lin/Selinger 2014). Für Big Data wurde die Etablierung von In-House-Algorithmikern vorgeschlagen, die Big-Data-Operationen überwachen und als Anlaufstelle für Nutzer und Stakeholder fungieren, die sich durch Big-Data-Anwendungen gefährdet fühlen (Mayer-Schönberger/Cukier 2013).

Selbstregulierung durch Branchen: Anders als die individuelle Selbstorganisation von Firmen erfolgt kollektive Selbstregulierung unternehmensübergreifend, z.B. durch Branchenverbände. Zu den typischen Instrumenten der kollektiven Selbstregulierung zählen Verhaltenskodizes auf Branchenebene, organisatorische und technische Industriestandards, Gütesiegel und Zertifizierungssysteme, Ombudsstellen, Schiedsstellen und Ethik-Kommissionen. Im weiten Feld der algorithmischen Selektion bestehen sektorale, kollektive Selbstregulierungsinitiativen in der Werbeindustrie (USA, Europa), im Suchmaschinensektor (Deutschland), für soziale Online-Netzwerke (Europa) und im Bereich des algorithmen-basierten Handels an den Börsen. Diese Initiativen behandeln Risiken wie die Verletzung von Urheberrechten, Datenschutzverletzungen, Manipulation und die Kontrollierbarkeit algorithmischer Transaktionen. Im Börsenwesen wurden Überwachungs- und Warnsysteme implementiert, um Manipulation aufzudecken und den Handel zu stoppen, wenn automatisierte Transaktionen außer Kontrolle geraten. Im Werbesektor gibt es Initiativen für besseren Datenschutz in der nutzungsbasierten Online-Werbung (Online-Behavioural-Advertising, OBA), die von den Digital-Advertising-Allianzen in Europa und den USA getragen werden. Zusammen mit den Betreibern von Webbrowsern entwickelt die Werbeindustrie Standards für Do-not-track-Technologien. Zudem gibt es organisatorische und technische Industrie-Initiativen zum Schutz von Urheberrechten, z.B. das Creative Commons-Lizenzierungssystem und Systeme für digitales Rechtemanagement (DRM). In diesen Fällen bestehen starke Überschneidungen zwischen den Selbstregulierungsmaßnahmen und den Interessen der Industrie, was die Einführung solcher Systeme erleichtert. Des Weiteren können sich Zertifizierungssysteme, Ombudsstellen und Ethik-Kommissionen als passende Instrumente erweisen, um mit bestimmten Risiken algorithmischer Selektion umzugehen, z.B. mit Verzerrungen, Manipulation, Beschränkungen der Kommunikation und Kontrollierbarkeit von Anwendungen. Allerdings wurden solche Möglichkeiten bislang seitens der Industrie noch nicht ergriffen und generell besteht der Eindruck, dass das Potenzial der kollektiven Selbstregulierung für algorithmische Selektion noch nicht vollständig ausgeschöpft ist.

Staatliche Interventionen: Algorithmische Selektion birgt auch Herausforderungen für die Politik und den Staat. Die Defizite von Marktlösungen und Selbstregulierung zur Reduktion von Risiken liefern die Gründe und Rechtfertigungen für staatliche Interventionen. Typische staatliche Steuerungsinstrumente umfassen die Bereitstellung öffentlicher Dienste, Regulierung mittels Verhaltensbeschränkungen durch Ge- und Verbote, Anreize durch Besteuerung und Förderung, Ko-Regulierung in Kooperation mit privaten Akteuren, „weiche“ Steuerungsinstrumente wie Leistungsvergleiche (Benchmarking) sowie Informations- und Aufklärungsmaßnahmen, um die Problemsensibilität und den Wissensstand zu verbessern und angemessenes Verhalten zu fördern. Praktisch gibt es etliche Beispiele für staatliche Interventionen im Bereich der algorithmischen Selektion, wobei Regulierungen zumeist spezifische Risiken adressieren und nicht einzelne Sektoren oder spezielle Technologien. So gibt es hoheitliche Regulierungen zur Bekämpfung von Manipulation (Internetkriminalität) und zum Schutz von Urheberrechten, Privatsphäre, Meinungsfreiheit und fairem Wettbewerb. In Europa schützt die Datenschutz-Grundverordnung (Verordnung (EU) 2016/679, Art. 22) Konsumenten vor beeinträchtigenden automatisierten Einzelentscheidungen.

Ein weiterer Bereich mit laufenden Debatten über Regulierungsbedarf ist der Suchmaschinensektor. Weil befürchtet wird, dass Google seine dominante Marktstellung zur Bevorzugung seiner anderen Online-Dienste missbraucht, ist das Marktverhalten von Google in den USA und Europa Gegenstand von Untersuchungen der Wettbewerbsbehörden (Just 2015). Vorschläge für Regulierungen im Suchmaschinensektor umfassen die Einführung eines Grundsatzes für „neutrale Suche“ (Lao 2013) oder Verbesserungen der Transparenz und damit Kontrollierbarkeit von Suchmaschinen sowie Kontrollbefugnisse für Aufsichtsbehörden. Andere Vorschläge zielen darauf ab, Markteintrittsbarrieren zu senken (Schulz et al. 2005). Vorgeschlagen wurden beispielsweise ein öffentlich bereitgestellter „Webindex“ (Lewandowski 2014) oder Nutzerdaten als Gemeinschaftsressource (Argenton/ Prüfer 2012), auf die konkurrierende Dienstanbieter zugreifen können. Dadurch sollen Markteintrittsbarrieren gesenkt, die Angreifbarkeit des Marktes erhöht und die Konkurrenz bzw. der Wettbewerb gefördert werden.

Neben hoheitlicher Regulierung können staatliche Akteure auch auf weichere Steuerungsformen wie Anreize setzen. Regelmäßig ins Spiel gebracht wird beispielsweise eine Maschinensteuer, um Verluste im Steueraufkommen zu kompensieren, die durch Automatisierung bedingt sind. Neuere Vorschläge betreffen eine Datensteuer, mit der die Anreize zur Sammlung von Daten verringert werden sollen (Collin/Colin 2013; Lanier 2013). Praktisch erfolgt staatliche Steuerung zudem über monetäre Instrumente wie Förderungen. So gibt es beispielsweise Programme, um die Potenziale von Automatisierung zu fördern (z.B. im Bereich Industrie 4.0). Zudem werden öffentliche Förderungen eingesetzt um Risiken algorithmischer Selektion zu reduzieren, beispielsweise durch die Entwicklung von Technologien zur Erhöhung des Datenschutzes (PETs) im Rahmen von öffentlich finanzierten Forschungs- und Entwicklungsprogrammen. Im Bereich des Datenschutzes sind zudem Formen der Ko-Regulierung im Einsatz, beispielsweise in Form von staatlich akkreditierten Zertifizierungs- und Gütesiegelsystemen.

Der Überblick und die vorgestellten Beispiele für die Governance von algorithmischer Selektion zeigen, dass es bislang noch keine Maßnahmen oder Vorschläge gibt, um Risiken wie Verzerrung, Fremdbestimmung und potenziell negative Effekte von algorithmischer Selektion auf kognitive Fähigkeiten mit staatlichen Maßnahmen zu adressieren. In diesen Bereichen könnte es sinnvoll sein, das Problembewusstsein der Nutzer mittels Informationsmaßnahmen (Governance-by-Information) zu erhöhen, ihre Medienkompetenz zu verbessern, und so im Sinne einer „Algorithmic-Literacy“ den Selbstschutz sowie einen bewussten, verantwortungsvollen Umgang mit Diensten und Anwendungen zu fördern, die auf algorithmischer Selektion basieren. Auch die Potenziale der Ko-Regulierung sind bislang noch kaum ausgeschöpft. Ko-Regulierung oder andere kooperative Arrangements könnten sich für Risiken und Problemstellungen eignen, die durch starke Interessenkonflikte geprägt sind und unabhängige Kontrolle, unparteiliche Konfliktlösungsmechanismen und Interessenausgleich verlangen. Nachdem algorithmische Selektion mitunter auch ethische Problemstellungen und Wertekonflikte beinhaltet, könnten Ethik-Kommissionen als Beratungsgremien für staatliche und private Akteure eingesetzt werden. In strategischer Hinsicht könnten staatliche Interventionen auch darauf abzielen, Selbsthilfe-Maßnahmen der Marktteilnehmer zu ermöglichen. Dafür könnte staatliche Intervention direkt an Barrieren für Markmechanismen und Selbstregulierung ansetzen. Eine Reduktion von solchen Barrieren verbessert die Voraussetzungen für Selbsthilfe-Maßnahmen der Marktteilnehmer.

3.2 Grenzen für Marktlösungen und Governance-Optionen

Für die Auswahl passender Governance-Maßnahmen (Governance-Choice) sind auch die Grenzen unterschiedlicher Governance-Optionen zu berücksichtigen. Für die Identifikation solcher Grenzen eignet sich u.a. die Analyse von Kontextfaktoren für Governance, die dabei helfen soll zu klären, ob sich spezifische Governance-Arrangements für bestimmte Risiko-Formen eignen, und ob sich bestimmte Governance-Arrangements unter bestimmten Rahmenbedingungen überhaupt etablieren können. Zu diesen Kontextfaktoren zählen beispielsweise die Anreize für die Einführung von Governance-Maßnahmen, Interessenkonflikte und Interventionskapazitäten des Staates (Latzer et al. 2002; 2007; Saurwein 2011). Eine Analyse von Kontextfaktoren für die Governance von algorithmischer Selektion verweist auf folgende Grenzen und Barrieren für Marktlösungen und Governance-Optionen.

Grenzen für Marktlösungen und Selbsthilfe: Einige der Risiken algorithmischer Selektion könnten mittels Selbsthilfemaßnahmen der Nutzer reduziert werden (Verzicht, Anbieterwechsel, technischer Selbstschutz). Das Potenzial der Nutzer-Selbsthilfe sollte jedoch aufgrund zahlreicher Barrieren nicht überschätzt werden. Theoretisch könnten Konsumenten auf risikoreiche Dienste verzichten oder zu alternativen Angeboten wechseln. Aber algorithmische Dienste arbeiten vielfach ohne aktive Zustimmung. So können Nutzer beispielsweise aus einem staatlichen Überwachungsprogramm nicht einfach aussteigen. Voraussetzung für einen Dienstleisterwechsel ist die Verfügbarkeit alternativer Anbieter und Angebote. Im Bereich algorithmischer Selektion sind jedoch viele der Märkte stark konzentriert und die Wechselmöglichkeiten sind begrenzt. Aufgrund von Informationsasymmetrien sind die Risiken algorithmischer Selektion für Konsumenten vielfach kaum sichtbar und das Problembewusstsein ist gering. So kann beispielsweise ein durchschnittlicher Internetnutzer Risiken wie Zensur, Bias/Verzerrung oder Manipulation kaum selbst feststellen. Wenn Risiken nicht wahrgenommen werden, fehlen auch die Anreize, um Maßnahmen zum Selbstschutz zu ergreifen. Doch nicht nur Intransparenz, sondern auch Gratis-Services und die „Niedrigkostensituation“ verringern die Anreize für Konsumenten auf alternative, risikoärmere Dienste zu wechseln. Wenn Applikationen für einen technischen Selbstschutz vorhanden sind, verlangen diese oft nach Kenntnissen, die der durchschnittliche Internetnutzer nicht mitbringt. Im Bereich des Datenschutzes verlangen Anonymisierungstools nach technischen Fähigkeiten für die Nutzung. Der Schutz der Daten kann obendrein zum Teil mittels „Re-Identifizierung“ (Ohm 2010) unterminiert werden. Schließlich verlangen Strategien wie Anbieterwechsel und technischer Selbstschutz nach alternativen Anbietern und Schutztechnologien. Demnach werden die Möglichkeiten zur Selbsthilfe der Nutzer nicht zuletzt durch das verfügbare Angebot determiniert.

Risiken algorithmischer Selektion können durch angebotsseitige Marktlösungen reduziert werden, beispielsweise durch Produktinnovationen. Doch auch die Anbieter sind mit Barrieren und Grenzen für risiko-reduzierende Geschäftsstrategien konfrontiert. So bestehen auf Märkten mit Diensten, die auf algorithmischer Selektion basieren, mitunter hohe Markteintrittsbarrieren und die Bedingungen für Newcomer und Produktinnovationen sind entsprechend schwierig. Darüber hinaus kann eine Reduktion von Risiken bei einem Dienst auch zu Einbußen in der Dienstleistungsqualität und entsprechenden Wettbewerbsnachteilen führen. So reduziert der Verzicht auf Personalisierung (z.B. bei Suchergebnissen) die Datenschutzrisiken, doch auch der Nutzen des Dienstes für Konsumenten kann sinken. Dies könnte ein Grund dafür sein, dass „alternative Produkte“ oftmals Nischenangebote bleiben, die lediglich von einer kleinen Gruppe besonders problemsensibler Nutzer verwendet werden. Eine geringe Nutzerzahl und eine reduzierte Dienstqualität können sich gegenseitig verstärken und die Attraktivität der alternativen Dienste weiter schmälern.

Grenzen für Selbstorganisation und Selbstregulierung: Die Analyse der Governance-Optionen verweist auf die vielfältigen Möglichkeiten für Maßnahmen, die von Unternehmen und Branchen gesetzt werden können. Die Implementation von freiwilligen Maßnahmen zur Risikoreduktion hängt allerdings in erster Linie von entsprechenden Anreizen ab, die durch die Kosten und den Nutzen der Maßnahmen bestimmt werden. Die Anreize für strenge freiwillige Standards sind etwa im Bereich des Datenschutzes gering. Daten gelten als das neue Öl und als Quelle für Dienstinnovationen und wirtschaftlichen Erfolg (Hustinx 2010; London Economics 2010). Deshalb ist es unwahrscheinlich, dass Unternehmen freiwillig auf das Sammeln von Daten verzichten. Etliche Governance-Vorschläge zielen zudem darauf ab, die Transparenz bei algorithmischer Selektion zu verbessern (Elgesem 2008). Allerdings bestehen kaum Anreize für Unternehmen die Funktionsweise ihrer Algorithmen freiwillig offen zu legen, weil eine Offenlegung die Gefahr von Manipulation und Imitation erhöht. Dies führt zum sogenannten Transparenz-Dilemma (Rieder 2005; Bracha/Pasquale 2008; Granka 2010). Die Bereitschaft zur Selbstorganisation wird des Weiteren von der Reputationssensitivität eines Unternehmens mitbestimmt. Eine hohe Aufmerksamkeit für Unternehmen in Konsumentenmärkten, wie z.B. Amazon, kann Selbstbeschränkungen der Firmen im öffentlichen Interesse fördern. Eine geringe Publikumsaufmerksamkeit für Unternehmen in Business-to-Business-Märkten, wie etwa für Datenhändler wie Acxiom, Corelogic und Datalogix (FTC 2014), reduziert hingegen die Reputationssensitivität und damit auch die Anreize für freiwillige Selbstbeschränkung und Selbstorganisation.

Die Analyse von Governance-Arrangements zeigt einige Beispiele für kollektive Selbstregulierung durch Industriebranchen (z.B. die Werbeindustrie). Praktisch sind die Initiativen auf bestimmte Risiken in ausgewählten und mittlerweile gut etablierten Sektoren beschränkt, während die generellen Kontextbedingungen für kollektive Selbstregulierung bei algorithmischer Selektion schwierig sind. Ein Hauptgrund dafür ist, dass Selbstregulierung durch die starke Fragmentierung und die Heterogenität der involvierten Branchen erschwert wird. Algorithmische Selektion wird in einem breiten Spektrum an Anwendungsfeldern eingesetzt, wie Nachrichtenwesen, Werbung, Unterhaltung, Handel, soziale Interaktion, Verkehr und Gesundheit. Aufgrund der hohen Anzahl an involvierten Branchen und Unternehmen sind übergreifende Selbstregulierungsinitiativen mehr als unwahrscheinlich. Aufgrund der Heterogenität der Branchen ist die freiwillige Einführung von branchenübergreifenden Mindeststandards schwierig. Deshalb müssen Mindeststandards, die für alle Marktteilnehmer gelten, durch staatliche bzw. zwischenstaatliche Regulierung sichergestellt werden. Neben Fragmentierung und Heterogenität erschweren auch weitere Kontextbedingungen eine Selbstregulierung. So ist die Etablierung einer Selbstregulierung wahrscheinlicher in reifen Industriesektoren mit gleichgesinnten Marktteilnehmern, die sich auf Augenhöhe begegnen. Märkte, in denen algorithmische Selektion zum Einsatz kommt, sind hingegen entweder neu und experimentell (z.B. automatisierte Inhaltsproduktion), oder die Anbieter algorithmischer Lösungen fordern als Newcomer etablierte Marktstrukturen, Anbieter und Geschäftsmodelle heraus. Dabei suchen die Newcomer bewusst nach neuen Wegen zum Erfolg und lassen sich ihre Marktchancen nicht durch freiwillige Selbstbeschränkungen schmälern.

Grenzen für staatliche Interventionen: Die Analyse von Governance-Optionen zeigt ein breites Spektrum an Möglichkeiten, um einzelne Risiken algorithmischer Selektion mittels staatlicher Interventionen zu adressieren. Doch auch für den Staat zeigen sich Grenzen für die Governance von Algorithmen, denn nicht alle Risiken eignen sich für staatliche Interventionen im Allgemeinen und für harte Verhaltensregulierung mittels staatlicher Ge- und Verbote (Command-and-Control) im Speziellen. So sind Risiken wie Fremdbestimmung, Bias bzw. Verzerrung und mögliche negative kognitive Effekte kaum mit rechtlichen Vorschriften in den Griff zu bekommen. Diese Beispiele verweisen auf mangelnde Praktikabilität und Legitimität für staatliche Regulierung, z.B. mit dem Zweck die Objektivität von Empfehlungen und Entscheidungen zu verbessern und Verzerrungsprobleme zu reduzieren. Zudem stecken viele der Märkte, in denen algorithmische Selektion eingesetzt wird, noch in den Kinderschuhen und es besteht noch wenig Gewissheit über die zukünftige Markt- und Risikoentwicklung (z.B. temporäre Monopole). Die Unsicherheiten werden durch die Tatsache verstärkt, dass Risiken wie Unkontrollierbarkeit und Fremdbestimmung (z.B. bei künstlicher Intelligenz) noch vergleichsweise neu sind, und dass es noch wenig Erfahrung mit vergleichbaren Herausforderungen gibt. Aufgrund der komplexen Interdependenzen in sozio-technischen Systemen sind die Effekte von potenziellen staatlichen Interventionen schwer vorhersehbar. Die bestehenden Unsicherheiten hinsichtlich Marktentwicklungen, Risiken und regulatorischer Effekte erschweren die Governance von algorithmischer Selektion und deshalb ist auch die Rolle des Staates im Bereich algorithmischer Selektion noch nicht abschließend festgelegt.

4 Resümee

Die Bedeutung von algorithmischer Selektion, die den technisch-funktionalen Kern einer rasch steigenden Zahl von Internetdiensten bildet, zeigt sich an vielfältigen Funktionszwecken und dem damit verbundenen Nutzen für Konsumenten, Unternehmen und die Gesellschaft. Die Relevanz algorithmischer Selektion lässt sich zudem an der stetigen Erweiterung der Anwendungsbereiche und an wachsenden Auswirkungen ablesen, die automatisierte Anwendungen ausüben. Algorithmen berechnen die Relevanz von Webseiten, bestimmen Preise, sortieren Nachrichtenbeiträge und empfehlen Bücher, Musik und Partner. Algorithmen helfen dabei, die Informationsflut zu bewältigen, tragen zur Konstruktion von Wirklichkeiten bei, prägen unsere Kultur und gelten als eine Quelle sozialer Ordnung (Just/Latzer 2016).

Die zunehmende Verbreitung von Anwendungen, die auf Algorithmen basieren, wird von Risiken begleitet. Dazu zählen Manipulation und Bias/Verzerrungen, die Verletzung von Privatsphäre und Urheberrechten, der Missbrauch von Marktmacht, soziale Diskriminierung sowie eine drohende Fremdbestimmung durch die zunehmende Selbständigkeit automatisierter Anwendungen und den Verlust an menschlicher Kontrolle. Diese Risiken verweisen zum Teil auf ethische Normen und Werte (Fairness, Transparenz, Wahrheit, Menschlichkeit), die durch automatisierte algorithmische Selektion verletzt werden könnten. Gleichzeitig werfen die Risiken Fragen nach der Verantwortlichkeit auf und bilden die Ausgangspunkte für Rechtfertigungen für Markteingriffe und die Suche nach adäquaten Steuerungs- und Regelungsarrangements (Governance). In diesem Beitrag wird argumentiert, dass die Governance von Algorithmen vor allem durch jene Risiken gerechtfertigt ist, welche die Entwicklung algorithmischer Selektion begleiten. Als Schwierigkeit für einen risiko-basierten Ansatz erweist sich jedoch, dass über die Entwicklung der Märkte und die damit verbundenen Risiken noch wenig gesichertes Wissen besteht. Für die (sozial)wissenschaftliche Forschung stellt sich in puncto Risiko-Analyse die Herausforderung, dass sich die Befürchtungen oft schwer empirisch untermauern lassen und deshalb kaum evidenz-basierte, steuernde Eingriffe abgeleitet und gerechtfertigt werden können.

Die hier vorgestellten Ergebnisse tragen vor allem zur Beantwortung der Frage bei, welche Governance-Optionen sich für algorithmische Selektion anbieten und wo die Grenzen für unterschiedliche institutionelle Governance-Arrangements liegen. Zu diesem Zweck bietet der Beitrag einen Überblick über institutionelle Governance-Arrangements zur Reduktion von Risiken auf dem Kontinuum zwischen Markt und Staat. Neben nachfrage- und angebotsseitigen Marktlösungen umfassen diese Governance-Arrangements die firmeninterne Selbstorganisation, die unternehmensübergreifende kollektive Selbstregulierung von Branchen, die Ko-Regulierung und die staatliche Steuerung. Identifiziert und klassifiziert man Marktlösungen und Maßnahmen, die bereits implementiert sind oder vorgeschlagen werden, um Risiken algorithmischer Selektion zu begegnen, so ist kein übergreifendes institutionelles Muster für die Governance algorithmischer Selektion erkennbar. Die Analyse zeigt, dass einige Risiken von algorithmischer Selektion bereits mit mehreren unterschiedlichen Governance-Arrangements adressiert werden (z.B. Datenschutz), während gegen andere Risiken (z.B. Fremdbestimmung) noch keine Governance-Maßnahmen vorgeschlagen oder ergriffen wurden. Während einige der Risiken (z.B. Bias/Verzerrung) beinahe exklusiv den Marktlösungen überlassen sind, bestehen für andere Risiken sowohl staatliche als auch private bzw. industrielle regulatorische Lösungen (z.B. Verletzung von Urheberrechten). Praktisch zeigt sich eine große Vielfalt an Maßnahmen und Vorschlägen zur Governance von algorithmischer Selektion. Von den vielfältigen Optionen sollte den technischen Lösungsmöglichkeiten (Governance-by-Design) verstärkt Beachtung geschenkt werden. Für einige technisch bedingte Problemstellungen könnten sich technische Lösungen anbieten, z.B. in Form von Privacy-by-Design im Bereich des Datenschutzes. Aufgrund von Intransparenz und dem benötigten Know-how zur Analyse algorithmischer Applikationen spielen zudem Experten in verschiedenen Funktionen wichtige Rollen bei der Aufdeckung von Risiken und Fehlentwicklungen und im Rahmen der Kontrolle.

Für die Auswahl passender Governance-Arrangements und Instrumente sind des Weiteren die Grenzen von Marktlösungen und Governance-Optionen zu beachten. Ob sich spezifische Governance-Arrangements für bestimmte Risiko-Formen eignen, und ob sie sich unter bestimmten Rahmenbedingungen überhaupt etablieren können, ist maßgeblich von den Kontextbedingungen abhängig (Anreize, Interessenkonflikte, Marktfragmentierung, etc.). Etliche Kontextfaktoren erweisen sich als Barrieren für die Etablierung unterschiedlicher Governance-Arrangements, die der Governance von Algorithmen Grenzen setzen.

So wird die Selbsthilfe der Konsumenten beispielsweise dadurch erschwert, dass ein Verzicht auf Dienste oder der Wechsel zwischen Anbietern nicht immer möglich ist. Zudem bestehen Hindernisse für eine Selbsthilfe der Nutzer aufgrund von mangelndem Risikobewusstsein, der Intransparenz von Diensten und Risiken und aufgrund der oft fehlenden technischen Fähigkeiten für effektiven Selbstschutz. Die Selbstorganisation und Selbstregulierung der Industrie werden behindert durch geringe Anreize (Kosten, Nutzen) für Selbstbeschränkungen, Gefahren durch Manipulation und Imitation, sektorale Markteintrittsbarrieren, Marktfragmentierung, die mitunter geringe Reputationssensitivität und dem teilweise noch experimentellen Charakter von Märkten, die auf algorithmischer Selektion basieren. Aus den Defiziten von Marktlösungen und Selbstregulierung lassen sich Rechtfertigungen für staatliche Intervention ableiten. Doch auch staatliche Regulierung sieht sich mit Grenzen konfrontiert. Zu diesen zählen mangelnde Legitimität und Praktikabilität von staatlichen Interventionen sowie die Unsicherheiten hinsichtlich der Entwicklung von Märkten und Risiken algorithmischer Selektion und den Effekten potenzieller Interventionen.

Die Analyse von Möglichkeiten und Grenzen einer Governance von Algorithmen erlaubt einige übergreifende Schlussfolgerungen hinsichtlich der Identifikation geeigneter Governance-Maßnahmen und Arrangements (Governance-Choice). Die Analysen zeigen ein breites Spektrum an Akteuren, Ebenen und Instrumenten für eine Governance von Algorithmen, aber keine Einheitslösung. Stattdessen besteht der Bedarf für einen Governance-Mix, der auf Applikationen und Risiken abgestimmt ist, und ein Zusammenspiel zwischen den verschiedenen involvierten Akteuren und Ebenen bedingt. Wo keine Einheitslösungen anwendbar sind, muss die Aufmerksamkeit auf mehrdimensionale Lösungsansätze gerichtet werden, in denen verschiedene Governance-Maßnahmen kombiniert werden, die sich gegenseitig ermöglichen und ergänzen. So setzt beispielsweise die Selbsthilfe der Nutzer beim Datenschutz Komplementärvorkehrungen auf anderen Ebenen voraus, wie etwa die Verfügbarkeit von Schutztechnologien (Markt, Technik) und organisatorische Vorkehrungen, um Nutzerbeschwerden zu bearbeiten (Recht, Unternehmen).

Eine der Aufgaben für die weiterführende Forschung besteht darin, die Möglichkeiten für solche multidimensionalen Lösungen zu ermitteln und ihr Potenzial und ihre Angemessenheit zu überprüfen. Die Suche nach einem passenden Governance-Mix gestaltet sich schwierig, weil sich Marktentwicklungen und Effekte regulatorischer Interventionen nur eingeschränkt prognostizieren lassen. So befinden sich viele Märkte erst in einer sehr frühen Lebenszyklusphase. Die bestehenden Unsicherheiten verlangen nach weiterer Technikfolgen- und Risikoabschätzung, um die Grundlagen für evidenz-basierte Governance im Bereich algorithmischer Selektion zu stärken. Risiko-basierte Ansätze scheinen dafür gut geeignet, indem sie Markt- und Technologieentwicklung beobachten, die begleitenden Risiken identifizieren und problemorientierte, adaptive Governance-Strategien entwickeln.

Literatur

AlgorithmWatch, 2016, Mission Statement. Online-Publikation: http://algorithmwatch.org/mission-statement. (Stand: 23.1.2017).

Angwin, Julia, Jeff Larson, Surya Mattu und Lauren Kirchner (ProPublica), 2016, Machine Bias. There’s Software Used across the Country to Predict Future Criminals. And it’s Biased against Blacks. Online-Publikation: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. (Stand: 20.10.2016).

Argenton, Cédric und Jens Prüfer, 2012, Search Engine Competition with Network Externalities, Journal of Competition Law & Economics 8 (1): 73-105.

Bar-Ilan, Judit, 2007, Google Bombing from a Time Perspective, Journal of Computer-Mediated Communication 12 (3): 910-938.

Beer, David, 2016, Metric power. London. Palgrave Macmillan UK.

Black, Julia, 2010, Risk-based Regulation: Choices, Practices and Lessons Learnt. S. 185-224, in: OECD (Hg.): Risk and Regulatory Policy: Improving the Governance of Risk. Paris. OECD Publishing.

Bozdag, Engin, 2013, Bias in Algorithmic Filtering and Personalization, Ethics and Information Technology 15 (3): 209–227.

Bracha, Oren und Frank Pasquale, 2008, Federal Search Commission? Access, Fairness and Accountability in the Law of Search, Cornell Law Review 93 (6): 1149-1210.

Bucher, Taina, 2012, Want to be on top? Algorithmic Power and the Threat of Invisibility on Facebook, New Media & Society 14 (7): 1164–1180.

Carr, Nicholas, 2010, The Shallows: What the Internet is Doing to Our Brains. New York, NY. W.W. Norton.

Cavoukia, Ann, 2012, Privacy by Design: Origins, Meaning, and Prospects for Ensuring Privacy and Trust in the Information Era. S. 170-208, in: George O.M. Yee (ed.): Privacy Protection Measures and Technologies in Business Organizations: Aspects and Standards. Hershey, PA. IGI Global.

Chander, Anupam, 2016, The Racist Algorithm?, 115 Michigan Law Review, 2017, Forthcoming; UC Davis Legal Studies Research Paper No. 498. Online verfügbar: http://ssrn.com/abstract=2795203. (Stand: 23.10.2016).

Chiou, Lesley und Catherine Tucker, 2013, Digitization and Aggregation. Online-Publikation: http://bellarmine.lmu.edu/media/lmubellarminesite/bcladepartments/economics/economicsdocuments/Digitization%20and%20Aggregation.pdf. (Stand: 21.10.2016).

Christl, Wolfie und Sarah Spiekermann, 2016, Networks of Control. Wien. Facultas.

Clark, Birgit, 2010, Google Image Search Does Not Infringe Copyright, Says Bundesgerichtshof, Journal of Intellectual Property Law & Practice 5 (8): 553-555.

Collin, Pierre und Nicolas Colin, 2013, Mission d’expertise sur la fiscalité de l’économie numérique. Online-Publikation: http://www.redressement-productif.gouv.fr/files/rapport-fiscalite-du-numerique_2013.pdf. (Stand: 21.10.2016).

Cushing Weigle, Sara, 2013, English language learners and automated scoring of essays: Critical considerations, Assessing Writing 18 (1): 85-99.

Datta, Anupam, Shayak Sen und Yair Zick, 2016, Algorithmic Transparency via Quantitative Input Influence: Theory and Experiments with Learning Systems. Online-Publikation: https://www.andrew.cmu.edu/user/danupam/datta-sen-zick-oakland16.pdf. (Stand 21.10.2016).

Diakopoulos, Nicholas, 2015, Algorithmic Accountability. Journalistic investigation of computational power structures, Digital Journalism 3 (3): 398-415.

Dolata, Ulrich und Raymund Werle, 2007, Bringing Technology Back In. S. 15-43, in: dies. (Hg.): Gesellschaft und die Macht der Technik. Frankfurt. Campus.

Döpfner, Mathias, 2014, Warum wir Google fürchten: Offener Brief an Eric Schmidt, FAZ, 16.04.14. Online verfügbar: http://www.faz.net/aktuell/feuilleton/medien/mathias-doepfner-warum-wir-google-fuerchten-12897463.html. (Stand: 21.10.2016).

Elgesem, Dag, 2008, Search Engines and the Public Use of Reason, Ethics and Information Technology 10 (4): 233-242.

Epstein, Robert und Ronald E. Robertson, 2013, Democracy at Risk: Manipulating Search Rankings Can Shift Voters’ Preferences Substantially without Their Awareness. Summary of a paper presented at the 25th annual meeting of the Association for Psychological Science. Online-Publikation: http://aibrt.org/downloads/EPSTEIN_and_Robertson_2013-Democracy_at_Risk-APS-summary-5-13.pdf. (Stand: 21.10.2016).

Feldman, Michael, Sorelle Friedler, John Moeller, Carlos Scheidegger und Suresh Venkatasubramanian, 2014, Certifying and Removing Disparate Impact. Online-Publikation: https://arxiv.org/abs/1412.3756. (Stand: 21.10.2016).

Franck, Georg, 1998, Ökonomie der Aufmerksamkeit. Ein Entwurf. München und Wien. Carl Hanser.

FTC – Federal Trade Commission, 2014, Data Brokers. A call for Transparency and Accountability. Online-Publikation: http://www.ftc.gov/system/files/documents/reports/data-brokers-call-transparency-accountability-report-federal-trade-commission-may-2014/140527databrokerreport.pdf. (Stand: 21.10.2016).

Gandy, Oscar H. Jr., 2010, Engaging Rational Discrimination: Exploring Reasons for Placing Regulatory Constraints on Decision Support Systems, Ethics and Information Technology 12 (1): 29-42.

Gangadharan, Seeta Pena (Hg.), 2014, Data and Discrimination: Collected Essays. Open Technology Institute. Online-Publikation: https://www.newamerica.org/downloads/OTI-Data-an-Discrimination-FINAL-small.pdf. (Stand: 21.10.2016).

Gillespie, Tarleton, 2014, The Relevance of Algorithms. S. 167-194, in: Tarleton Gillespie, Pablo J. Boczkowski und Kirsten A. Foot (Hg.): Media Technologies: Essays on Communication, Materiality, and Society. Cambridge, MA. MIT Press.

Gourarie, Chava, 2016, Investigating the Algorithms that Govern Our Lives, Columbia Journalism Review, 14. April 2016. Online verfügbar: http://www.cjr.org/innovations/investigating_algorithms.php. (Stand: 21.10.2016).

Granka, Laura A., 2010, The Politics of Search: A Decade Retrospective, The Information Society 26 (5): 364-374.

Helbing, Dirk, 2015, The Automation of Society Is Next: How to Survive the Digital Revolution. CreateSpace.

Hinz, Oliver und Jochen Eckert, 2010, The Impact of Search and Recommendation Systems on Sales in Electronic Commerce, Business & Information Systems Engineering 2 (2): 67-77.

Hustinx, Peter, 2010, Privacy by Design: Delivering the Promises, Identity in the Information Society 3 (2): 253-255.

Introna, Lucas D. und Helen Nissenbaum, 2000, Shaping the Web: Why the politics of search engines matters, The Information Society 16 (3): 169-185.

Jansen, Bernard J., 2007, Click Fraud, Computer 40 (7): 85-86.

Just, Natascha, 2015, Competition/Antitrust/Antimonopoly Law. S. 1-14, in: Robin Mansell und Peng Hwa Ang (Hg.): The International Encyclopedia of Digital Communication and Society. Hoboken. John Wiley & Sons.

Just, Natascha und Michael Latzer, 2016, Governance by Algorithms: Reality Construction by Algorithmic Selection on the Internet, Media, Culture & Society, 39 (2): 238-258.

Krishnan, Sanjay, Jay Patel, Michael J. Franklin und Ken Goldberg, 2014, Social Influence Bias in Recommender Systems: A Methodology for Learning, Analyzing, and Mitigating Bias in Ratings. Paper prepared for AMC Conference on Recommender Systems 2015. Online-Publikation: http://goldberg.berkeley.edu/pubs/sanjay-recsys-v10.pdf. (Stand: 21.10.2016).

Langheinrich, Marc, 2001, Privacy by Design — Principles of Privacy-Aware Ubiquitous Systems. S. 273-291, in: Gregory D. Abowd, Barry Brumitt und Steven A. Shafer (Hg.): Proceedings of the Third International Conference on Ubiquitous Computing (UbiComp 2001), Vol. 2201. Berlin, Heidelberg, New York, NY. Springer.

Lanier, Jaron, 2013, Who Owns the Future? New York, NY. Simon & Schuster.

Lao, Marina, 2013, ‘Neutral’ Search as a Basis for Antitrust Action?, Harvard Journal of Law & Technology 26, Online Paper Series: 1-12. Online-Publikation: http://jolt.law.harvard.edu/antitrust/articles/Lao.pdf. (Stand: 21.10.2016).

Latzer, Michael, 2007, Regulatory Choice in Communications Governance, Communications – The European Journal of Communication Research 32 (3): 399-405.

Latzer, Michael, Natascha Just, Florian Saurwein und Peter Slominski, 2002, Selbst- und Ko-Regulierung im Mediamatiksektor: Alternative Regulierungsformen zwischen Staat und Markt. Wiesbaden. Westdeutscher Verlag.

Latzer, Michael, Natascha Just, Florian Saurwein und Peter Slominski, 2003, Regulation Remixed: Institutional Change through Self- and Co-Regulation in the Mediamatics Sector, Communications & Strategies 50 (2): 127-157.

Latzer, Michael, Natascha Just und Florian Saurwein, 2013, Self- and Co-Regulation: Evidence, Legitimacy and Governance Choice. S. 373-397, in: Monroe E. Price, Stefaan G. Verhulst und Libby Morgan (Hg.): Handbook of Media Law and Policy: A Socio-Legal Approach. London: Routledge.

Latzer, Michael, Monroe E. Price, Florian Saurwein und Stefaan G. Verhulst, 2007, Comparative Analysis of International Co- and Self-Regulation in Communications Markets, Research report commissioned by Ofcom. Wien. ITA. Online verfügbar: http://mediachange.ch/media//pdf/publications/latzer_et_al_2007_comparative_analysis.pdf. (Stand: 21.10.2016).

Latzer, Michael, Joscha Gewinner, Katharina Hollnbuchner, Natascha Just, und Florian Saurwein, 2014, Algorithmische Selektion im Internet: Ökonomie und Politik automatisierter Relevanzzuweisung in der Informationsgesellschaft. Unveröffentlichter Forschungsbericht, gefördert durch den SNF. Zürich. IPMZ, Abteilung für Medienwandel & Innovation.

Latzer, Michael, Katharina Hollnbuchner, Natascha Just und Florian Saurwein, 2016, The Economics of Algorithmic Selection on the Internet. S. 395-425, in: Johannes Bauer und Michael Latzer (Hg.): Handbook on the Economics of the Internet. Cheltenham und Northampton. Edward Elgar.

Lessig, Lawrence, 1999, Code and Other Laws of Cyberspace. New York, NY. Basic Books.

Lewandowski, Dirk, 2014, Why We Need an Independent Index of the Web. S. 50-58, in: René König und Miriam Rasch (Hg.): Society of the Query Reader: Reflections on Web Search. Amsterdam. Institute of Network Cultures.

Lin, Patrick und Evan Selinger, 2014, Inside Google’s Mysterious Ethics Board, Forbes, 03.02.2014. Online-Publikation: http://www.forbes.com/sites/privacynotice/2014/02/03/inside-googles-mysterious-ethics-board. (Stand: 21.10.2016).

London Economics, 2010, Study on the Economic Benefits of Privacy Enhancing Technologies (PETs), Final Report to the European Commission DG Justice, Freedom and Security. Online verfügbar: http://ec.europa.eu/justice/policies/privacy/docs/studies/final_report_pets_16_07\_10_en.pdf. (Stand: 21.10.2016).

Lyon, David, 2003, Surveillance as Social Sorting: Computer Codes and Mobile Bodies. S. 13-30, in: ders. (Hg.): Surveillance as Social Sorting: Privacy, Risk, and Social Discrimination. London und New York, NY. Routledge.

Manovich, Lev, 2013, Software Takes Command. New York, NY. Bloomsbury.

Mayer-Schönberger, Viktor und Kenneth Cukier, 2013, Big Data: Die Revolution, die unser Leben verändern wird. München. Redline.

Munson, Sean A., und Paul Resnick, 2010, Presenting diverse political opinions: how and how much. S. 1457-1466, in: Proceedings of ACM CHI 2010 Conference on Human Factors in Computing Systems 2010. New York. ACM Press.

OECD, 2013, Exploring Data-Driven Innovation as a New Source of Growth. Mapping the Policy Issues Raised by ‘Big Data’. OECD Digital Economy Papers. Online-Publikation: http://www.oecd-ilibrary.org/science-and-technology/exploring-data-driven-innovation-as-a-new-source-of-growth_5k47zw3fcp43-en. (Stand: 21.10.2016).

Ohm, Paul, 2010, Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization, UCLA Law Review 57: 1701-1777.

Pariser, Eli, 2011, The Filter Bubble: What the Internet is Hiding from You. London. Penguin Books.

Pasquale, Frank, 2015, The Black Box Society. The Secret Algorithms That Control Money and Information. Cambridge, MA. Harvard University Press.

Patterson, Mark R., 2013, Google and Search-Engine Market Power, Harvard Journal of Law & Technology, Occasional Paper Series, July 2013. Online-Publikation: http://jolt.law.harvard.edu/antitrust/articles/Patterson.pdf. (Stand: 21.10.2016).

Quinn, Dylan J., 2014, Associated Press v. Meltwater: Are Courts Being Fair to News Aggregators?, Minnesota Journal of Law, Science and Technology 15 (2): 1189-1219.

Resnick, Paul, R. Kelly Garrett, Travis Kriplean, Sean A. Munson und Natalie Jomini Stroud, 2013, Bursting your (Filter) Bubble: Strategies for Promoting Diverse Exposure. S. 95-100, in: Proceedings of the 2013 Conference on Computer-supported Cooperative Work. New York, NY. ACM Press

Rieder, Bernhard, 2005, Networked Control: Search Engines and the Symmetry of Confidence, International Review of Information Ethics 3: 26-32.

Rietjens, Bob, 2006, Trust and Reputation on eBay: Towards a Legal Framework for Feedback Intermediaries, Information & Communications Technology Law 15 (1): 55-78.

Rönnqvist, Samuel und Peter Sarlin, 2016, Bank Distress in the News: Describing Events through Deep Learning. Online-Publikation: https://arxiv.org/abs/1603.05670. (Stand: 21.10.2016).

Saurwein, Florian, 2011, Regulatory Choice for Alternative Modes of Regulation: How Context Matters, Law & Policy 33 (3): 334-366.

Saurwein, Florian, Natascha Just und Michael Latzer, 2015, Governance of Algorithms: Options and Limitations, Info 17 (6): 35-49.

Schaar, Peter, 2010, Privacy by Design, Identity in the Information Society 3 (2): 267-274.

Schedl, Markus, David Hauger und Dominik Schnitzer, 2012, A model for serendipitous music retrieval. S. 10-13, in: Proceedings of the 2nd Workshop on Context-awareness in Retrieval and Recommendation. New York, NY. ACM Press.

Schormann, Tobias, 2012, Online-Portale: Großer Teil der Hotelbewertungen ist manipuliert, Spiegel Online, 09.03.2012. Online-Publikation: http://www.spiegel.de/reise/aktuell/online-portale-grosser-teil-der-hotelbewertungen-ist-manipuliert-a-820383.html. (Stand: 21.10.2016).

Schulz, Wolfgang, Thorsten Held und Arne Laudien, 2005, Search Engines as Gatekeepers of Public Communication: Analysis of the German Framework Applicable to Internet Search Engines Including Media Law and Anti-trust Law, German Law Journal 6 (10): 1418-1433.

Senecal, Sylvain und Jacques Nantel, 2004, The Influence of Online Product Recommendation on Consumers’ Online Choice, Journal of Retailing 80 (2): 159-169.

Slavin Kevin, 2011, How Algorithms Shape Our World. TED Talks. Online-Publikation: http://www.ted.com/talks/kevin_slavin_how_algorithms_shape_our_world.html. (Stand: 21.10.2016).

Somaiya, Ravi, 2014, How Facebook Is Changing the Way Its Users Consume Journalism, The New York Times, 26.10.14. Online verfügbar: http://www.nytimes.com/2014/10/27/business/media/how-facebook-is-changing-the-way-its-users-consume-journalism.html. (Stand: 21.10.2016).

Sparrow, Betsy, Jenny Liu und Daniel M. Wegner, 2011, Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips, Science 333 (6043): 776-778.

Spiekermann, Sarah, 2015, Ethical IT Innovation: A Value-Based System Design Approach. Oakville. Apple Academic Press.

Steiner, Christopher, 2012, Automate This: How Algorithms Came to Rule Our World. New York, NY. Penguin Books.

Sunstein, Cass R., 2001, Republic.com. Princeton, NJ. PUP.

Sunstein, Cass R., 2009, Republic.com 2.0. Princeton, NJ. PUP.

The White House, 2016, Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights. Online-Publikation: https://www.whitehouse.gov/sites/default/files/microsites/ostp/2016_0504\_data_discrimination.pdf. (Stand: 21.10.2016)

Toch, Eran, Yang Wang und Lorrie Faith Crainor, 2012, Personalization and Privacy: a Survey of Privacy Risks and Remedies in Personalization-based Systems, User Modeling and User-Adapted Interaction 22 (1): 203-220.

van den Hoven, Jeroen, Pieter E. Vermaas und Ibo van den Poel (Hg.), 2015, Handbook of Ethics, Values and Technological Design. Dordrecht. Springer Science and Business Media.

Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), OJ L 119, 4.5.2016, p. 1–88.

Valentino-DeVries, Jennifer, Jeremy Singer-Vine und Ashkan Soltani, 2012. Websites Vary Prices, Deals Based on Users’ Information. Wall Street Journal. Online-Publikation http://online.wsj.com/news/articles/SB10001424127887323777204578189391813881534.html. (Stand: 21.1.2017).

WEF - World Economic Forum, 2011, Personal Data: The Emergence of a New Asset Class. Online-Publikation: http://www3.weforum.org/docs/WEF_ITTC_PersonalDataNewAsset_Report_2011.pdf. (Stand: 21.10.2016).

Wittel, Gregory L. und S. Felix Wu, 2004, On Attacking Statistical Spam Filters, Proceedings of the first Conference on Email and Anti-Spam (CEAS). Online-Publikation: http://pdf.aminer.org/000/085/123/on_attacking_statistical_spam_filters.pdf. (Stand: 23.10.2016).

Zhang, Jin und Alexandra Dimitroff, 2005, The Impact of Webpage Content Characteristics on Webpage Visibility in Search Engine Results (Part I), Information Processing and Management 41 (3): 665-690.

Zimmer, Michael, 2008, The Externalities of Search 2.0: The Emerging Privacy Threats when the Drive for the Perfect Search Engine meets Web 2.0, First Monday 13 (3). Online-Publikation: http://firstmonday.org/article/view/2136/1944. (Stand: 21.10.2016).

Zittrain, Jonathan und John Palfrey, 2008, Internet Filtering: The Politics and Mechanisms of Control. S. 29-56, in: Ronald J. Deibert, Rafal Rohozinski und Jonathan Zittrain (Hg.): Access Denied: The Practice and Policy of Global Internet Filtering. Cambridge, MA. MIT Press.

Datenverfügbarkeit

Alle relevanten Daten befinden sich innerhalb der Veröffentlichung.

Interessenskonfliktstatement

Die Autor:innen erklären, dass ihre Forschung ohne kommerzielle oder finanzielle Beziehungen durchgeführt wurde, die als potentielle Interessenskonflikte ausgelegt werden können.

Hinweis

Dieser Artikel basiert im Wesentlichen auf Latzer et al. 2014, Latzer et al. 2016 sowie Saurwein et al. 2015.


  1. Reverse-Engineering bedeutet „Umkehrtechnik“ oder „umgekehrt entwickeln“ und umfasst u.a. Techniken, die eingesetzt werden, um die Funktionsweise von Algorithmen zu verstehen, wenn die Algorithmen selbst nicht offengelegt sind bzw. eingesehen werden können. Zum Verständnis der Funktionsweise von Suchmaschinenalgorithmen werden beispielsweise experimentell Webseiten erstellt, verlinkt und modifiziert. Daraus resultierende Unterschiede im Suchmaschinen-Ranking sollen Rückschlüsse auf die Funktionsweise der Suchalgorithmen ermöglichen. Im Bereich des elektronischen Handels konnte ein Reverse-Engineering-Ansatz zeigen, dass einzelne Anbieter die räumliche Distanz zum nächstgelegenen Verkaufsgeschäft der Konkurrenz als Faktor für personalisierte Preisbildung heranziehen: Je näher das nächste Konkurrenzgeschäft, desto niedriger der algorithmisch ermittelte Preis (Valentino-DeVries et al. 2012; Diakopoulos 2015).↩︎

  2. So hat AlgorithmWatch beispielsweise eine Fallstudie zur Verwendung von sozialer Netzwerkanalyse von kriminellen Bandenstrukturen in der Polizeiarbeit durchgeführt. Siehe http://algorithmwatch.org/1-allstudie-sollte-soziale-netzwerkanalyse-in-der-polizei-zur-analyse-von-bandenstrukturen-verwendet-werden/\#more-475 (Stand: 23.3.2017).↩︎

Downloads

Zitationen
7
0
7 citations recorded by Crossref
  
  1. Blockchain-Technologie für Unternehmensprozesse
    Katarina Adam (2020)
    Book content
    DOI: 10.1007/978-3-662-60719-0_5

  2. Empirische Messung digitalisierter Demokratien: Erkenntnistheoretische Herausforderungen und eine wissenschaftstheoretische Antwort
    Dannica Fleuß et al. (2019)
    Politische Vierteljahresschrift
    DOI: 10.1007/s11615-019-00186-6

  3. Demokratie braucht Medien
    Christian Oggolder (2021)
    Politische Vierteljahresschrift
    DOI: 10.1007/978-3-658-34633-1_4

  4. Blockchain Technology for Business Processes
    Katarina Adam (2022)
    Politische Vierteljahresschrift
    DOI: 10.1007/978-3-662-65818-5_5

  5. Wandel der Öffentlichkeit und der Gesellschaft
    Josef Trappel (2019)
    Politische Vierteljahresschrift
    DOI: 10.1007/978-3-658-27711-6_3

  6. Blockchain-Technologie für Unternehmensprozesse
    Katarina Adam (2022)
    Politische Vierteljahresschrift
    DOI: 10.1007/978-3-662-64677-9_5

  7. Digitalisierung der politischen Kommunikation
    Patrick Donges (2022)
    KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie
    DOI: 10.1007/s11577-022-00834-7

0 citations recorded by Semantic Scholar
Metriken
Views/Downloads
  • Abstract
    768
  • HTML
    92
  • PDF
    798
Weitere Informationen

Erhalten

2016-11-01

Akzeptiert

2017-02-01

Veröffentlicht

2017-05-01