„Hello World“ – Systemtheoretische Überlegungen zu einer Soziologie des Algorithmus

  • Jonathan Harth Universität Witten/Herdecke
  • Caspar-Fridolin Lorenz Humboldt-Universität zu Berlin

DOI:

https://doi.org/10.15460/kommges.2017.18.2.588

Schlagworte:

Computer, künstliche Intelligenz, Kommunikation, Algorithmus, Systemtheorie, Kommunikationstheorie, Luhmann, Software

Redaktion und Begutachtung

  • Nils Zurawski Universität Hamburg
  • Katharina Kinder-Kurlanda Gesis, Köln

Abstract

Die Leistungsfähigkeit und Komplexität von Algorithmen scheint über eine bloße Steigerung wirtschaftlicher Automatisierungs- und Rationalisierungsprozesse hinauszuweisen. Der im Titel dieses Beitrags zitierte Ausspruch „Hello World“ bezeichnet somit nicht nur die ersten simplen Gehversuche beim Erlernen einer Pro-grammiersprache1, sondern zeigt, dass die von Algorithmen angeleiteten Computersysteme sich an der Konstitution gesellschaftlicher Realität beteiligen. Der vorliegende Beitrag versucht sich aus diesem Grund der Frage zu nähern, was eine Soziologie des Algorithmus aus systemtheoretischer Sicht bedeuten könnte. Ausgehend von dem Vorschlag, die Leistungen von Algorithmen testweise als produktive Irritation sinnförmiger Kommunikation zu verstehen, versuchen wir zunächst den kleinen, aber feinen Unterschied zwischen Computern und Algorithmen herauszuarbeiten. Anschließend rekapitulieren wir anhand verschiedener Positionen wie die soziologische Systemtheorie bislang jene möglichen Formen der Beteiligung von Computern an Kommunikation konzeptionell zu integrieren versuchte.

1 Einleitung

Alltäglich lässt sich beobachten, was vor wenigen Jahren als pure Science-Fiction galt: ganze Organisationen steuern sich autonom auf Basis vorab festgelegter Rechenanweisungen (Jentzsch 2016), so genannte „algo trader“ handeln eigenständig an Terminbörsen (Wansleben 2012), „embodied conversational agents“ simulieren überzeugende Gesprächspartner (Wachsmuth 2010) und computergesteuerte Spielpartner treten in Konkurrenz zu menschlichen Spielerinnen und Spielern (Harth 2014). Die Leistungsfähigkeit und Komplexität gegenwärtiger Algorithmen scheint mittlerweile jedoch über eine bloße Steigerung wirtschaftlicher Automatisierungs- und Rationalisierungsprozesse hinauszuweisen. Die Diskussion über Algorithmen aktualisiert vielmehr auf ganz neue Weise die Frage danach, was maschinelle Intelligenz von menschlicher Intelligenz unterscheiden könnte (vgl. bereits Turing 1950) und wie fortgeschritten „the erasure of human judgement“ (Neyland 2016) mittlerweile in gesellschaftlichen Zusammenhängen ist. Der im Titel dieses Beitrags zitierte Ausspruch „Hello World“ bezeichnet somit nicht nur die ersten simplen Gehversuche beim Erlernen einer Programmiersprache1, sondern er soll ganz wörtlich verstanden werden: Die von Algorithmen angeleiteten Computersysteme beteiligen sich bereits seit längerem an der Konstitution gesellschaftlicher Realität (vgl. Seyfert/Roberge 2016).

Der vorliegende Beitrag versucht sich aus diesem Grund der Frage zu nähern, was eine Soziologie des Algorithmus aus systemtheoretischer Sicht bedeuten könnte. Ausgehend von dem Vorschlag, die Leistungen von Algorithmen testweise als produktive Irritation sinnförmiger Kommunikation zu verstehen, versuchen wir zunächst den kleinen, aber feinen Unterschied zwischen Computern und Algorithmen herauszuarbeiten. Anschließend rekapitulieren wir anhand der Positionen von Peter Fuchs, Elena Esposito und Dirk Baecker, wie die soziologische Systemtheorie bislang jene möglichen Formen der Beteiligung von Computern an Kommunikation2 konzeptionell zu integrieren versuchte. Dies erscheint uns vor allem deshalb sinnvoll, da insbesondere die soziologische Systemtheorie sich (auch) als Kommunikationstheorie versteht (vgl. Luhmann 1984, Kapitel 4) und darüber hinaus vorgibt, sich vom sogenannten „alteuropäischen Erbe“ des Humanismus emanzipiert zu haben. Anschließend an die Rekonstruktion systemtheoretischer Positionen werden wir der Frage nachgehen, inwiefern die Systemtheorie diese zuletzt genannte Selbstbeschreibung einhalten kann und worauf sich eine systemtheoretisch informierte Soziologie des Algorithmus künftig einstellen müsste.

2 Vom Computer zum Algorithmus

Während noch vor wenigen Jahren in der Regel vom „Computer“ die Rede war, wenn es um Möglichkeiten und Grenzen künstlicher Rechenkraft und Intelligenz ging, präzisiert die heutige Perspektive auf Algorithmen den eigentlichen Problembereich. Während die Rede vom Computer noch unentschieden zwischen den Referenzen Hard-/Software oszilliert, dokumentiert der Blick auf Algorithmen bereits ein Wissen darüber, dass man es nicht mehr mit einem invarianten, materialen „Objekt“ zu tun hat, das untersucht werden möchte, sondern mit immateriellen Operationen, Assoziationen und Reflexionen. Algorithmen sind jedoch keine neue Erfindung. Seit Anbeginn des Computerzeitalters finden sich in der Informatik mehr oder weniger ausgefeilte Rechenanweisungen, die auf spezifische Inputs mit spezifischen Outputs reagieren. Während der Begriff „Algorithmus“3 vor wenigen Jahren nur wenig Beachtung fand, wird er heute vielerorts als „Mythos“ für die Beschreibung gesellschaftlicher Phänomene herangezogen (vgl. Bächle 2015; Ziewitz 2016). Spätestens jedoch seit der gesellschaftlichen Etablierung von Google, Amazon und Facebook und ihrem ökonomischen Erfolg, der fast ausschließlich auf speziellen Algorithmen gründet (etwa dem „PageRank“ oder personalisierten Vorschlägen), wird auch jedem User alltäglich vor Augen geführt, was Algorithmen zu leisten vermögen. Wenig überraschend entwickelte sich parallel zur (Weiter-) Entwicklung jener elaborierten Algorithmen eine wissenschaftlich-kritische Begleitung, die sich mittlerweile unter dem Label „Critical Algorithm Studies“4 etablieren konnte (vgl. vor allem Gillespie 2014; Totaro/Ninno 2014; aber auch Rossiter 2016, der Algorithmen im Besonderen unter ihrer Bedeutung als „logistical media“ untersucht).

Als Algorithmen bezeichnet man spezielle Programmcodes für Computersysteme5, die als formalisierte Rechenanweisungen zur Lösung spezifischer „Probleme“ dienen. Somit setzt sich jedes Software-Programm aus Algorithmen (spezifischen Rechenanweisungen) zusammen. Gleichzeitig kann aber auch jedes Programm selbst als Algorithmus betrachtet werden, wenn es als Anweisung zur Lösung eines Problems in größerem Kontext beschrieben wird. Unter dem eher unspezifischen Begriff „Computer“ versammeln sich somit Leistungen, zu denen spezifische Algorithmen in der Lage sind. Wenn also in den vorgestellten systemtheoretischen Texten von „Computern“ die Rede ist, sind damit vor allem die Leistungen dezidierter Algorithmen gemeint.

Insbesondere im Vergleich zum Begriff „Computer“ zeigt sich, wie der Blick auf Algorithmen die Operativität, also das Bearbeiten von Rechenanweisungen innerhalb spezifischer Logiken, fokussiert. Die besondere Leistung von Algorithmen ist das Prozessieren strukturierter Strukturierungsprinzipien. Denn spätestens seit den in den cognitive sciences, der Bioinformatik und der Informatik entwickelten neuronalen Netzen finden sich rekursive, das heißt in ihrer Struktur an die eigenen Outputs rückgekoppelte Algorithmen, die mit ihren Rechenergebnissen sogar ihre eigenen Schöpfer überraschen (sollen). Die rekursiv und netzwerkförmig operierenden Algorithmen heutiger Generation bieten damit nicht nur ausreichend viel Spekulationsbasis6 für kommende Zukünfte7, sie stellen bereits heute große Herausforderungen an eine Soziologie des Algorithmus. Aber wie kann eine systemtheoretische Soziologie des Algorithmus die angesprochenen Änderungen in den Formen der gesellschaftlichen Kommunikation beschreiben? Mit welchen gesellschaftlichen Phänomenen müsste sich eine solche Bindestrich-Soziologie beschäftigen? Wir möchten hierzu zwei Perspektivierungen vorschlagen:

  1. Auf der einen Seite finden sich seit der Erfindung und Einführung des Computers in die Gesellschaft zahlreiche Veränderungen in den sozialen Formen des Miteinanders. Wie auch Luhmann beschreibt, stellt sich seitdem vor allem die Frage, wie die Bereitstellung algorithmischer Intelligenz zu neuen Vermittlungen in der menschlichen Kommunikation findet:

„Die interessante Frage ist, wie es sich auf die gesellschaftliche Kommunikation auswirkt, wenn sie durch computervermitteltes Wissen beeinflusst wird. Was sich tatsächlich beobachten läßt, sind weltweit operierende, konnexionistische Netzwerke des Sammelns, Auswertens und Wiederzugänglichmachens von Daten“ (Luhmann 1997: 304).

Von Interesse ist dabei jedoch zusätzlich, dass Computer nicht bloß diejenigen Informationen reproduzieren und verbreiten, die in sie eingegeben wurden. Denn die den Computer anleitenden Algorithmen verändern die eingegebenen Daten, sie schaffen neue Informationen und brechen damit das Konzept althergebrachter Autorschaft auf,8 wie Elena Esposito eindrücklich darstellt:

„Die Irrelevanz des Bezugs auf den Autor wird operationalisiert, und man kommt dazu, Materialien zu produzieren, die keinen identifizierbaren menschlichen Autor haben, aber dennoch eine Kommunikation darstellen. Das Problem ist also nicht so sehr zu verstehen, ob man mit einer Maschine kommuniziert, sondern daß man sich zum Verständnis der Kommunikation nicht mehr zu fragen braucht, mit wem man kommuniziert“ (Esposito 2000: 181).

  1. Auf der anderen Seite wurde genau hierdurch die Sicht auf Computer als bloße Medien abgelöst. Spätestens mit der Bereitstellung algorithmischer Intelligenz gelangt man nun unwiederbringlich zur Frage danach, inwiefern Sozialität hierdurch zu neuen Kommunikationsteilnehmern findet. Die damit eröffnete Perspektive, die in anderer Theoriesprache bereits seit längerem unter dem Stichwort „non-human agency“9 verhandelt wird, legt die Frage nahe, inwiefern Computersysteme als chancengleiche Kommunikationsteilnehmer betrachtet werden müssten. Auch Luhmann interessierte weniger die Frage, ob Computer jemals ein dem Menschen vergleichbares Bewusstsein erreichen könnten, sondern vor allem die Frage, ob Computer sich in gleichem Maße an Kommunikation beteiligen könnten: „Eine ganz andere Frage ist, ob und wie weit Computer die gesellschaftskonstituierende Leistung der Kommunikation ersetzen oder überbieten können“ (Luhmann 1997: 303).

Dieses Desiderat wird gegenwärtig immer deutlicher, denn nicht mehr nur für den soziologisch geschulten Beobachter offenbart sich in der Rede von intelligenten Netzen, smarten Objekten oder überraschenden und cleveren Algorithmen eine mehr oder weniger manifeste Form der Personalitätszuschreibung. Wenn Apples Sprachassistent „Siri“ mit einer humorvollen Antwort auf eine provokante Frage reagiert, IBMs „Watson“ haushoch in der Quiz-Show Jeopardy! gewinnt oder Googles „DeepDream“-Software irritierende Bilder „halluziniert“, dann fällt es schwer, den Output der Algorithmen nicht als Eigenleistung einer Maschine zu betrachten. Die Outputs von Algorithmen sind jedoch längst nicht mehr bloß amüsante Ergebnisse intransparenter „black boxes“. Algorithmisch errechnete Ergebnisse sind seit mehreren Jahren – mal mehr und mal weniger – bindend für kommunikative Anschlüsse. Ja, algorithmische Codes können regelrecht zu sozialen Regulatoren werden, zu Gate-Keepern, die über den nächsten kommunikativen Anschluss bestimmen. Denn am automatisiert errechneten Score-Wert der Versicherungen kommt man so schnell nicht vorbei und auch der mittels Dijkstra-Algorithmen errechnete kürzeste Weg auf dem Display des Navigationssystems wird nur in den seltensten Fällen angezweifelt.10

3 Die Systemtheorie und der Computer

Die früh begonnenen (Fuchs 1991) und in regelmäßigen Perioden fortgesetzten (siehe etwa Esposito 2001; Baecker 2007a; 2011) systemtheoretischen Überlegungen zu einer „Soziologie des Computers“ setzten den Computer bislang homolog zu Bewusstsein und konstatierten eine mangelnde Verstehensleistung, die für eine Beteiligung an Kommunikation disqualifiziere. Entsprechend negativ fallen noch bis ins Jahr 2011 die gezogenen Schlüsse aus: „The time of computers being engaged in communication probably has not yet come“ (Baecker 2011: 24). Aber wie gelangt Baecker zu diesem Urteil? Und wieso fällt es der soziologischen Systemtheorie derart schwer, die Outputs von Algorithmen als kommunikative Beteiligung an Gesellschaft zu konzipieren? Schließlich war es Niklas Luhmann selbst, der erste Überlegungen zur Kopplung computerbasierter Operationen an gesellschaftlicher Realität aufstellt: „Die einzige Alternative zur strukturellen Kopplung Bewußtsein/ Kommunikation, die sich gegenwärtig bereits andeutet, aber unschätzbare Folgen haben würde, ist der Computer. Bereits heute sind Computer in Gebrauch, deren Operationen weder für Bewußtsein noch für Kommunikationen zugänglich sind, und zwar weder zeitgleich noch rekonstruktiv“ (Luhmann 1997: 117). Eine erste Antwort könnte darin gesehen werden, „dass kein Phänomen die Soziologie und Gesellschaftstheorie Luhmanns auf eine härtere Probe stellt als der Computer“ (Baecker 2004: 132). So erkannte Luhmann selbst noch in seinem späten Hauptwerk, dass das Phänomen Computer ein grundlegendes Problem für den Kommunikationsbegriff der soziologischen Systemtheorie aufwirft (vgl. 1997; 304), tritt hier doch plötzlich eine verdeckte anthropozentrische Fundierung hervor, die impliziert, dass einzig und allein Menschen Kommunikation prozessieren könnten. Damit deutet sich bereits an, dass die Erfindung des Computers und die durch ihn aufgeworfenen Phänomene Umwälzungen in der Gesellschaft bis hin zur Produktion abstrakter Gesellschaftstheorie nach sich ziehen.

Für die Soziologie erscheint der Computer zunächst als technische Maschine, die auf der Grundlage verschiedener Hard- und Softwarekomponenten Funktionen der digitalen Informationsverarbeitung erfüllt. Die Eingabe bestimmter Informationen leitet eindeutig bestimmbare Algorithmen dazu an, einen bestimmten Output zu errechnen. Dies macht den Computer auf den ersten Blick zu einer trivialen Maschine (im Sinne Heinz von Foersters, vgl. 1993) bzw. einer „funktionierenden Simplifikation im Medium der Kausalität“ (vgl. Luhmann 1991). Auch in einem systemtheoretischen Zugang wird damit das erste Verständnis der Leistungen von Computern markiert.

Doch neben der Errechnung von Ausgaben auf der Grundlage von Eingaben erfüllt der Computer zusätzlich auch die Funktion eines „elektronischen Verbreitungsmediums“ (Luhmann 1997: 302ff.), wenn es darum geht, Daten an verschiedenen Orten verfügbar zu machen und zu halten. Im Anschluss an Elena Esposito muss man also von einer Doppelfunktion des Computers ausgehen: „Der Computer, könnte man sagen, ist Medium und Maschine zugleich und in Bezug auf dieselben Objekte: Er verändert und verbreitet sie.“ (Esposito 1993: 339) Diese Doppelfunktion führt nun jedoch zu einer merkwürdigen Konstellation, wenn der Fall eintritt, dass veränderte Objekte – hier: emergente und durch Algorithmen generierte Informationen – verbreitet werden, also irgendwo, irgendwann vor irgendwem auf der Oberfläche eines Bildschirms erscheinen.

Als sowohl informationsverarbeitende als auch -verbreitende Maschinen treten Computer in der Umwelt von psychischen und sozialen Sinnsystemen auf. Die Überraschung, die der Computer in Bezug auf die Veränderung und Verbreitung von Daten für psychische oder soziale Systeme ermöglicht, macht ihn zu einer informationsproduzierenden Maschine.11 Mit der Formulierung, dass Information das ist, was als „Unterschied einen Unterschied macht“ (Bateson 1985: 582), erscheint dann der Computer nicht nur für sinnförmig operierende Systeme als potentieller Informationsproduzent, sondern sogar für sich selbst und seine „Artgenossen“. Der Computer als Informationsmaschine wird erst so zu der „transklassischen Maschine“ als die ihn die 1950er und 60er Jahre bereits sehen wollten (vgl. Turing 1948; 1950; Günther 1963). So auch Esposito:

„Zum ersten Mal haben wir es mit Maschinen zu tun, die gebaut worden sind, um Überraschungen zu produzieren – und Informationen (also Überraschungen) sind in der Tat ihr einziges Produkt“ (Esposito 2001: 249).

Insbesondere in der reduktionistischen Betrachtung des Computers als Verbreitungsmedium ließe sich das Argument stark machen, der Computer vermittle bloß, was der Sender eingibt und ein Empfänger heraus nimmt. Doch dem widerspricht, dass Information und Mitteilung über den Weg des Computers entkoppelt werden, denn der „Mitteilende konnte den aus dem Computer gewonnenen Text nicht kennen“ (Esposito 1993: 345), wie auch der Leser nicht wissen kann, „ob und was ihm mitgeteilt werden sollte“ (Luhmann 1997: 309). Das heißt, selbst in der Konzeption einer „geräuschlosen“ Zwischenschaltung des Computers als Medium wird die Einheit von Mitteilung und Verstehen aufgegeben: „Wer etwas eingibt, weiß nicht (und wenn er es wüßte, brauchte er den Computer nicht), was auf der anderen Seite entnommen wird. Die Daten sind inzwischen ‘verarbeitet’ worden“, so Luhmann (1997: 309). Der Computer – und das wird vor allem deutlich, wenn wir auf Algorithmen fokussieren – wird somit auf diese Weise zum eigenständigen Autor (siehe Esposito 2000; 2001).

4 Peter Fuchs – Kommunikation mit Computern ist „einseitig bewusst operierende Kommunikation“

In seinem 1991 erschienenen Aufsatz „Kommunikation mit Computern“ gibt Peter Fuchs eine neue Denkrichtung vor. Es könne nicht mehr darum gehen, ob und wie Computer mit Menschen kommunizieren könnten. Vielmehr müsse die Frage lauten:

„Können Computer überhaupt und wenn wie an Kommunikation beteiligt sein unter der Testbedingung, daß sie sich an ihr in einer Form beteiligen müßten, die typisch für die Partizipation von Bewußtseinen an kommunikativen Prozessen ist?“ (Fuchs 1991: 9).

Peter Fuchs verdeutlicht also, dass auch eine Soziologie, die Kommunikation als Grundbegriff sieht, sich der Irritation stellen müsse, die sich aus der Veränderung von Kommunikationsbedingungen ergeben. Dabei bleibt er dem Paradigma der doppelten Kontingenz treu, die für die Soziologie als notwendige Bedingung für die Emergenz von Kommunikation gelten kann (vgl. Lindemann 2009). In seinen Überlegungen fragt Fuchs nach der Äquivalenz psychischer Systeme und Computern im Kontext sozialer Systeme und hebt dafür zunächst den Aspekt des Verstehens psychischer Systeme hervor:

„Für das Bewußtsein gilt, daß es an Kommunikation nur unter einer Bedingung beteiligt sein kann: Es muß die Selektivität der Mitteilung von der Selektivität der Information zu unterscheiden fähig sein“ (Fuchs 1991: 10).

Dabei sind für Fuchs notwendigerweise zwei Aspekte richtungsweisend: einerseits eine (unterstellte) Selbstreferenz und andererseits die „Sprachförmigkeit“12, die beide als Lösungen der kontingenten Mehrdeutigkeit im Medium Sinn in Erscheinung treten. Zur „Gretchenfrage“ (Fuchs 1991: 20) würde dann, ob auch durch Algorithmen angeleitete Computer ihre Umwelt hinsichtlich selbstreferentieller (sprachförmiger) Systeme beobachten. Sind Computer also ebenso wie psychische Systeme in der Lage, zwischen Mitteilung und Information zu unterscheiden? Wenn dies der Fall wäre und sie die Selektionen der Kommunikation zu unterscheiden wüssten, müssten sie – so lautete die Testbedingung – als vollwertige Teilnehmer an Kommunikation angesehen werden. Fuchs geht allerdings nicht davon aus:

„Verstehen Computer in diesem kommunikationstheoretischen Sinne? – Das kann man wohl für den gegenwärtigen Stand der Technik […] entschieden und ohne große Beweisnot verneinen“ (Fuchs 1991: 20).

So schließt Fuchs seine Ausführungen mit dem Hinweis, dass man nun eigentlich zwei Arten von Kommunikation beobachten könne: einerseits Kommunikation unter Beteiligung menschlichen Bewusstseins und andererseits „Kommunikation unter Sonderbedingungen, als Kommunikation, die sich auf die Eigentümlichkeit nichtbewußter, sprachbenutzender, zeitunterschiedener Prozessoren einzustellen hätte“ (Fuchs 1991: 26) – oder in anderen Worten: einer Kommunikation, die „wenn sie es mit Menschen und Computern zu tun bekommt, von einseitiger Bewußtheit in ihrer Umwelt ausgehen muß oder, wenn man so sagen darf, einseitig bewußt operiert“ (Fuchs 1991: 20).13

5 Elena Esposito – Kommunikation mit autonomen Computersystemen muss vom Menschen verstanden werden

Während Peter Fuchs primär im Kontext doppelter Kontingenz argumentiert und das Entstehen einer zweiten Art von Kommunikation beobachtet, widmet sich Elena Esposito zehn Jahre später explizit dem Aspekt der strukturellen Kopplung von Computer und Kommunikation (vgl. Esposito 2001). Dabei bezieht sich Esposito auf eine Textstelle in Luhmanns „Gesellschaft der Gesellschaft“ und begreift diese als eine der spekulativsten und womöglich folgenreichsten Aussagen in seinem Gesamtwerk: Es ist die oben bereits erwähnte Passage, in der Luhmann den Computer als „einzige Alternative zur strukturellen Kopplung Bewußtsein/Kommunikation“ (Luhmann 1997, 117) bezeichnet. Diesem Gedanken folgend erkennt Esposito grundlegende Probleme für die gesamte Theorieanlage:

„Wie kann man sich die Möglichkeit vorstellen, daß Kommunikation sowohl mit Bewußtseinen als auch mit Computern gekoppelt ist, also Irritation nicht nur (wie man bisher gedacht hat) aus einem einzigen, sondern aus zwei unterschiedlichen Bereichen der Umwelt gewinnen kann?“ (Esposito 2001: 241).

In ihrer Argumentation rekurriert sie dabei auf die auch für gesellschaftliche Funktionssysteme gültige Konzeptionierung „struktureller Kopplung“ (vgl. Esposito 2001: 245). Während Kommunikation voll auf Bewusstsein angewiesen sei, sähe dies im Falle der Funktionssysteme anders aus: „Die politische Kommunikation kann (aber sie muß nicht) mit einer wirtschaftlichen Transaktion strukturell gekoppelt sein“ (Esposito 2001: 246). Im Falle des Computers sehe dies ähnlich aus, denn Kommunikation sei nicht auf Computer angewiesen, während – und dies wirkt eigentümlich formuliert14 – „die ‘Operationen’ der Computer ohne Kopplung mit einer Kommunikation oder eines Bewußtsein sich nicht ereignen könnten“ (Esposito 2001: 246).

Esposito stellt somit den Aufbau von Autonomie durch eine Zunahme an strukturellen Kopplungen in den Vordergrund. Je mehr strukturelle Kopplungen, desto mehr Autonomie auf Seiten eines Systems.15 Unter der Bedingung „ausreichender Autonomie“ (Esposito 2001: 247) eines Systems (siehe Bewusstsein) benötige es für die Selbstirritation dieses Systems nicht zwingend autopoietischer Operationen in dessen Umwelt. Nötig seien allein „Diskontinuitäten in der Umwelt“, die „als Störungen für die Operationen des Systems fungieren“ (Esposito 2001: 246). Genau dies stellt für Esposito dann aus einer gesellschaftlichen Perspektive den „Sinn der strukturellen Kopplung zwischen Kommunikation und Computer“ dar: eine zugespitzte „Selbstirritationsfähigkeit des Gesellschaftssystems, das sich von einer punktuellen Synchronisation mit den Operationen der psychischen Systeme unabhängig macht, also von der für seine Autopoiesis unerläßlichen ‘ersten’ strukturellen Kopplung“ (Esposito 2001: 251).

Espositos Antwort auf unsere Frage nach der Beteiligung algorithmischer Intelligenz an Kommunikation bleibt somit wenig eindeutig. Sie greift zwar einerseits den Gedanken der „einseitig bewussten Kommunikation“ von Fuchs auf, indem sie von (Selbst-)Irritationen (des psychischen Systems) durch nicht-autopoietische Operationen spricht, überlässt den Computer dann aber gleichzeitig dem Reich der „Dinge“ wie Bäume, Tiere oder Steine, die schließlich ebenfalls als potentiell irritationsfähige Diskontinuitäten dienen könnten. Esposito schließt ihre Analysen entsprechend negativ:

„Obwohl man auf der Ebene der Beobachtung erster Ordnung ‚mit’ dem Computer kommunizieren kann, weiß man auf der Ebene der Beobachtung zweiter Ordnung, daß es sich um eine Maschine handelt, und bemüht sich zum Beispiel nicht darum, sie möglichst nicht zu beleidigen oder zu langweilen“ (Esposito 2001: 248).

Auch hier wird also zum Ausdruck gebracht, dass, um von „echter“ Kommunikation unter Beteiligung von Computern sprechen zu können, ein Verstehen homolog psychischer Systeme vorhanden sein müsse.

Auch wenn der Gedanke der „Selbstirritationsfähigkeit“ eine gewisse Attraktivität versprüht, bewegt sich Esposito damit in einer unscharfen Theoriesprache, welche die Systemreferenzen von Kommunikation nicht präzise trennt. Denn Luhmanns Diktum folgend, ist für die Fortsetzung von Kommunikation nicht das Verstehen eines Menschen oder eines Bewusstseins (oder eines Computers) zentral, sondern einzig und allein das Verstehen der Kommunikation. Ein solches Verstehen der Kommunikation drückt sich ganz praktisch gesehen in einem (jedem) Anschluss aus, der sich auf die Unterscheidung von Information und Mitteilung bezieht. Für Esposito jedoch ist das Verstehen beteiligter psychischer Systeme primär. Und so schließt sie ihren Aufsatz dann auch entsprechend mit den Worten, dass es für die Kopplung von Computer und Kommunikation jeweils einer „Re-Synchronisierung“ mit psychischen Systemen bedürfe: „früher oder später muß jemand verstehen, was der Computer sagt“ (Esposito 2001: 251).16 Eine derartige Argumentation offenbart dann in ganz plastischer Weise die anthropozentrische Last der Systemtheorie und widerspricht dem Diktum, dass einzig Kommunikation verstehen könne, dass kommuniziert wurde.

6 Dirk Baecker – die Suche nach Einheiten, fähig zur Beteiligung an Kommunikation

In der gegenwärtigen, systemtheoretisch informierten Soziologie ist es vor allem Dirk Baecker, der sich verstärkt mit den Auswirkungen der Einführung des Computers in die Gesellschaft auseinandersetzt (Baecker 2004; 2007a, b; 2011). Auch Baecker erkennt, dass der Computer als Alternative zur strukturellen Kopplung von Bewusstsein und Kommunikation, zur „Unbestimmtheitsstelle“ nicht nur der Gesellschaft, sondern auch für Luhmanns Theorie der Gesellschaft wird (vgl. Baecker 2004: 131). Baecker versucht seitdem diese Unbestimmtheitsstelle auszuformulieren, indem er die von Luhmann skizzierten „Kulturformen“ der Gesellschaften mit den jeweils prominenten Verbreitungsmedien Sprache, Schrift, Buchdruck und nun eben dem Computer miteinander in Beziehung setzt (vgl. vor allem Baecker 2007b). Zur potentiellen Beteiligung von Computern an Kommunikation schreibt er zunächst im Einklang mit den Überlegungen von Luhmann und Esposito, der Computer würde „mitkommunizieren“ (vgl. Baecker 2007b: 9), da dieser Informationen nicht einfach nur reproduziert oder verbreitet, sondern sie zudem rechnend verarbeitet. Der Computer zeichne sich gerade dadurch aus, dass er in der Lage ist,

„mit eingegebenen Daten nach der Maßgabe eigener Programme so umzugehen, daß sie nicht nur geordnet werden, sondern der Ausgabe der Daten auf dem Bildschirm oder im Ausdruck nicht angesehen werden kann, wie sie verarbeitet worden sind und wer sie eingegeben hat“ (Baecker 2004: 129).

Inwiefern der Computer mehr ist als bloßer „Mitrechner“ (Baecker 2004: 203), also auch als Beteiligter an Kommunikation beschrieben werden könnte, geht Baecker erst 2011 dezidiert nach. Hier kommt er zu dem auch uns zentral erscheinenden Argument, dass die systemtheoretische Theoriefigur der operativen Schließung von Kommunikation eigentlich von jeglichen anthropologischen Konstanten entlastet werden müsste: „In our regard, closure means that we are free from humanist bias in searching for possible communication“ (Baecker 2011: 22). Vielmehr schlägt Baecker vor, nach Theorieoptionen zu suchen, die außerhalb anthropologischen Denkens liegen, und dennoch die Beteiligung von Menschen an Kommunikation beschreiben können. Baecker definiert drei zentrale Aspekte, die zwar seit der Moderne exklusiv dem Menschen zugesprochen werden, aber auch für andere Einheiten („units“) gelten müssten, wenn man ihnen das Potenzial zur Kommunikationsbeteiligung zusprechen wollte. Baecker definiert die drei Aspekte wie folgt: „independence, self-reference, and complexity“ (Baecker 2011: 22).

Die Unabhängigkeit („independence“) zeige sich nicht nur als Merkmal einer elementaren Differenz zwischen Kommunikation und beteiligten Einheiten (kein Mensch und kein Gedanke wird jemals zu Kommunikation), sondern auch in der Freiheit, eigene Erwartungen, eigenes Gedächtnis und eigenes Bewusstsein17 aufzubauen. Hier verbirgt sich einerseits die der Systemtheorie inhärente Unterscheidung zwischen System und Umwelt und andererseits die Figur der strukturellen Kopplung, da sich wie Esposito bereits dargelegt hat, die Autonomie eines Systems (bzw. einer Einheit) erst in der Ausdifferenzierung zu einer hinreichend komplexen Umwelt möglich wird.

Die Fähigkeit zur Selbstreferenz („self-reference“) wiederum meint die Fähigkeit, zwischen sich selbst und anderem (sei es Kommunikation, seien es andere Einheiten) zu unterscheiden. Hiermit rückt nicht nur eine potentielle Körper- bzw. Leiblichlichkeit in den Fokus, die als logische Grenzziehung zwischen Selbst und Welt vermittelt, sondern auch die Figur der doppelten Kontingenz, die genau diese Unterscheidungsfähigkeit von Selbst- und Fremdreferenz auch anderen zusprechen muss. Mit anderen Worten: Selbstreferenz kann nie nur idiosynkratisch an sich selbst beobachtet werden, sondern nur anhand der Selbstreferenz des Anderen (fremder Selbstreferenz) erschlossen werden.

Unter dem Stichwort Komplexität („complexity“) schließlich versteht Baecker die intransparente und multi-relationale Struktur von Einheiten, mit Hilfe dessen sich dann etwa in Form von Gedächtnis individuelle Innen-Außen-Differenzen strukturieren lassen. Erst die Inanspruchnahme von Gedächtnis biete jenen Einheiten ein genügend großes Überraschungspotential (mittels der Leistungen Erinnern/Vergessen), und zwar sich selbst wie auch anderen gegenüber. Darüber hinaus ist es erst durch ein Mindestmaß an komplexem Gedächtnis möglich, Zielvorgaben in der Zukunft zu halten, sich selbst also als Einheit in Zeit und Raum zu positionieren und projizieren und nicht bloße Gegenwart zu sein.

Die drei Aspekte Unabhängigkeit, Selbstreferenz und Komplexität werden von Baecker ins Feld geführt, um nach Einheiten zu fahnden, die neben dem Menschen für eine Beteiligung an Kommunikation in Frage kommen: „Just about any unit able to manifest these properties qualifies for communication“, so Baecker (2011: 23). In Bezug auf die Beantwortung dieser Frage bleibt jedoch auch Baecker konservativ. Während er 2011 schreibt, Computer würden die genannten Mindestanforderungen (noch) nicht auseichend erfüllen, sieht er fünf Jahre später – wie selbstverständlich – auch Computer an sozialen Systemen beteiligt:

„Der Begriff des sozialen Systems kann in jüngerer Zeit auch die Kommunikation mit Computern und möglicherweise auch mit anderen hinreichend komplexen Einheiten einschließen, doch konzentrierte sich die Ausarbeitung der Systemtheorie als Kommunikationstheorie, an Kommunikation, an der sich nur Menschen, ausgestattet mit unabhängigen Körpern und Bewusstsein, beteiligen konnten“ (Baecker 2016: 135).

Damit ist das von uns hier in den Blick genommene Desiderat trefflich beschrieben. Auch den drei hier vorgestellten systemtheoretischen Positionen ist gemein, dass sie jeweils mehr oder weniger explizit vom Menschen her denkend der Frage nach einer „Kommunikation mit Computern“ nachgehen und dabei versuchen, Computer und Bewusstsein entweder analogisierend oder differenzierend zu vergleichen. Die Frage, ob Computer als Beteiligte an Kommunikation in Frage kommen, scheint sich an der (zugeschriebenen) Fähigkeit zu operational geschlossenem Verstehen zu entscheiden.

7 Die Irritation der Algorithmen und der systemtheoretische Anthropozentrismus

Wenn Luhmanns Diktum gilt, dann kann Kommunikation nicht direkt beobachtet, sondern nur erschlossen werden: „Um beobachtet werden oder sich selber beobachten zu können, muß ein Kommunikationssystem deshalb als Handlungssystem ausgeflaggt werden“ (Luhmann 1984: 226). Wie aber „flaggt“ sich (bzw. präziser: ein Beobachter oder eine Beobachterin) nun das Kommunikationssystem als Handlungssystem aus? Dies geschieht innerhalb des Kommunikationssystems durch die Konstruktion der Personen, die in der Kommunikation hergestellt werden (vgl. Luhmann 1995). Damit wird deutlich, dass Kommunikation sich selbst nur als Handeln beobachten kann, wenn sie sich dem Mitteilungshandeln einer Person zurechnet. Die „Handlungsverteilung“ wird stets kommunikativ zwischen den Beteiligten hergestellt. Nicht ein vermeintliches Verstehen bzw. Nicht-Verstehen beteiligter psychischer Systeme entscheidet über die Emergenz sozialer Systeme, sondern einzig die Kommunikation selbst. Jede andere Perspektive müsste sonst zulassen, dass einzelne psychische Systeme willkürlich darüber bestimmen könnten, ob nun Kommunikation vorliegt oder nicht.18 Daraus folgt, dass sobald Kommunikation etwas als Kommunikation behandelt, die beteiligten Prozessoren in der Umwelt der Kommunikation variabel gehalten werden müssten. Darin eingeschlossen wären freilich weiterhin psychische Systeme, die mit ihrer intransparenten Komplexität genügend Irritationen für die Fortführung von Kommunikation bereitstellen können, aber eben auch die so genannten „Prozessoren der ‘zweiten Art’“ (Fuchs 1991: 20) wie beispielsweise Computer, welche ebenfalls – wenn auch ohne homologe Sinnprozessierung19 – ausreichend Irritationen für die Emergenz und Autopoiesis sozialer Systeme zur Verfügung stellen können.

Das Kriterium doppelter Kontingenz, das immer noch als Voraussetzung für soziale Situationen gilt, taugt so gesehen nur noch als ein theoretisch-analytisches Instrument, das die ehemals geforderte Intentionalität von Akteuren auffangen musste (quasi als Residuum von Parsons und Husserl). In konkreten sozialen Situationen jedenfalls ist doppelte Kontingenz nicht direkt beobachtbar, wie auch Gesa Lindemann immer wieder zu Recht betont:

„Reine doppelte Kontingenz ist empirisch nicht beobachtbar. Das Theorem doppelter Kontingenz formuliert vielmehr ein Problem und begreift soziale Phänomene als dessen Lösung. Insofern fungiert das Theorem der doppelten Kontingenz als eine beobachtungsleitende Annahme, die dazu anhält, soziale Phänomene als Lösungen eines bestimmten Problems zu begreifen“ (Lindemann 2013: 110).

Der Clou in diesem Zusammenhang ist allerdings, dass für die praktische Emergenz von Kommunikation die Beobachtung reiner doppelter Kontingenz nicht erforderlich ist. Kommunikation kann verstehen ohne zu verstehen (vgl. hierzu Wittenbecher 1999). Auch am Beispiel von algorithmisch produzierten Outputs, die als sprachliche Kommunikationen aufgefasst werden – etwa personalisierte Angebote im Onlineshop von Amazon –, wird deutlich, dass man nur verstehen kann, dass man nicht verstehen kann, wie das Gegenüber nun „tatsächlich“ tickt. Die Mitteilung einer Information hingegen (Buchempfehlung) ist empirisch spätestens dann verstanden, wenn der Bestell-Knopf gedrückt wurde. Durch ein Abwenden vom Konzept doppelter Kontingenz als Mindestvoraussetzung hingegen gelingt die Loslösung von prinzipiell unbeobachtbarem „echten menschlichen“ Verstehen, das bislang a priori für die Beteiligung an Kommunikation herhalten musste.

Die Reichweite der durch Dirk Baecker eingeführten Dimensionen Unabhängigkeit, Selbstreferenz und Komplexität lässt sich zudem anhand der neuesten Entwicklungen von lernenden Algorithmen darstellen. Die momentan mit sehr viel Aufmerksamkeit bedachte Unternehmung „DeepMind“ (2014 von Google akquiriert) erzielt ungeahnte Durchbrüche im maschinellen Lernen und der Mustererkennung. Die Algorithmen von DeepMind sind zu Dingen fähig, von denen man annahm, dass sie künstlichen Intelligenzen erst in einer Dekade gelingen würden. Exemplarisch hierfür galt etwa das komplexe Strategiespiel „Go“. Das von DeepMind entwickelte Programm „AlphaGo“ bezwang Anfang des Jahres 2016 einen der besten menschlichen Go-Spieler 4:1 (vgl. Silver et al. 2016). Grundlage für diese und weitere Fähigkeiten des Programms sind so genannte künstliche neuronale Netzwerke, die in mehreren Schichten (Layern) aufgebaut sind und sich gegenseitig und in evolutionärem Sinne im Komplexitätsaufbau bestärken. In Form des so genanntem „reinforcement learning“ (bestärkendes Lernen) gelingt den DeepMind-Algorithmen ein bislang beispielloses zielgerichtetes und autonom operierendes Mustererkennen. Einzig und allein anhand der Analyse der Pixel-Struktur auf einem Bildschirm und Formen von selbst-beobachtenden Feedback-Loops gelingt es der Software von DeepMind verschiedene Computerspiele des Atari 2600 Systems aus den 1980er Jahren nicht nur von Grund auf zu erlernen, sondern nach nur wenigen Stunden des Trainings zu einer übermenschlichen Spielreife zu bringen (vgl. Mnih et al. 2015). Aber auch die 3D-Welten der Computerspiele aus den 1990er Jahren sind längst nicht mehr vor den selbst-verstärkten Lernfähigkeiten jener digitalen Wesen gefeit (vgl. Lample und Chaplot 2016; Beattie et al. 2016).

Noch bleibt „DeepLearning“ zwar auf hochspezialisierte und mehr oder weniger isolierte Musterkennungen begrenzt. Interessant wird es jedoch, wenn die ersten Versuche unternommen werden, die offen verfügbaren Datenbanken und Repositories miteinander zu verknüpfen.20 Es bleibt somit abzuwarten, was passiert, wenn es derartig zusammengefügten Algorithmen gelingt, der Anweisung Gregory Batesons zu folgen und danach Ausschau zu halten, welches „Muster verbindet“ (1987: 15). Zudem wird kontinuierlich daran gearbeitet, die bestehenden Algorithmen von DeepMind um weitere Funktionen zu erweitern.21 Als nächster Schritt sind Gedächtnisfunktionen geplant, die es zulassen würden, auf Basis des Erprobten längerfristige Ziele im Auge zu behalten (Graves et al. 2016). Beispielsweise gelang es den DeepMind-Algorithmen bislang noch nicht sonderlich gut, das Spiel „PacMan“ zu spielen, da hier nicht nur ein Labyrinth erkannt, sondern verschiedene Ziele präsent gehalten werden müssen. Aber Google DeepMind arbeitet auch an diesem Problem. So genannte „Neural Turing Machines“ (Graves et al. 2014; vgl. auch Webster 2012) würden die Möglichkeit bieten, sich selbst zu programmieren, indem auf „externen“ Speicher zugegriffen werden kann. Sich selbst programmierende Algorithmen sind in weitaus stärkerem Maße in der Lage, sich in evolutionärer Weise an sich wandelnde Umweltänderungen anzupassen.

Alle diese Bestrebungen scheinen die von Baecker zusammengetragenen Mindestanforderungen für Einheiten, die sich auf nicht-menschliche Weise an Kommunikation (Gesellschaft) beteiligen könnten, zwingend erfüllen zu wollen. Doch was bedeutet dies nun für die hier diskutierte Frage, ob und wie Kommunikation unter Beteiligung anderer Entitäten als Menschen möglich wäre? Um im oben aufgeführten Beispiel zu bleiben: die von DeepMind entwickelten Algorithmen können zwar durchaus als Möglichkeit für „Adressabilität“ (Fuchs 2005, vgl. hierzu auch die Überlegungen zu „accountability“ bei Diakopoulos 2015) innerhalb von Kommunikation erscheinen, es ist jedoch eine davon unabhängige Frage, ob zum Beispiel „AlphaGo“ und nicht der Gründer und Chefentwickler Demis Hassabis als entscheidendes „alter ego“ verstanden wird:

„Das entscheidende Schema ist das von Inklusion und Exklusion. In allen kommunikativen Prozessen wird, das ergibt sich aus den vorangegangenen Überlegungen, darüber disponiert, wer oder was als Adresse in Frage kommt und wer oder was nicht. Die Kommunikation kommt nicht umhin, darüber zu befinden, ob etwas in ihrer Umgebung als selbstreferenzfähig gelten darf (also als ein Subjekt, das ein Verhalten vorführt, an dem Mitteilung und Information unterschieden werden können) oder als ein Objekt, das, weil es keinen Selbstbezug unterhält, allenfalls thematisierbar ist“ (Fuchs 2005: 44).

Die Klassifikation von Algorithmen als Teilnehmer an Kommunikation versteht sich nicht nur als Reformulierung der bereits von Fuchs aufgestellten Möglichkeit von „einseitig bewusster Kommunikation“ (Fuchs 1991: 20), sie stärkt auch die Position, dass Psyche/Bewusstsein für Kommunikation nur am Rande interessiert. Es ist jedoch daran festzuhalten, dass Kommunikation sich weiterhin darauf einstellen muss, dass in ihrer Umwelt nicht-menschliche Einheiten wie etwa Computersysteme vorkommen, die als intransparente „black boxes“ zumindest fähig sind Selbstreferenz plausibel zu suggerieren und offensichtlich sprachliche Zeichen zu gebrauchen wissen, um damit in gleicher Weise zur Fortführung sozialer Autopoiesis beitragen zu können, wie auch die Irritationen psychischer Systeme. Die normative Frage, ob wir „überhaupt bereit“ (Esposito 2001: 244) wären, mit Maschinen zu kommunizieren, wird spätestens dann obsolet, wenn dies empirisch nicht mehr negierbar ist (vgl. Burdell 2016).

Um den Titel dieses Beitrags erneut aufzugreifen: es lässt sich bereits seit einiger Zeit ein stetig lauter werdendes „Hello World“ von Seiten maschineller Wesen vernehmen. Einzig jetzt bemerken wir ihr Wirken und fragen uns, was es bedeuten könnte, dass sich Gesellschaft nicht mehr exklusiv in Koproduktion zum Menschen zu reproduzieren scheint. Dabei ist es nicht ohne gewisse Ironie, dass die „Hello World“-Programme zunächst als Lernbeispiele für menschliche Programmierer/innen dienten, während aktuelle Algorithmen zunehmend in der Lage sind, sich selbst im Kontext evolutionärer Mechanismen zu programmieren – und damit der Turingschen Vision einer maschinellen Intelligenz auf Augenhöhe wieder einen Schritt näher gekommen sind (vgl. Turing 1950). Hier wird nicht mehr aus der Distanz „Hallo“ zu einer Welt gesagt, sondern die Welt, wie wir sie kennen, wird längst in Koproduktion mit Algorithmen hergestellt.

Es lässt sich also mit Recht behaupten, „dass kein Phänomen die Soziologie und Gesellschaftstheorie Luhmanns auf eine härtere Probe stellt als der Computer“ (Baecker 2004: 132). Der Computer und die an ihm beobachtbaren Phänomene algorithmischer Intelligenzen zeigen zwar ein grundlegendes Problem der Theorieanlage Luhmanns auf, welches in der Frage mündet, ob Kommunikation (also der Grundbegriff der Theorie) neu gedacht werden müsse, wenn man in ihn die Möglichkeit zur strukturellen Kopplung von Computern und Kommunikation einbauen möchte. Damit tritt gegenwärtig in gewissem Sinne der von Dirk Baecker antizipierte „Ernstfall“ für Luhmanns Systemtheorie ein, nämlich dass Kommunikation zu beobachten ist, „die sich durch seine Kommunikationstheorie nicht mehr beschreiben lässt“ (Baecker 2004: 132f.).22

Wie aber sonst als über den Zugang via Kommunikation könnte sich eine Soziologie des Algorithmus derartigen Phänomenen annähern? Handlungen, Kommunikationen und die hierdurch dynamisch stabil gehaltenen Strukturen gehören zum Tagesgeschäft der Soziologie. Dieses Tagesgeschäft jedoch – samt der damit verbundenen Theoriebildung – wird durch die Outputs von Algorithmen ordentlich aufgewirbelt. Vor allem die soziologische Systemtheorie musste hier ihren eigenen blinden Fleck (bias zu menschlichem Bewusstsein) erkennen. Gleichwohl tut sich nun die Chance auf, vermehrt darauf zu achten, welche Einheiten sich an Kommunikation beteiligen:

„Die entsprechende Forschung läuft unter dem Begriff der strukturellen Kopplung (…). Dies gilt gegenwärtig nur für Menschen, galt aber vor der modernen Gesellschaft auch für Geister, Götter und Tiere und könnte nach der modernen Gesellschaft für ‚Hybride‘ und für Computer gelten“ (Baecker 2016: 144).

Was bedeuten diese Überlegungen nun für die eingangs eröffnete Frage nach einer Soziologie des Algorithmus? Auch wenn ein solches Projekt verspätet erscheinen mag, ist es noch nicht zu spät. Die Soziologie scheint sich des Desiderats zumindest bewusst.23 Auch aus diesem Grund zeigt sich der enorme Bedarf an Analysen und empirischen Studien zur Beteiligung von Algorithmen an Gesellschaft. Für die Irritation der soziologischen Systemtheorie hingegen, die ja hier in gewisser Weise stellvertretend für die Irritation der Gesellschaft diskutiert werden sollte, zeigt sich, dass das Phänomen „Algorithmus“ die fast schon vertraut gewordenen Grenzen systemtheoretischen Denkens überschreitet und noch weitaus stärker dazu anregt, sich vom anthropozentrischen Erbe einer „alteuropäischen“ Moderne zu befreien.

Die gegenwärtige reflexive Irritation, die sich in Verbindung mit der Entwicklung und Verbreitung komplexer Algorithmen zeigt, erreicht somit längst auch die abstrakten Ebenen soziologischer Theoriebildung. Algorithmen scheinen insbesondere durch ihre konkreten Leistungen (Differenzieren, Lernen und Entscheiden) ehemals exklusiv menschlich besetzte Räume gesellschaftlicher Reproduktion herauszufordern. Aber wie sonst, als qua Kommunikation sollte auf derartige maschinelle Leistungen (Intelligenzen) reagiert werden? Die post-humane Ära wird also spätestens dann anerkannt werden müssen, wenn die erste Maschine „Nein“ sagt. Während das humanistisch-romantische Reservat des Menschen somit weiter schwindet, gilt es nun die bestehenden Kommunikations- und Gesellschaftstheorien weiter zu entwickeln, um die Inklusion nicht-menschlicher Einheiten zu organisieren.

Literatur

Bächle, Thomas Christian, 2015, Mythos Algorithmus. Die Fabrikation des computerisierbaren Menschen. Wiesbaden. Springer VS.

Baecker, Dirk, 2004, Niklas Luhmann in der Gesellschaft der Computer. S. 11-32, in: ders.: Wozu Soziologie? Berlin. Kulturverlag Kadmos.

Baecker, Dirk, 2007a, Communication With Computers, or How Next Society Calls for an Understanding of Temporal Form, Soziale Systeme 13 (1+2): 409-420.

Baecker, Dirk, 2007b, Studien zur nächsten Gesellschaft. Frankfurt/Main. Suhrkamp.

Baecker, Dirk, 2011, Who Qualifies for Communication? A Systems Perspective on Human and Other Possibly Intelligent Beings Taking Part in the Next Society, Technikfolgenabschätzung – Theorie und Praxis 20 (1): 17-26.

Baecker, Dirk, 2013, Beobachter unter sich. Eine Kulturtheorie. Berlin. Suhrkamp.

Baecker, Dirk, 2016, Systemtheorie als Kommunikationstheorie. S. 134-145, in: ders.: Wozu Theorie? Berlin. Suhrkamp.

Bateson, Gregory, 1985, Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Frankfurt/Main. Suhrkamp.

Bateson, Gregory, 1987, Geist und Natur. Eine notwendige Einheit. Frankfurt/Main. Suhrkamp.

Beattie, Charles, Joel Z. Leibo, Denis Teplyashin, Tom Ward, Marcus Wainwright, Heinrich Küttler, Andrew Lefrancq, Simon Green, Víctor Valdés, Amir Sadik, Julian Schrittwieser, Keith Anderson, Sarah York, Max Cant, Adam Cain, Adrian Bolton, Stephen Gaffney, Helen King, Demis Hassabis, Shane Legg und Stig Petersen, 2016, DeepMind Lab, arXiv:1612.03801v2. Online-Publikation: >https://arxiv.org/abs/1612.03801v2>. (Stand: 28.4.2017).

Burdell, Jenna, 2016, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, in: Big Data & Society, 3 (1). Online-Publikation: https://doi.org/10.1177/2053951715622512. (Stand: 27.4.2017).

Danaher, John, 2016, The Threat of Algocracy: Reality, Resistance and Accommodation, in: Philosophy & Technology 29 (3): 245–268. DOI:10.1007/s13347-015-0211-1.

Diakopoulos, Nicholas, 2015, Algorithmic Accountability, Digital Journalism 3 (3): 398-415. DOI:10.1080/21670811.2014.976411.

Esposito, Elena, 1993, Der Computer als Medium und Maschine, Zeitschrift für Soziologie 22 (5): 338-354.

Esposito, Elena, 2000, Rhetorik, das Netz und die Entleerung der Subjektivität. S.171-190, in: Mike Sandbothe und Winfried Marotzki (Hg.): Subjektivität und Öffentlichkeit. Kulturwissenschaftliche Grundlagenprobleme virtueller Welten. Köln. Herbert von Halem Verlag.

Esposito, Elena, 2001, Strukturelle Kopplung mit unsichtbaren Maschinen, Soziale Systeme 7 (2): 241-252.

Esposito, Elena, 2007, Die Fiktion der wahrscheinlichen Realität. Frankfurt/Main. Suhrkamp.

Foerster, Jakob, Yannis Assael, Nando de Freitas und Shimon Whiteson, 2016, Learning to Communicate with Deep Multi-Agent Reinforcement Learning. arXiv:1605.06676 [cs.AI]. Online-Publikation: https://arxiv.org/abs/1605.06676. (Stand: 27.4.2017).

Fuchs, Peter, 1991, Kommunikation mit Computern? Zur Korrektur einer Fragestellung, Sociologia Internationalis 29: 1-30.

Fuchs, Peter, 2005, Adressabilität als Grundbegriff der soziologischen Systemtheorie. S. 37-61, in: Marie-Christine Fuchs (Hg.): Konturen der Moderne. Systemtheoretische Essays II. Bielefeld. transcript.

Graves, Alex, Greg Wayne und Ivo Danihelka, 2014, Neural Turing Machines. arXiv:1410.5401v2 [cs.NE]. Online-Publikation: https://arxiv.org/abs/1410.5401v2. (Stand: 27.4.2017).

Graves, Alex, Greg Wayne, Malcom Reynolds, Tim Harley, Ivo Danihelka, Agnieszka Grabska-Barwinska, Sergio Colmenarejo, Edward Grefenstette, Tiago Ramalho, John Agapiou, Adrià Badia, Karl Hermann, Yori Zwols, Georg Ostrovski, Adam Cain und Helen King, 2016, Hybrid computing using a neural network with dynamic external memory, Nature 538:471-476. DOI:10.1038/nature20101.

Günther, Gotthard, 1963, Das Bewußtsein der Maschinen. Eine Metaphysik der Kybernetik. Baden Baden. Agis.

Harth, Jonathan, 2014, Computergesteuerte Spielpartner. Formen der Medienpraxis zwischen Trivialität und Personalität. Wiesbaden. VS Verlag.

Jansen, Till, 2016, Who Is Talking? Some Remarks On Nonhuman Agency in Communication, Communication Theory 26 (3): 255-272. DOI:10.1111/comt.12095.

Jentzsch, Christoph, 2016, Decentralized Autonomous Organization to Automate Governance. Online-Publikation: https://download.slock.it/public/DAO/WhitePaper.pdf. (Stand: 23.06.2016).

Kernighan, Brian und DennisRitchie, 1978, The C Programming Language. Englewood. Prentice Hall.

Lample, Guillaume und Devendra Singh Chaplot, 2016, Playing FPS Games with Deep Reinforcement Learning, arXiv:1609.05521v1 [cs.AI]. Online-Publikation: https://arxiv.org/abs/1609.05521v1. (Stand: 27.4.2017).

Latour, Bruno, 2014, Existenzweisen. Eine Anthropologie der Modernen. Berlin. Suhrkamp.

Lindemann, Gesa, 2009, Das Soziale von seinen Grenzen her denken. Weilerswist. Velbrück Wissenschaft.

Lindemann, Gesa, 2013, Subjektivierung in Relationen. Ein Versuch über die relationistische Explikation von Sinn. S.101-123, in: Thomas Alkemeyer, Gunilla Budde und Dagmar Freist (Hg.): Selbst-Bildungen. Soziale und kulturelle Praktiken der Subjektivierung. Bielefeld: transcript.

Luhmann, Niklas, 1985, Die Autopoiesis des Bewußtseins, Soziale Welt 3 (4): 402-446.

Luhmann, Niklas, 1992, Kommunikation mit Zettelkästen. Ein Erfahrungsbericht. S. 53-61, in: André Kieserling (Hg.): Universität als Milieu. Bielefeld. Haux.

Luhmann, Niklas, 1995, Die Form „Person“. S.142-154, in: ders. (Hg.): Soziologische Aufklärung, Bd. 6. Opladen. Westdeutscher Verlag.

Luhmann, Niklas, 1997, Die Gesellschaft der Gesellschaft. 2 Bände. Frankfurt/Main. Suhrkamp.

Napoli, Philip, 2014, Automated Media: An Institutional Theory Perspective on Algorithmic Media Produktion and Consumption, Communication Theory 24 (3): 340-360.

Neyland, Daniel, 2016, On Organizing Algorithms, Theory, Culture & Society 32 (1): 119–132. DOI:10.1177/0263276414530477.

Rammert, Werner, 2007, Computer und Gesellschaft. Vom Kommandieren anonymer Rechenknechte zur Interaktivität mit persönlichen Agenten. S.179-184, in: ders. (Hg.): Technik – Handeln – Wissen. Zu einer pragmatistischen Technik- und Sozialtheorie. Wiesbaden. VS Verlag.

Rammert, Werner und Ingo Schulz-Schaeffer (Hg.), 2002, Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt/New York. Campus Verlag.

Rossiter, Ned, 2016, Software, Infrastructure, Labor. A Media Theory of Logistical Nightmares. New York. Routledge.

Seyfert, Robert und Jonathan Roberge, 2016, Algorithmic Cultures: Essays on Meaning, Performance and New Technologies. New York. Routledge.

Silver, David, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre, Georg van den Driessche, Julian Schrittwieser, Ioannis Antonoglou und Veda Pannerrshelvam, 2016, Mastering the game of Go with deep neural networks and tree search, in: Nature 529 (7587): 484–489.

Totaro, Paolo und Domenico Ninno, 2014, The Concept of Algorithm as an Interpretative Key of Modern Rationality, in: Theory, Culture & Society 31 (4): 29-49.

Turing, Alan, 1948, Intelligent Machinery. S. 107-128, in: Ince, Darrel (Hg.): Collected works of AM Turing. Mechanical Intelligence. Amsterdam, New York. Elsevier.

Turing, Alan, 1950, Computing machinery and intelligence, Mind 59: 433-460.

Mnih, Volodymyr, Koray Kavukcuoglu, David Silver, Andrei Rusu, Joel Veness, Marc Bellemare, Alex Graves, Martin Riedmiller, Andreas Fidjeland, Georg Ostrovski, Stig Petersen, Charles Beattie, Amir Sadik, Ioannis Antonoglous, Helen King, Dharshan Kumaran, Daan Wierstra, Shane Legg und Demis Hassabis, 2015, Human-level control through deep reinforcement learning, Nature 518: 529–533. DOI:10.1038/nature14236.

Wachsmuth, Ipke, 2010, „Ich, Max“ – Kommunikation mit Künstlicher Intelligenz, S. 135-158, in: Tilmann Sutter und Alexander Mehler (Hg.): Medienwandel als Wandel von Interaktionsformen. Wiesbaden. VS Verlag.

Wansleben, Leon, 2012, Heterarchien, Codes und Kalküle. Beitrag zu einer Soziologie des algo trading, Soziale Systeme 18 (1+2): 225-259.

Webster, Craig, 2012, Alan Turing’s unorganized machines and artificial neural networks. His remarkable early work and future possibilities, Evolutionary Intelligence 5 (1), S. 35-43.

Weyer, Johannes und Robin Fink, 2011, Die Interaktion von Mensch und autonomer Technik in soziologischer Perspektive, Technikfolgenabschätzung – Theorie und Praxis 20 (1): 39-45.

Wittenbecher, Iris, 1999, Verstehen ohne zu verstehen. Soziologische Systemtheorie und Hermeneutik in vergleichender Differenz. Wiesbaden. DUV.

Ziewitz, Malte, 2016, Governing Algorithms: Myth, Mess, and Methods, Science, Technology, & Human Values 41 (1): 3-16.

Datenverfügbarkeit

Alle relevanten Daten befinden sich innerhalb der Veröffentlichung.

Interessenskonfliktstatement

Die Autor:innen erklären, dass ihre Forschung ohne kommerzielle oder finanzielle Beziehungen durchgeführt wurde, die als potentielle Interessenskonflikte ausgelegt werden können.


  1. Die Aufgabe des Programms ist es, auf dem Bildschirm den Text „Hello World“ auszugeben. Das erste Hello-World-Programm erschien in Kernighan/Ritchie (1978), seitdem findet es sich in so gut wie jedem Lehrbuch. Ein simples Hello-World-Programm in der Programmiersprache B sieht etwa folgendermaßen aus:

    main() {
      printf(„Hello World\!“);
    }
    ↩︎
  2. Gesellschaft wird hier in den Begrifflichkeiten der soziologischen Systemtheorie Luhmanns als umfassender Zusammenhang aller Kommunikationen verstanden (Luhmann 1984; 1997).↩︎

  3. Etymologisch verweist der Begriff „Algorithmus“ auf den persischen Gelehrten Muhammad ibn Musa al-Khwarizmi, der auch als Algoritmi bezeichnet wurde und der westlichen Welt das Dezimalsystem nahelegte.↩︎

  4. Als Einstieg und thematisch sortierten Überblick empfiehlt sich ein Blick in die von Gillespie und Seaver zusammengetragene Literaturliste zu Critical Algorithm Studies: http://socialmediacollective.org/reading-lists/critical-algorithm-studies/ (zuletzt aufgerufen am 10. Februar 2017).↩︎

  5. Der erste für Computersysteme geschriebene Algorithmus stammt von Ada Lovelace und diente der Berechnung von Bernoullizahlen.↩︎

  6. Siehe hierzu illustrativ die im September 2016 beschlossene „Partnership on AI“, die von den Konzernen Amazon, Deep Mind, Google, Facebook, IBM und Microsoft gegründet wurde. Die genannten Unternehmen machen hier kund, weshalb ihr Engagement in die Weiterentwicklung algorithmischer Intelligenz notwendig sei: „We believe that artificial intelligence technologies hold great promise for raising the quality of people’s lives and can be leveraged to help humanity address important global challenges such as climate change, food, inequality, health, and education” (http://www.partnershiponai.org/tenets, zuletzt aufgerufen am 27. Januar 2017).↩︎

  7. Wie insbesondere Esposito (2007) immer wieder deutlich macht, ist die Projektion von Zukunft immer nur im Kontext ihrer Entstehung instruktiv. Entsprechend müsse man somit zwischen vergangenen, gegenwärtigen und zukünftigen Zukünften unterscheiden.↩︎

  8. Eine Diskussion, die auch in Auseinandersetzungen mit Journalismus als Phänomen zu verfolgen ist. Algorithmen sind hier im Besonderen an der Produktion von Öffentlichkeit beteiligt (vgl. etwa Napoli 2014).↩︎

  9. Vgl. hierzu exemplarisch Rammert/Schulz-Schaeffer 2002; Rammert 2007; Weyer/Fink 2011 oder auch Latour 2014.↩︎

  10. Aus Perspektive der Critical Algorithm Studies werden derartige Phänomene von Machtakkumulation und –distribution unter der Metapher „Algocracy“ diskutiert. Siehe für einen Überblick Danaher 2016.↩︎

  11. Das diese Fähigkeit zur informationsproduzierenden Überraschung nicht einzig und allein psychischen oder sozialen Systemen zugestanden werden kann, muss auch Luhmann dazu bewogen haben, seinen Erfahrungsbericht über eine „Kommunikation mit Zettelkästen“ (Luhmann 1992) zu verfassen.↩︎

  12. Denn immer dort, wo Sprache im Spiel ist, lässt sich die „Intention“ auf Kommunikation nur schwerlich übersehen. Sprache irritiert sowohl Kommunikation als auch Gedanke: „Als Struktur drängt sie die Unterscheidung von Mitteilung und Information förmlich auf“ (Fuchs 1991: 16).↩︎

  13. Um potentiellen Missverständnissen bereits an dieser Stelle aus dem Weg zu gehen, hier der kurze Hinweis, dass weder Fuchs noch wir unter Bewusstsein die Fassung verstehen, die traditionell als „phänomenales Bewusstsein“ bezeichnet wird. Es geht nicht um die Frage, ob Computer Qualia auszubilden in der Lage sind. Vielmehr meint der Begriff des Bewusstseins die (operative) Fähigkeit, Sinn zu verarbeiten und zwar in der Form, dass aus einem Horizont von Möglichem aktuell etwas als Etwas selektiert wird (vgl. Luhmann 1985).↩︎

  14. Eigentümlich deshalb, da aus dieser Perspektive kritisiert werden kann, dass vermutlich auch die Operationen des Bewusstseins ohne Kopplung an Kommunikation oder andere Bewusstsein (aber wie sollte das möglich sein?) sich nicht ereignen könnten.↩︎

  15. Spätestens hier wird deutlich, dass Esposito im Vergleich zu Fuchs theoriesprachlich eher unscharf bleibt und „strukturelle Kopplung“ eher als eine Koproduktion im Sinne einer Medium/Form Unterscheidung begreift.↩︎

  16. Es scheint Esposito hier also (auch) um die normative Anerkennung nicht-menschlicher Akteure zu gehen. Siehe zu diesem Programm vor allem Lindemann 2009; 2012.↩︎

  17. Auch hier wieder: nicht als phänomenales Bewusstsein zu verstehen, sondern als operativ geschlossene Einheit, die zur Sinn-ausflaggenden Selektion vor dem Hintergrund kontingenter Möglichkeiten fähig ist.↩︎

  18. Das dann häufig und gerne darüber gestritten werden kann, ob dies nun in einer bestimmten Situation der Fall war oder nicht, kann dann aber gerade als empirisches Indiz hierfür gelten.↩︎

  19. Aber wer kann dies sagen? Vgl. Günther 1963.↩︎

  20. Einige Teile des Quellcodes sowie diverse Iterationen von DeepMinds Algorithmen sind frei verfügbar.↩︎

  21. Siehe hierzu auch den Ansatz des Reinforced Inter-Agent Learning (RIAL), das vorschlägt, den Austausch zwischen verschiedenen algorithmischen Agentensystemen für das evolutionäre Lernen der beteiligten Agenten zu nutzen (vgl. hierzu Foerster et al. 2016).↩︎

  22. Insbesondere der Blick auf Algorithmen macht hier deutlich, dass die Beteiligung von Computern an Kommunikation als spezifische Form von operativer Reflexivität zu konzipieren ist. Eine sozialtheoretische Ausarbeitung, die Beobachtung und Reflexion als Grundbegriffe nimmt, so die Vermutung, ließe die anthropozentrischen Fallstricke hinter sich, die in den bisherigen Überlegungen zu vermeintlichen Homologien von Computern und Bewusstsein einhergingen (vgl. zu diesem Programm auch Jansen 2016; Baecker 2013).↩︎

  23. So auch auf der Jahrestagung der Deutschen Gesellschaft für Soziologie (DGS 2016) zu beobachten, wo jedoch mehr „als eine Forderung nach einer Soziologie des Algorithmus angesichts des vielbeschworenen Wandels nicht laut“ wurde (Vgl. http://www.soziopolis.de/vernetzen/veranstaltungsberichte/artikel/bamberger-splitter-iv-donnerstag, zuletzt aufgerufen am 12. Februar 2017).↩︎

Downloads

Zitationen
7
4
7 von Crossref erfasste Zitate
  
  1. Maschinen der Kommunikation
    Jonathan Harth (2020)
    Book content
    DOI: 10.1007/978-3-658-27852-6_7

  2. Mensch-Algorithmus-Hybride als (Quasi-)Organisationen? Zu Verantwortung und Verantwortlichkeit von digitalen Kollektivakteuren
    Anna Beckers et al. (2022)
    Soziale Systeme
    DOI: 10.1515/sosys-2021-0004

  3. Artificial intelligence in the practice of work
    Michael Heinlein et al. (2023)
    Work Organisation, Labour & Globalisation
    DOI: 10.13169/workorgalaboglob.17.1.0034

  4. The Relational Governance of Artificial Intelligence
    Sabine Wiesmüller (2023)
    Work Organisation, Labour & Globalisation
    DOI: 10.1007/978-3-031-25023-1_5

  5. The Relational Governance of Artificial Intelligence
    Sabine Wiesmüller (2023)
    Work Organisation, Labour & Globalisation
    DOI: 10.1007/978-3-031-25023-1_2

  6. Der Transparenz-Imperativ
    Martina Franzen (2019)
    Work Organisation, Labour & Globalisation
    DOI: 10.1007/978-3-658-22294-9_11

  7. Künstliche Intelligenz, Mensch und Gesellschaft
    Michael Heinlein (2024)
    Work Organisation, Labour & Globalisation
    DOI: 10.1007/978-3-658-43521-9_16

4 von Semantic Scholar erfasste Zitate
  
  1. Mensch-Algorithmus-Hybride als (Quasi-)Organisationen? Zu Verantwortung und Verantwortlichkeit von digitalen Kollektivakteuren
    Anna Beckers et al. (2021)
    Soziale Systeme
    DOI: 10.1515/sosys-2021-0004

  2. Funktionen und Folgen von Transparenz: Zum Fall Open Science
    Martina Franzen (2019)
    Der Transparenz-Imperativ
    DOI: 10.1007/978-3-658-22294-9_11

  3. Artificial intelligence in the practice of work
    M. Heinlein et al. (2023)
    Work Organisation, Labour & Globalisation
    DOI: 10.13169/workorgalaboglob.17.1.0034

  4. Mit Computern spielen
    Jonathan Harth (2020)
    DOI: 10.1007/978-3-658-27852-6_7

Metriken
Views/Downloads
  • Abstract
    700
  • HTML
    46
  • PDF
    714
Weitere Informationen

Erhalten

2016-11-01

Akzeptiert

2017-02-01

Veröffentlicht

2017-05-01