„Online-Audiences“ – Zur Publikumsvermessung im Internet

  • Florian Muhle Universität Bielefeld
  • Josef Wehner Universität Bielefeld

DOI:

https://doi.org/10.15460/kommges.2017.18.2.585

Schlagworte:

Internet, Massenmedien, Vertrieb, Rezeption, Online-Medien, Benutzer, Nutzung, Datengewinnung, Journalismus, Programmangebot, Angebotsstruktur

Redaktion und Begutachtung

  • Nils Zurawski Universität Hamburg
  • Katharina Kinder-Kurlanda Gesis, Köln

Abstract

Das Internet wird zunehmend als Distributions- und Rezeptionskanal für Inhalte der Massenmedien wichtig. Vor diesem Hintergrund beschäftigt sich der Beitrag mit der von publizistischen Organisationen betriebenen Praxis der Online-Publikumsmessung. Während die umfassende Verdatung von User-Aktivitäten und -Interessen in den meisten (sozialwissenschaftlichen) Kommentaren bisher vornehmlich kritisch betrachtet wird, lässt sich auf Grundlage von Expert/inneninterviews mit Vertreter/innen verschiedener Medienorganisationen ein differenzierteres Bild der Publikumsvermessung im Internet zeichnen. So führt erstens der Ausbau der Verdatungs- und Analysemöglichkeiten nicht automatisch zum ‚gläsernen User’, sondern bringt heterogene und teils widersprüchliche Datenmengen hervor, deren Bearbeitung höchst voraussetzungsvoll und offen für verschiedene Interpretationen ist. Zweitens führt die umfassende Publikumsvermessung auch nicht automatisch zu einer immer stärkeren Publikumsorientierung des Journalismus. Denn obwohl Nutzungsdaten zweifellos wichtiger für Auswahl und Gestaltung der Angebote werden, werden traditionelle journalistische Qualitätskriterien nicht einfach aufgegeben. Stattdessen stehen Publikumsorientierung und journalistisches Selbstverständnis in redaktionsinternen Abläufen und Entscheidungen in einem komplexen Wechselverhältnis und werden aufeinander abgestimmt. Drittens muss die umfassende Verdatung des Publikums und seiner Aktivitäten auch nicht zwangsläufig zur Auflösung zuvor weitgehend homogener massenmedialer Publika führen. So können die Verdatungsmöglichkeiten im Gegenteil auch dazu dienen, möglichst große Teilpublika zu erreichen oder neuartige Räume für wechselseitige Beobachtungen und somit auch für neue Formen der Öffentlichkeit zu eröffnen.

1 Einleitung

Im vorliegenden Beitrag beschäftigen wir uns mit dem Online-Engagement der Massenmedien. Fernseh- und Radiosender, vor allem aber Zeitungsverlage nutzen seit geraumer Zeit das Internet als zusätzliches Distributions- und Rezeptionsmedium (vgl. Neuberger 2009; Kramp et al. 2013). Die Anbieter verbinden damit neue Geschäftsmodelle, die mit den sich rasch verändernden Mediengewohnheiten vor allem jüngerer Mediengenerationen Schritt halten sollen (vgl. Napoli 2010). Wer mit Smartphone, Tablet, Notebook und den Möglichkeiten des Internets heranwächst, will sich offenbar Zeitpunkte, Orte und Inhalte des Medienkonsums nicht länger vorschreiben lassen, sondern selbst bestimmen. Mit eigenen Mediatheken und Online-Nachrichtenportalen, aber auch mit Angeboten auf Plattformen Dritter (z.B. YouTube oder Facebook) versuchen die Massenmedien solchen Erwartungen gerecht zu werden.

Diese Flexibilisierung in den Beziehungen zwischen Anbietern und Publikum birgt jedoch auch neue Herausforderungen. Ausgerechnet die Rezeptionsmöglichkeiten, die dazu dienen sollen, auf die Interessen und Wünsche spezieller Zielgruppen stärker einzugehen, sperren sich gegen die bislang praktizierten Verfahren der Publikumsmessung, mit denen sich die Massenmedien vorrangig über Verhalten und Interessen der Nutzerinnen und Nutzer informieren. Mit der Vervielfältigung der Distributionswege wird es immer schwieriger, die Auswahlentscheidungen der Nutzerinnen und Nutzer statistisch zu erfassen, weil entscheidende Voraussetzungen für die klassische Quoten- und Verkaufsmessung sich zu verflüchtigen beginnen. So ist diese traditionell angewiesen auf angeglichene und standardisierte Messobjekte (z.B. Nachrichten- und Unterhaltungsformate, die von allen Sendern angeboten werden, oder verkaufte Einzelexemplare von Zeitungen und Zeitschriften) sowie situative Festlegungen (Sendezeiten, die von allen Anbietern befolgt werden), damit Publikumsaktivitäten gemessen bzw. als solche überhaupt erst hervorgebracht werden können (vgl. Ang 2001; Wehner 2010). Ohne solche vorgängigen Homogenisierungen der zu messenden Objekte und ohne solche messsituativen Festlegungen wären Publikumsvermessungen gar nicht durchführbar (vgl. Engel/Niederauer 2014).

Hierfür bedarf es im Internet nun neuer Lösungen, die vor allem in neuartigen Möglichkeiten der Onlineverdatung und -analyse gesehen werden. Durch sog. Tracking-Programme können Useraktivitäten, wie beispielsweise das Anklicken eines Online-Beitrags, auf den Portalen bzw. Webseiten der Anbieter in Echtzeit erfasst und statistisch ausgewertet werden. Dies machen sich die Medienanbieter zunutze, die nicht nur den Besucherinnen und Besuchern ihrer Seiten flexible Rezeptionsmöglichkeiten bieten, sondern auch wissen wollen, wie diese genutzt werden, das heißt, wer wann wo und wie oft darauf zugreift (vgl. Boczkowski 2013). So gesehen ließe sich auch von einer Fortsetzung der Publikumsvermessung ausgehen – allerdings findet diese nun unter veränderten Bedingungen statt. Denn die neuen Vermessungsverfahren, dies stellen zahlreiche Kommentare sowohl in positiver als auch kritischer Absicht heraus, operieren ungleich vielfältiger und auch feiner als die klassische Reichweitenmessung (vgl. McGregor 2012; Coddington 2015).

Dies fängt bereits damit an, dass es sich nicht länger um zusätzliche, sondern um immer mitlaufend begleitende Verfahren handelt. Prinzipiell kann nun jede Aktivität, vom Anklicken einer Seite bis hin zu aufwendigen Kommentierungen oder Bestellvorgängen, von statistischen Programmen bereits während ihrer Durchführung erfasst und ausgewertet werden. Mediennutzung und ihre datentechnische Behandlung auf Online-Plattformen fallen jetzt zusammen. Wer an Publikums- bzw. Userdaten interessiert ist, muss nicht länger auf ein zeitversetztes Reporting entsprechender Ergebnisse warten, sondern bekommt diese in Echtzeit auf den Monitor geliefert. Auch geht es nicht länger nur um eine einzige Metrik und deren Veränderungen über die Zeit wie noch bei der Quotenmessung. Vielmehr können ganz unterschiedliche Messungen mit Hilfe verschiedener Verfahren unterschiedlicher Anbieter durchgeführt werden. So werden etwa Klicks, die Anzahl der Besucher/innen sowie die Dauer ihres Verweilens auf den Seiten gemessen, aber auch die gewählten Wege zur eigenen Seite oder Kommentare und Bewertungen auf anderen Plattformen, auf denen die Medienanbieter präsent sind, können jetzt statistisch erfasst und analysiert werden. Es eröffnen sich damit ganz unterschiedliche Möglichkeiten der Quantifizierung sowohl der Nutzung einzelner Webseiten wie auch der Nutzer/innen und ihrer Vorlieben (vgl. Anderson 2011a).

Viele Beobachter/innen bewerten diese Entwicklung sehr kritisch. Dazu gehört erstens die Annahme, dass mit Hilfe der neuen internetbasierten Aufzeichnungs- und Auswertungsverfahren ein immer feinkörnigeres Bild der Nutzer/innen und ihrer Vorlieben entwickelt werden kann (vgl. Neuberger/Nuernbergk 2015). Demnach werden immer mehr Daten über einzelne Personen und ihre Mediengewohnheiten automatisiert gesammelt und zu Profilen verdichtet, um ihre Interessen und Gewohnheiten immer zuverlässiger prognostizieren zu können. Es drohe dadurch eine Entwicklung zum gläsernen User. Eine zweite, damit eng verknüpfte Annahme betrifft die Verarbeitung dieser Daten. Offenbar können in Echtzeit erhobene und ausgewertete Nutzungsdaten ohne aufwendige Bearbeitungszwischenschritte, wie sie noch unter den Bedingungen der herkömmlichen Publikumsvermessung erforderlich waren, direkt in die Prozesse der Auswahl von Themen und Aufbereitung von Beiträgen einfließen (vgl. Hohlfeld 2013: 140). Kritiker/innen sehen hier das Problem, dass damit eine bei den Massenmedien bereits seit längerem festzustellende Publikumsorientierung weiter radikalisiert wird und der Journalismus seine Autonomie und gesellschaftliche Bestimmung zugunsten einer ungebremsten Kommerzialisierung vollends verlieren könnte. Eine dritte, sich daraus ableitende Annahme besteht darin, dass infolge einer sich verstärkenden Orientierung an den Interessen und Gewohnheiten der Rezipient/innen die Medienangebote eine immer stärkere Personalisierung erfahren. Befürchtet wird, dass es auf diese Weise zu einer weiteren Aufteilung in immer kleinere Teilpublika kommen wird (Couldry/Thurow 2014: 1712), wodurch die Nutzer/innen von allem ferngehalten werden, was sie irritieren, herausfordern und zum Überdenken eigener Standpunkte führen könnte (vgl. Pariser 2012). Soweit sich unter solchen Bedingungen überhaupt noch kollektive Erfahrungs- und Kommunikationszusammenhänge entwickeln können, so die Befürchtung, werden diese keine ‚deliberative audiences’ im Sinne demokratischer Öffentlichkeit sein können, sondern ‚algorithmic audiences’, die nur noch durch automatisch gefilterte und personalisierte bzw. zielgruppenorientierte Nachrichtenflüsse zusammengehalten werden, also nicht länger über dieselben Themen und Fakten verfügen (vgl. Anderson 2011b).

Wir wollen in unserem Beitrag an diese Debatte anknüpfen, den hier vorgestellten Annahmen bzw. Befürchtungen jedoch nicht vorbehaltlos folgen. Denn sie blenden aus unserer Sicht wichtige Aspekte der Erzeugung und des Umgangs mit (Nutzer/innen-)Daten aus, übersehen neuartige Herausforderungen wie auch Chancen für Anbieter sowie Nutzer/innen und wirken deshalb auch recht eindimensional und (technik-)deterministisch. Diese Einschätzung wollen wir an dieser Stelle mit Hilfe empirischer Beobachtungen zum Einsatz von Verfahren der Publikumsverdatung in einigen Medienorganisationen näher begründen.1 Grundlage hierfür ist ein von den Autoren betreutes Forschungsprojekt, in dem Expert/inneninterviews mit Vertreter/innen verschiedener Medienorganisationen zur Onlineverdatung der Nutzer/innen durchgeführt wurden.

In einem ersten Schritt werden wir unseren Forschungsgegenstand sowie die verwendeten Erhebungs- und Auswertungsmethoden genauer darlegen (2), um anschließend einige Ergebnisse der durchgeführten Forschung vorzustellen (3). Ausgehend von der Beobachtung, dass im Feld (aktuell) eine Vielfalt sowohl an Messsystemen als auch an genutzten Metriken existiert, werden wir zunächst zeigen, dass der Ausbau der automatisierten Verdatungs- und Analysemöglichkeiten nicht automatisch und kontinuierlich zu mehr Wissen über die Nutzer/innen bzw. zu einer immer präziseren Auflösung des Nutzungsverhaltens führt, sondern zunächst einmal stetig wachsende, heterogene und auch widersprüchliche Datenmengen hervorbringt, die sich für die Medienanbieter mit ungewöhnlichen Deutungs-, Übersetzungs- und Verhandlungsbedarfen verbinden. Deren Bearbeitung ist höchst voraussetzungsvoll, weil dafür Kriterien, Regeln, Zuständigkeiten und Kompetenzen definiert und verbindlich gemacht werden müssen, ebenso ein Umgang mit unterschiedlichen, z.T. konfligierenden Sichtweisen auf die Daten gefunden werden muss (3.1). In einem damit verknüpften zweiten Schritt wird es darum gehen, dass von einem gewonnenen, datenbasierten Wissen um die Vorlieben und Gewohnheiten der Nutzer/innen nicht vorschnell auf eine immer engere Anbindung des Journalismus an das Publikum und einen stetigen Verlust seiner Autonomie geschlossen werden sollte. Zwar wird deutlich, dass Nutzungsdaten und deren Auswertungen und Übersetzungen zunehmend wichtiger für Auswahl und Gestaltung der Angebote werden. Aber die Art und Weise, wie dieses Wissen in die Anpassungen der Angebotsstrukturen überführt wird, ist Gegenstand von redaktionsinternen Aushandlungsprozessen und Entscheidungen (3.2) In einem dritten Schritt wollen wir schließlich zeigen, dass die zunehmende Verdatung und ‚Algorithmisierung’ der Publikumsbeziehungen nicht zwangsläufig zur Auflösung zuvor weitgehend homogener massenmedialer Publika führen muss. So können die Verdatungsmöglichkeiten im Gegenteil auch dazu dienen, möglichst große Teilpublika zu erreichen bzw. neuartige Räume für wechselseitige Beobachtungen und somit auch für neue Formen der Öffentlichkeit zu eröffnen (3.3). Abschließend werden wir die Ergebnisse zusammenfassen und einordnen sowie einen Ausblick auf mögliche Vertiefungen der hier vorgestellten Forschungsthematik geben (4).

2 Gegenstand und Methoden

In unserer Untersuchung, die im Rahmen einer einjährigen Lehrforschung in Zusammenarbeit mit Studierenden an der Universität Bielefeld durchgeführt wurde, ging es darum, herauszufinden, (1) welche Relevanz Organisationen der Massenmedien in den Bereichen Radio, Fernsehen und Print den neuen Möglichkeiten der Distribution ihrer Angebote im Internet zumessen, (2) ob und inwiefern sie innerhalb der eigenen Online-Angebote etablierte Formen der Publikumsmessung durch neue internetbasierte Verfahren der Echtzeit-Messung ergänzen, (3) wie sie mit den Ergebnissen solcher Verfahren umgehen und (4) welche Konsequenzen damit für die massenmedialen Organisationen, ihr Angebot und das Verhältnis zwischen Journalismus und seinem Publikum verbunden sind.

Im Unterschied zu existierenden medien- und kommunikationswissenschaftlichen Arbeiten, die sich mit dem (sich wandelnden) Verhältnis von Journalismus und Publikum befassen (vgl. hierzu etwa Hohlfeld 2013; Heise et al. 2014; Neuberger/Nuernbergk 2015), wurde der Fokus nicht nur auf die Beziehung zwischen Journalisten/innen und Publikum bzw. Nutzer/innen gelegt. Darüber hinaus war auch von Interesse, wie innerhalb der massenmedialen Organisationen, und das heißt im Rahmen der internen Kommunikationswege zwischen Redaktionen und anderen Abteilungen wie der Geschäftsführung oder Werbe- und hauseigenen Forschungsabteilungen mit neuen Verfahren der Publikumsmessung und deren numerischen Ergebnissen umgegangen wurde. Damit sollte die aus der Organisationsforschung stammende Einsicht produktiv gemacht werden, dass innerhalb von Organisationen verschiedene, teilweise auch konkurrierende Strategien existieren (können), die Gegenstand permanenter Aushandlung und ‚Übersetzung’ sind (vgl. Law 1994; Stark 2011: 102ff.).2 In diesem Zusammenhang war die Aufgabe herauszufinden, inwieweit numerische Darstellungen des Publikumsgeschehens solche Verhandlungen und Abstimmungen erleichtern, weil sie Exaktheit, Eindeutigkeit und Unparteilichkeit der Beschreibung von Sachverhalten versprechen.3

Wie der Blick auf die Forschungslandschaft zeigt, liegen gerade mit Bezug auf den journalistischen Umgang mit Echtzeit-Beobachtungsdaten der Angebotsnutzung im Internet bisher nur wenige empirische Untersuchungen vor. Verfügbare Studien konzentrieren sich auf Online-Redaktionen US-amerikanischer Zeitungen (vgl. Lowrey/Woo 2010; Usher 2013; Tandoc 2014). Untersuchungen zum deutschsprachigen Journalismus und seinen Organisationen argumentieren vorwiegend theoretisch oder beschränken sich weitgehend auf Umfragen unter Journalist/innen (vgl. Fürst 2017). Vor diesem Hintergrund entschieden wir uns, im Rahmen einer Pilotstudie auf explorative Interviews mit Expert/innen zu setzen, um auf diese Weise zunächst einmal die (subjektiven) Wahrnehmungen und Einschätzungen der Professionellen im Feld zur Relevanz und Nutzung neuer Verdatungsmöglichkeiten im Internet zu erheben. Zwar geben entsprechende Interviews noch nicht darüber Aufschluss, wie sich die Praxis der Publikumsvermessung sowie der Verarbeitung der Ergebnisse tatsächlich in situ vollzieht4, aber sie ermöglichen erste Erkenntnisse „über interne Strukturen und Ereignisse“ (Meuser/ Nagel 1991: 444) in den interessierenden Organisationen, indem diejenigen befragt werden, die über detailliertes Wissen hierzu verfügen. Damit dienen explorative Expert/inneninterviews zunächst einmal der Felderschließung sowie „der Schärfung des wissenschaftlichen Problembewusstseins und […] der Hypothesengenerierung“ (Bogner et al. 2014: 23). Genau hierin lag auch Ziel und Anspruch des Forschungsprojektes. Anhand der Interviews sollte fernab mehr oder weniger plausibler Spekulationen über Veränderungen des Journalismus und seines Verhältnisses zum Publikum explorativ untersucht werden, inwieweit in den untersuchten Organisationen neue Formen der Publikumsvermessung überhaupt verwendet werden und welche Veränderungen und möglicherweise auch neuen Probleme damit sowohl im Alltag der Organisation als auch in Hinblick auf die Angebotsstrukturierung verbunden sind.

Um im ersten Schritt das Feld möglichst weit aufzuschließen, wurden die drei zentralen Bereiche Print, Radio und Fernsehen in der Untersuchung berücksichtigt.5 Darüber hinaus sollten, wie schon angedeutet, nicht nur diejenigen Personen befragt werden, die die journalistischen Angebote alltäglich ‚machen’, sondern auch Vertreter/innen anderer Abteilungen der massenmedialen Organisationen, die ebenfalls in die Publikumsvermessung und organisatorische Entscheidungsprozesse involviert sind. Konkret wurden im Sommer und Herbst 2015 insgesamt zehn Interviews in fünf unterschiedlichen Organisationen geführt, deren Länge zwischen einer und zwei Stunden lag. Bei den Organisationen handelte es sich um einen Fernsehsender, einen Radioanbieter, eine überregionale Tageszeitung, eine regionale Rundfunkanstalt sowie ein (nicht in Deutschland ansässiges) Unternehmen, das Internet-Nutzungsforschung betreibt und als ‚neutraler’ Dienstleister für massenmediale Organisationen Messdaten erhebt und aufbereitet, die auch den Vergleich zwischen den Organisationen und den Nutzungszahlen ihrer Angebote erlaubt (ähnlich der Gesellschaft für Konsumforschung (GfK) in Deutschland, die für die Erhebung der Fernsehquote verantwortlich ist). Befragt wurden in diesen Organisationen (Chef-)Redakteur/innen, Programmverantwortliche, Social Media-Spezialist/innen sowie Vertreter/innen aus Werbe-, Forschungs- und Strategieabteilungen. Entsprechend des Forschungsinteresses wurden für die Interviews Leitfäden entwickelt, die schwerpunktmäßig um drei Themenbereiche kreisten. So sollten die Expert/innen erstens zu den in ihrer Organisation eingesetzten Verfahren und Tools zur Messung der Nutzung ihrer Online-Angebote, zweitens zur internen Verarbeitung der Ergebnisse und drittens zur Einschätzung der weiteren Entwicklung des Medienwandels und der Möglichkeiten der Publikumsvermessung befragt werden.

Die Interviews wurden in Anlehnung an das Basistranskript des Gesprächsanalytischen Transkriptionssystems (GAT) 2 (vgl. Selting et al. 2009) von den Studierenden transkribiert6, die an der Lehrforschung teilgenommen haben, und dann in Gruppen sowie gemeinsamen Auswertungstreffen analysiert. Die Analysen erfolgten in Anlehnung an das analytische Vorgehen der Grounded Theory (vgl. hierzu insbesondere Strauss/Corbin 1996). Ziel war es dabei allerdings nicht, eine komplette Grounded Theory zu entwickeln, sondern im Einklang mit dem Anliegen einer ersten felderschließenden und explorativen Untersuchung eher ein Kategoriensystem zu entwerfen und Beziehungen zwischen einzelnen Kategorien herzustellen. So ließen sich erste Hypothesen zur Relevanz der neuen Möglichkeiten der Publikumsvermessung im Internet sowie zum organisationinternen Umgang mit den Daten generieren und Ansatzpunkte für weitere gezielte Forschung erhalten.7 In diesem Sinne ging es bei der Analyse der Interviews also in den Worten von Anselm Strauss und Juliette Corbin (1996: 17) eher um induktives „konzeptionelles Ordnen“, denn um Theorieentwicklung.

Diesem Methodenverständnis folgend wurde in einem ersten Schritt, dem offenen Codieren (vgl. hierzu Strauss/Corbin 1996: 43ff), das Material sequentiell durchgegangen und – ähnlich wie dies schon Meuser und Nagel (1991) für die Auswertung von Expert/inneninterviews vorsehen – mit In-Vivo-Codes bzw. Überschriften versehen, die dem „Benennen der Phänomene“ (Strauss/Corbin 1996: 45) dienen und darauf zielen, das Gesagte auf den Punkt zu bringen. Im Materialdurchgang wurden die so entstandenen Überschriften nach der Regel „gleiches zu gleichem“ (Strauss/Corbin 1996: 47) gruppiert, um so vom reinen Codierprozess zum Kategorisieren überzugehen und die in den Interviews relevanten Kategorien und deren inneren Zusammenhang zu entdecken. Daran anschließend wurden im zweiten – und letzten – Schritt im Zuge axialen Codierens (vgl. Strauss/Corbin 1996: 75ff) Beziehungen zwischen den entwickelten Kategorien herausgearbeitet. Anleitend war dabei das sogenannte ‚Codier-Paradigma’, das dazu auffordert, „eine Kategorie (Phänomen) in Bezug auf die Bedingungen zu spezifizieren, die das Phänomen verursachen; den Kontext (ihren spezifischen Satz von Eigenschaften) in den das Phänomen eingebettet ist; die Handlungs- und interaktionalen Strategien, durch die es bewältigt, mit ihm umgegangen oder durch die es ausgeführt wird; und die Konsequenzen dieser Strategien“ (Strauss/Corbin 1996: 76). Auf diese Weise sollten Hinweise auf Zusammenhänge, Problemlagen und Prozesse im Kontext der Publikumsvermessung entdeckt werden, die es erlauben, erste empiriegestützte Aussagen zu treffen und weitergehende Forschungsfragen zu spezifizieren. Der folgende Abschnitt stellt nun vor dem Hintergrund der Fragestellung des Aufsatzes einige dieser Erkenntnisse vor.

3 Empirische Ergebnisse

Im Zentrum des aktuellen Wandels der Publikumsbeziehungen des Journalismus steht die Verfügbarkeit (einer Vielfalt) von Echtzeit-Beobachtungsdaten, die somit auch als Achsen-Kategorie in der Datenauswertung herausgearbeitet werden konnte. Ausgehend von dieser Verfügbarkeit wollen wir im Folgenden drei ausgewählte und mit der Achsen-Kategorie in einem systematischen Zusammenhang stehende Handlungsstrategien der massenmedialen Anbieter vorstellen, die als besonders relevant im Kontext der in diesem Aufsatz verhandelten Problemstellung einzuschätzen sind. So sind die maschinell erzeugten Nutzungsdaten, damit sie überhaupt einen Sinn ergeben bzw. einen informationellen Wert für die jeweilige Medienorganisation gewinnen können, zunächst einmal mit Hilfe interpretativer Leistungen zu entschlüsseln und auf die jeweiligen Anwendungskontexte zu übersetzen (3.1). Auf diese Weise herauszufinden, was die Interessen und Gewohnheiten des Publikums sind, bedeutet allerdings nicht, sich dem Willen des Publikums immer weiter anzunähern. Angebotsentscheidungen folgen nicht einfach dem Wissen um den Willen des Publikums, sondern bilden Resultate des Abwägens zwischen diesem Wissen, dem journalistischem Selbstverständnis und professionellen Selektionskriterien (3.2). Eben deshalb, auch dies lassen die Interviews erkennen, müssen die Nutzungsdaten nicht zwangsläufig zu einer immer stärker auf die Interessen einzelner Nutzer/innen ausgerichteten Angebotsgestaltung führen. Sie können ebenso zur Herstellung und Adressierung größerer Publika beitragen, indem sie beispielsweise auf den jeweiligen Angebotsseiten mitgeteilt und dadurch allen Besucher/innen zu einem geteilten Wissen um die wichtigsten Themen bzw. Beiträge verhelfen (3.3).

3.1 Nutzungsdaten und ihre redaktionelle Aneignung

Massenmedien, die das Internet als Distributionskanal nutzen, haben nicht nur die Möglichkeit, auf verschiedenen digitalen Wegen ihre Beiträge zu verbreiten (eigene Webseiten, soziale Netzwerke wie Facebook oder Videoplattformen wie YouTube). Sie können mit dieser Vervielfältigung der Vertriebskanäle außerdem dieselben registrierbaren Aktivitäten auf verschiedenen Seiten bzw. Plattformen (z.B. Zugriffszahlen) und auch unterschiedliche Aspekte des Nutzungsverhaltens (von der einfachen Klickzahl bis hin zum Tracking der gewählten Zugangswege auf die eigenen Seiten) durch entsprechende Verdatungen erfassen und auswerten – und das alles nahezu unter Echtzeitbedingungen, was in den uns vorliegenden Fällen auch tatsächlich versucht wird. So werden z.B. in einer überregionalen Tageszeitung drei verschiedene Zählsysteme verwendet (ein System der Firma „etracker“, ein vom Verlag selbst administriertes Programm sowie ein System der IVW).8 Jedes dieser Zählsysteme erzeugt eigene Ergebnisse.9 Anwender, die mit mehreren Verdatungssystemen arbeiten, erhalten also ganz unterschiedliche Arten von Daten: „Bei der IVW werden die PIs, also Page Impression mitgezählt und die Visits. […] Bei AGOF [ein weiterer Anbieter von Nutzungsdaten; F.M/J.W.] sind es die Unique User“ (Verantwortliche Online-Marketing Print).10 Zu den genannten Datentypen Page Impression, Visits und Unique User11 tritt ein vierter Datentyp, die sogenannte Bounce-Rate hinzu, die, wie die Online-Chefin der von uns besuchten Zeitung erklärt, regelmäßig misst, wie lange einzelne Nutzer/innen auf der Webseite des Anbieters verbleiben:

„Wie hoch ist die Verweildauer? […] viele Leute kommen zu uns und lesen einen Text, und dann sind sie wieder weg. Das ist die sogenannte Bounce-Rate und diese Bounce-Rate ist bei uns wahnsinnig hoch. Zu hoch. Die ist bei fast allen Medien ziemlich hoch, aber bei uns könnte sie niedriger sein und dann versuchen wir natürlich, die Leute kriegen irgendwie über Facebook etwas reingespielt und dann kommen sie zu uns und warum lesen sie nicht weiter“.

Zu diesen Daten, die mit Hilfe eigener Systeme oder den Zählverfahren externer Dienstleister gewonnen werden, kommen weitere Daten hinzu, die als Indikator für die Performance auf den Plattformen von Drittanbietern dienen. Der Social-Media-Dienst Twitter beispielsweise eröffnet statistische Verwertungsmöglichkeiten, wie etwa Hinweise zur Zahl der Kurzmeldungen (Tweets), die sich auf die Beiträge eines massenmedialen Anbieters beziehen, oder zu häufig benutzten Schlagwörtern in relevanten Meldungen. Daneben hat sich vor allem Facebook zu einer wichtigen Distributionsplattform für die Verbreitung auch massenmedialer Inhalte entwickelt, die wichtige Rückmeldungen über die Akzeptanz und Nutzungsweisen der entsprechenden Angebote liefert. Hierzu gehören Aktivitäten wie das Kommentieren, Bewerten und Teilen einzelner Beiträge, die durch die Social Media-Verantwortlichen der massenmedialen Organisationen beobachtet werden. Aber auch die regelmäßigen Hinweise darauf, wie viele Besucher/innen über Facebook in welchen Zeiträumen auf die eigenen Webseiten gelockt werden können, gehören, wie die Online-Chefin der Zeitung betont, ebenfalls zu den relevanten Daten, die von massenmedialen Organisationen eingeholt und ausgewertet werden:12

„Wie gehen wir in die Diskussion mit Leuten, wenn sie eben dann Texte eben kommentieren auf Facebook? Das betreuen bei uns zwei Kolleginnen und das ist natürlich für uns auch wichtig. Und die können uns auch sagen: Wie viele? Welcher Post ist jetzt besonders gut gelaufen? Und wir haben natürlich auch eine genaue Statistik darüber, wie viele unsere User über Facebook kommen und das werden immer mehr“.

Online-Abteilungen massenmedialer Organisationen verfügen also über eine Fülle an Möglichkeiten, Echtzeit-Beobachtungen ihrer Nutzer/innen durchzuführen. Das macht die Beobachtung des Publikums bzw. der Nutzer/innen jedoch nicht gerade einfacher. Im Gegenteil, die Redaktionen müssen lernen, mit dieser Vielfalt der Verdatungsverfahren und unterschiedlichen Zahlentypen bzw. Metriken sowie entsprechenden Daten zurechtkommen. Die im Einsatz befindlichen Systeme und Daten sind nicht ohne weiteres ineinander übersetzbar bzw. zu einer sich komplettierenden Sicht auf die Nutzer/innen addierbar: „Ich mein, das kennt man ja, dass diese verschiedenen Zählsysteme auch verschiedene Sachen zählen“ (Verantwortliche Online-Marketing Print). Manche Nutzungsaspekte, die gemessen werden, stehen sogar in einem Widerspruch zueinander, so etwa, wenn ein Anwender sein Angebot so gestalten will, dass die Zahlen der regelmäßigen Plattformbesucher/innen steigen, und dafür in Kauf nehmen muss, dass die Zahlen der Gelegenheitsbesucher/innen gleich bleiben oder sogar schlechter werden. Schließlich kommt auch noch, wie die Marketing-Verantwortliche der Zeitung erklärt, erschwerend hinzu, dass offenbar nicht alle Zählsysteme zuverlässig wirken:

„Also ich guck halt (–) wie haben eigentlich, wir haben e-tracker eingebunden […] Also das man immer das Gefühl hat, dass die Zahlen nicht so ganz stimmen mit den anderen Zahlen die wir selber mitzählen. […] da stimmen die ganzen Zahlen einfach nicht ganz überein. Wie gesagt wir zählen selber und wir haben natürlich auch noch die IVW-Zählungen laufen auf [unserer Webseite] und da merkt man, dass halt, also die ganzen Zahlen insgesamt alle untereinander gar nicht stimmen“.

Vielfalt, Widersprüchlichkeit und fehlende Zuverlässigkeit der Verdatungsysteme erzeugen erhebliche Interpretations- und Anpassungsbedarfe. Sie verlangen insbesondere auf den jeweiligen redaktionellen Kontext bezogene Bedeutungszuweisungen, so etwa wenn Bewertungen („wahnsinnig hoch“, „dass die Zahlen nicht so ganz stimmen“) vorgenommen werden, durch welche die entsprechenden Daten überhaupt erst zu aussagekräftigen und irritationsfähigen Hinweisen werden. Solche Bewertungen schließen Entscheidungen darüber ein, welche Verdatungssysteme und Daten überhaupt genutzt werden sollen und ab wann bzw. welche Zahlen als „solide“ bezeichnet werden dürfen bzw. eine kritische Größe annehmen, die zu korrigierenden Maßnahmen auffordert. Sie machen darauf aufmerksam, dass Daten nicht mit Informationen über die Nutzer/innen verwechselt werden sollten. Messdaten werden zwar automatisch erhoben, legen aber nicht automatisch fest, was sie bedeuten und wie mit ihnen umzugehen ist.13 Zahlen zu Klicks, Seitenbesucher/innen oder den häufigsten Schlagworten in Facebook-Kommentaren und Twitter-Tweets können nicht das Verhalten der Nutzer/innen erklären, sie verraten nichts über die Motive und Erwartungen und erst recht nicht, welche Schlüsse aus ihnen zu ziehen und welche programm- oder beitragsbezogenen Entscheidungen und Maßnahmen zu ergreifen sind. Erst durch ihre Übersetzung in sinnhafte Objekte (zu denken ist hier etwa an die Bildschirmrepräsentationen oder die Bewertungen der angezeigten Ergebnisse durch die Redaktionsleitung) finden sie Eingang in das operative Geschehen der Redaktionen. Die Bearbeitung dieser Aufgabe wird nicht von den Datenerfassungs- und Auswertungstools übernommen, sondern ist von den Redaktionen und anderen Verantwortlichen zu leisten.

Dass diese Aufgabe ernst genommen wird, zeigt sich in den vorliegenden Fällen beispielsweise darin, dass organisations- bzw. redaktionsinterne Klassifikationen und Skalierungen für die Evaluierung der Daten entwickelt wurden und ebenso Kompetenzen und Zuständigkeiten definiert und institutionalisiert wurden, die für die Übersetzung der Daten auf die jeweiligen Kontexte der Anwender verantwortlich sind. So betrachtet etwa bei der Zeitung die Online-Chefin es als ihre Aufgabe, die mangelnde Übereinstimmung selbst gezählter und vom E-Tracker gemessener Daten als ein vorrangig zu behandelndes Problem zu definieren, und als vorläufige Lösung, die durch eigene Programme generierten Daten als die vertrauenswürdigeren festzulegen. Ein vergleichbares Beispiel für die Kontextualisierung der Daten bildet die Entscheidung, mittel- und langfristige Überlegungen zur Entwicklung des Angebots vor allem an der Entwicklung der Bounce-Rate zu orientieren, während für die tagesaktuelle Steuerung der Seiten die sogenannten Hits14 den wichtigeren Orientierungsmaßstab bilden:

„Ich sag jetzt mal eine Messgröße ist jetzt bei uns, wenn pro viertel Stunde zehn Texte über 100 Hits haben, dann ist das erstmal sehr solide und daran, wenn man merkt, ok da funktioniert etwas nicht. Das geht immer weiter runter. Dann habe ich natürlich den Zwang etwas umzubauen auf der Seite und das tun wir dann auch.“

Solche Bewertungen der Daten und damit verbundene Entscheidungen bzw. Maßnahmen, etwa die Reihenfolge der Beiträge auf der eigenen Webseite zu ändern, orientieren sich an besonderen, zunächst einmal nur für den vorliegenden Kontext geltenden Bewertungsschemata, Vergleichskriterien und Zielvorgaben. Bemerkungen wie „sehr solide“ oder „da funktioniert was nicht“ lassen Unterscheidungen erkennen, die auf redaktionsinterne Festlegungen hinsichtlich des zu erreichenden Niveaus der Plattformnutzung verweisen. Diese können dann wiederum im Sinne von Zielvereinbarungen in zu erreichende Zahlen übersetzt und konkretisiert werden. Werden solche Vereinbarungen (innerhalb ebenfalls zu definierender Fristen) verfehlt, kann dies die inhaltliche oder technische Qualität der eigenen Angebote problematisch erscheinen lassen und die Verantwortlichen, wie im vorliegenden Fall die Online-Chefin der Zeitung, zu Fragen wie der folgenden motivieren: „Machen wir ihnen ein schlechtes Angebot, publizistisch oder machen wir ihnen vielleicht auch technisch ein schlechtes Angebot, weil sie dann auf dem Smartphone gar nicht sehen, wo sie weiterlesen können?“.

Die redaktionsinternen Aufgaben und Leistungen der einzelnen Abteilungen werden von solchen Problematisierungen der eigenen ‚Performance‘ nicht ausgenommen. Auch sie werden auf Schwachstellen und Verbesserungsmöglichkeiten hin beobachtet und bewertet. Selbst das Verhältnis von Print- und Online-Redaktion bleibt nicht verschont, insofern als jetzt mit Blick auf die Statistiken nicht nur die Stärken der Printabteilung („kommerziell erfolgreicher“), sondern auch Schwachstellen („wissen wenig über ihr Publikum“, „bleiben angewiesen auf definierte Erscheinungszeiten“ etc.) sowie mögliche (crossmediale) Synergien (etwa die Mehrfachverwertung von Artikeln, Steigerung der Reichweite oder multimediale Vertiefungsangebote) erkannt werden können. Ein wichtiger Bestandteil entsprechender, auf der Basis von Nutzungsdaten vorgenommener Problematisierungen der eigenen Leistungsfähigkeit sind immer auch Vergleiche mit anderen Anbietern. Denn um zu erklären, warum die eigenen Zahlen schlecht ausfallen, empfiehlt sich, wie die Online-Chefin der Zeitung darlegt, auch die Zahlen anderer Anbieter zum Vergleich heranzuziehen:

„Und natürlich muss ich auch sehen, wie sich die anderen Häuser entwickeln, wenn es um Mobilauftritte geht und die IVW werfen ja auch aus, die Mobilzugriffe und so. Da sehe ich natürlich, dass das eine unserer größten Baustellen ist, dass wir Online einfach, was den mobilen Auftritt angeht und Optimierung für mobile, für alles in diesem Bereich, dass wir da ganz dringend etwas machen müssen, weil wir sonst noch mehr abgehängt werden von den anderen“.

Dieses fortlaufende Beobachten und Vergleichen sowie die damit verbundenen Versuche einer Optimierung interner Prozesse wie auch der Angebote im Sinne der selbst gesetzten Ziele, erfährt noch einmal dadurch eine weitere Komplexitätssteigerung, dass die meisten Nutzungsdaten nicht exklusiv einer Stelle oder Abteilung, sondern allen Mitgliedern in den Online-Abteilungen der Organisation vorliegen. Dies führt dazu, dass verschiedene, teilweise konfligierende Datenverständnisse kursieren, folglich auch unterschiedliche Problem- und Lösungsideen zu der Frage, welche Schwachstellen mit Blick auf das Angebot und die redaktionellen Strukturen vorliegen und welche Optimierungsmöglichkeiten ergriffen werden sollten. So bewerten die Autor/innen der Zeitung, die unpopuläre Themen zu betreuen haben, eigene und fremde Zahlen (vor allem Klicks der Beiträge) erwartungsgemäß anders als ihre Kolleg/innen, die eher gängige Themen mit erwartungsgemäß hohen Klickzahlen bearbeiten. Davon unterscheiden sich wiederum die Deutungen der Geschäftsleitung und der beteiligten Dritten wie der Werbekunden. Autor/innen mit komplexen, schwierigen Themenfeldern müssen mit vergleichsweise „schlechten“ Zahlen rechnen, tendieren deshalb zu einer eher skeptischen Einstellung bzgl. der Verdatungsmöglichkeiten und halten strenger das journalistische Ethos hoch, während jene Autor/innen, die mit ihren Beiträgen relativ hohe Klickzahlen erzielen und von den neuen Aufmerksamkeiten profitieren, eine eher befürwortende Haltung einnehmen. Deutungs- und Übersetzungsbedarfe entstehen also nicht nur wegen der verschiedenen Verdatungssysteme und der entsprechenden Daten, sondern auch, wie die Online-Chefin der Zeitung zu berichten weiß, wegen der unterschiedlichen, z.T. konfliktären Vorverständnisse, impliziten Bewertungsmaßstäbe und Interessen, die an die Daten herangetragen werden:

„Der Kollege der irgendwie den NSU-Prozess schwerpunktmäßig betreut, der hat natürlich leicht… also der wird immer weit oben sein mit seinen Texten. Und der Kollege, der Theater betreut in der Kultur, der wird nicht so weit oben sein. Und das heißt aber nicht, dass sein Text für uns, in dem Moment, weniger wert ist. Und das zu vermitteln ist (Äh)… Und natürlich in Print hat der Kulturtext seinen Platz, genau wie der NSU-Text und da wird halt dann nicht gemessen nach Hitlisten. Das müssen wir schon auch vermitteln“.

In diesem Zitat deutet sich an, dass Nutzungsdaten themen- bzw. rubrikspezifisch betrachtet werden, so dass Klicks und Besuchszahlen, die bei populären Themen und den dort geltenden Bewertungskriterien eine eher schlechte Bewertung bekommen hätten, bei schwierigen Themen als akzeptabel oder sogar als Erfolg gewertet werden. Oder aber es werden, auf diesen Aspekt gehen wir weiter unten noch ausführlicher ein, klickzahlenstarke Beiträge in die Nähe klickzahlenschwächerer Beiträge platziert, um auf diese aufmerksam zu machen. Mit diesen Lösungsversuchen wird darauf reagiert, dass sich durch die Nutzungsdaten – ob nun von der Leitung gewollt, oder eher informell – redaktionsinterne Beobachtungs- und Referierräume eröffnen, in denen die Autor/innen der Beiträge die Möglichkeit haben, sich zu verorten und zu vergleichen. Die sich daraus entwickelnden, mehr oder weniger stark voneinander abweichenden Sichtweisen auf die Nutzungszahlen und daraus hervorgehenden Verständnisse des Plattformgeschehens sowie die damit verbundenen Konkurrenzbeziehungen steigern noch einmal – insbesondere für die Leitungsebene – die Deutungs- und Übersetzungsaufwände in erheblichem Maße und erzeugen zudem auch Moderations- und Abstimmungsbedarfe. Antworten auf die Frage zu finden, welche Bedeutung die Daten für die Mitglieder einer Online-Redaktion haben, verlangt offenbar von den Verantwortlichen, verschiedene Bewertungskriterien und Zahlenverständnisse zu berücksichtigen, mitunter auch mehrere, auf jeweilige Rubriken abgestimmte Deutungen zu entwickeln und diese gegenüber den Beteiligten begründen zu können. Hier zeigt sich noch einmal, dass es den Beteiligten nicht darum geht bzw. gehen kann, die Möglichkeiten der Verdatung im Sinne eines immer exakteren Monitorings von immer mehr statistisch erfassbaren Nutzungsaspekten auszuschöpfen, sondern eher darum, diese Möglichkeiten auf die sachlichen und sozialen Besonderheiten der Redaktion abzustimmen.

3.2 Datenbasierte Publikumsorientierung und journalistisches Selbstverständnis

Die hier skizzierten Prozesse des Filterns, Übersetzens und Abstimmens lassen erkennen, dass nur bearbeitete Daten in die redaktionellen Abläufe gelangen. Solche Bearbeitungen, wie das Beispiel der Beitragplatzierung zeigt, enthalten immer schon Hinweise für die Strukturierung des medialen Angebotes, sowohl für langfristige strategische Überlegungen, etwa den prinzipiellen Aufbau von Nachrichtenseiten betreffend, als auch für die tages- und sogar minutenaktuelle ‚Steuerung’ der Online-Angebote. So verbinden sich beispielsweise mit den Gewichtungen der Daten, ihrer Bewertung nach vorgegebenen Kriterien und die ihnen zugewiesene unterschiedliche Relevanz für jeweilige Themenbereiche immer auch Vorentscheidungen über auszuwählende Themen oder die Platzierung der Beiträge. Es sind (noch) nicht die Systeme der Online-Verdatung und Analyse, die auf der Basis statistisch errechneter Popularität konditionieren, wann wo welche Themen bzw. Beiträge auf den Seiten des eigenen Online-Portals oder auf Drittplattformen gelistet werden. Antworten auf die Frage, in welcher Reihenfolge welche Beiträge zu welchen Themen publiziert werden sollen, orientieren sich zwar immer auch an Klickzahlen, aber in sehr vermittelter Weise. Wann beispielsweise in welcher Weise eingegriffen wird, um Beiträge umzugruppieren, ist immer auch abhängig von intern entwickelten und geteilten redaktionellen Vorstellungen und Richtlinien. So stehen beispielsweise keineswegs automatisch solche Beiträge auf den eigenen Webseiten ganz oben, die besonders häufig geklickt werden. Vielmehr werden, wie die Online-Chefin der Zeitung bemerkt, viel gelesene und damit häufig aufgerufene Texte gelegentlich mit schwach geklickten Artikeln gruppiert, um auch für diese Aufmerksamkeit zu mobilisieren:

„Was nicht heißt, dass ich die Libanon-Reportage verstecke, aber die tue ich dann vielleicht auf die zwei auch zum gleichen Zeitpunkt und sage, hey durch den Buzz den ich erzeuge, dadurch das ich einen Text, der irgendwie so XYZ-Schlagworte hat, was meine Klientel sehr bedient, ziehe ich sehr viel Leute auf die Seite und die lesen dann vielleicht auch noch die Libanon-Reportage, weil die direkt drunter steht. Also man choreographiert das schon sehr genau durch“.

Auch vergleichsweise wenig geklickte Artikel können also prominent platziert werden, nicht weil sie bereits Aufmerksamkeit erhalten haben, sondern damit sie diese noch gewinnen können. Zudem kann gerade die ‚Prominenz’ einzelner Artikel dazu führen, dass sie von der Hauptseite des eigenen Webangebotes genommen werden. Bedingung hierfür scheint aber zu sein, dass sie es schaffen, wie in dem folgenden Zitat der Online-Chefin der Zeitung deutlich wird, auch in den sozialen Medien zu zirkulieren und ihre Verbreitung somit eine gewisse Eigendynamik entwickelt:

„Das ist halt was, was man auch immer noch vermitteln muss, dass die Bedeutung der Startseite mittlerweile abnimmt. […] Du [gemeint ist der Autor eines Artikels; F.M./J.W.] ziehst noch genug auf dich. Also im Grunde genommen haben wir beide alles richtig gemacht. Du als Autor, weil du offensichtlich einen guten Text geschrieben hast und wir Online, weil wir ihn gut verkauft haben, weil er sehr prominent oben stand. […] Wir haben ihn über die sozialen Netzwerke verbreitet. Dort wird er offensichtlich weitergespielt […]. Dein Text kann ganz unten auf der Seite irgendwo stehen, aber wenn den jemand in seinem Twitter Feed hat, klickt der trotzdem darauf. Das ist dem ganz egal, wo der steht.“

Das Wissen um die (Klick-)Zahlen spielt also im redaktionellen Alltag klar erkennbar eine Rolle, aber nicht in der Form, dass hierdurch Entscheidungen bezüglich der Angebotsgestaltung festgelegt würden. Offensichtlich dienen die Zahlen mehr dazu, sich irritieren zu lassen und auf Veränderungen im Publikumsverhalten aufmerksam gemacht zu werden. Von weiteren Bewertungen und Verhandlungen ist dann abhängig, ob bzw. welche Maßnahmen daraufhin hinsichtlich einer Umgestaltung des Angebotes ergriffen oder unterlassen werden. Ferner dienen Zahlen und auf sie bezogene Deutungen dazu, Entscheidungen – hier dem Umgang mit der Quote nicht unähnlich – intern gegenüber anderen Abteilungen, den Kollegen/innen vom Print und der Geschäftsführung, aber auch gegenüber externen Beobachtern wie den Anzeigenkunden zu legitimieren. So lassen sich beispielsweise Umgruppierungen von Beiträgen besser begründen, wenn dabei Zahlen benutzt werden. Hohe Klickzahlen können als Argument dienen, Artikel prominent zu platzieren, sie können jedoch ebenso gut, wie im oben beschriebenen Fall, genutzt werden, um dieselben Artikel weiter unten in der Liste unterzubringen. Welche Maßnahme in welcher Situation umgesetzt werden soll, kann aus den Nutzungsdaten bzw. ihren Übersetzungen („gute“ vs. „schlechte“ Zahlen) nicht deduziert werden, in beiden Fällen können diese aber als Legitimationsressource genutzt werden.

Bei den gepushten zahlenschwachen Themen und Beiträgen handelt es sich oft um solche, die stärker den eigenen professionellen Normen und Überzeugungen der Journalist/innen entsprechen und damit tendenziell eher für eine distanzierte Haltung gegenüber dem Publikum stehen. In der redaktionellen Praxis wird also versucht, einen Ausgleich zu finden zwischen einer an statistisch erfassten Besucheraktivitäten orientierten, auf die Publikumsinteressen und -gewohnheiten ausgerichteten Angebotsstrategie und den professionellen Standards der Themenauswahl und -aufbereitung. In welchem konkreten Verhältnis beide Orientierungen zueinander stehen und welches Kriterienbündel in konkreten Entscheidungen stärker zur Geltung kommt, ist häufig Gegenstand situativer Aushandlungen. Auf der einen Seite zeigt sich klar eine Entwicklung hin zur Relevanz von Nutzungszahlen für journalistische Entscheidungen. So macht etwa der Programmchef des untersuchten Radioanbieters mit Blick auf sich und seine journalistischen Kolleg/innen die eigene Orientierung am (auch numerischen) Erfolg des eigenen Angebotes deutlich, wenn er sagt, „wir haben alle den Wunsch, dass wir mit dem, was wir machen, gehört werden, ja? dass wir eine Resonanz, eine Relevanz entfalten“. In dieser Aussage artikuliert sich die Bereitschaft, das traditionelle Selbstverständnis des Journalismus, besser zu wissen, welche Themen wie veröffentlicht werden sollten, zugunsten einer stärkeren Orientierung am (statistisch erfassten) Willen des Publikums zu modifizieren. Diese Einstellung lässt sich auch in den folgenden Ausführungen einer Redakteurin eines Regionalstudios des öffentlich-rechtlichen Rundfunks erkennen, die den Interviewern die Nutzungszahlen vom Vortag erklären will. Deutlich wird hier, wie hohe Nutzungszahlen dazu führen können, vorhandene Artikel im Angebot zu belassen und möglicherweise durch weitere themen- und stilverwandte Beiträge zu ergänzen:

„genau das ist so ein zusammengefasster Report den uns die Onliner aus [der Zentrale] schicken. Und da schicken die jeden Tag wie die Klickzahlen vom Vortag waren ne? und da siehste „Welterbe“ ist gut geklickt worden und „Polizei sucht Pferdequäler“. Und das ist für mich jetzt der Grund zu sagen (.) okay der Pferdequäler läuft (–) den date ich nochmal up und guck mal ob er noch weiter, weil der ist ja schon sogar von Montag und ist gestern immer noch gut, für unsere Verhältnisse gut geklickt worden“.

Nun machen allerdings dieselben Gesprächspartner/innen auch deutlich, dass mit der zunehmenden Relevanz von Nutzungsdaten nicht zwingend ein Ausverkauf und Verlust journalistischer Autonomie sowie professioneller Standards einhergehen muss. Prägnant formuliert dies der Programmchef des Online-Radios, wenn er mit Blick auf Publikumsresonanz und dessen Bedeutung für redaktionelle Entscheidungen sagt, „man darf da auch nicht über jedes Stöckchen springen.“ In ähnlicher Weise ergänzt die Online-Chefin der Zeitung diese Einschätzung mit ihren Hinweisen, dass „das oberste Kriterium von uns […] die Nachrichten und Geschichten“ sind und „zu oberst […] immer [steht], wie ist der Nachrichtentag, was müssen wir auf der Seite haben, was sind vielleicht Geschichten, die wir exklusiv haben? […] Das sind die klassischen journalistischen Relevanzkriterien“. Zu diesen Kriterien gehören, wie die Interviewte weiter ausführt, nicht nur all jene, mit allen Mitgliedern der Branche geteilten normativ-ethischen Maßstäbe, die sich auf die gesellschaftliche Rolle des Journalismus beziehen, sondern auch Unterscheidungen, die der Selbstverortung im journalistischen Feld, nicht zuletzt auch der eigenen Imagepflege und Abgrenzung von konkurrierenden Anbietern dienen:

„Ich möchte nicht Boulevard sein. Ich möchte sagen: Ok, klar. Ich weiß eben über gewisse Zahlen, Studien, XYZ, das ist meine Kernzielgruppe, ich wäre total bescheuert, die nicht auch mit einer gewissen Berichterstattung zu bedienen, aber diese Berichterstattung muss immer fußen auf: Es gibt etwas zu berichten. Ich habe ein Ereignis. Es ist relevant und darüber berichte ich und dann vielleicht auch in Ausführlichkeit, weil das genau meine Zielgruppe trifft. Aber der Bürgerkrieg in Syrien ist genauso relevant und das interessiert mein […] Publikum einen feuchten Kehricht. Trotzdem werde ich darüber berichten, weil das meine gesellschaftliche Funktion als Journalist ist“ (Online-Chefin Print).

Mit Blick auf das Verhältnis von journalistischen und publikumsorientierten Auswahlkriterien spricht die interviewte Online-Chefin der Zeitung auch von einer „Mischkalkulation“. Beide Orientierungen bzw. Kriterienbündel sollen im journalistischen Alltag Berücksichtigung finden und gegeneinander abgewogen werden. In welche Richtung das Pendel schwingt, ist dabei offensichtlich Ermessenssache und situationsabhängig. Nur in außergewöhnlichen Situationen passiert es, dass bei Entscheidungen ein Kriterium ganz klar das andere überwiegt. So betont die Interviewte, dass es Ausnahmesituationen gibt, in denen die Redaktion entscheidet, auch einen schlecht gelesenen Artikel auf der Seite stehen zu lassen, „auch wenn uns jetzt die ganze Seite abschmiert […] weil wir das wichtig finden.“ Andersherum kann aber auch die Orientierung an den Nutzungszahlen überwiegen. Dies wird deutlich, wenn etwa die Lokal-Redakteurin einer regionalen Rundfunkanstalt erläutert, dass es für die Steuerung der eigenen Webseite eine 24 Stunden-Regel gibt, nach der Inhalte nur einen Tag lang auf der Seite behalten würden. Diese Regel, der die journalistische Vorstellung zugrunde liegt, dass Nachrichten ihren Neuigkeitswert schnell verlieren, gilt grundsätzlich, „es sei denn natürlich ein Artikel wird ganz doll geklickt, dann lassen wir ihn auch mal länger stehen.“ Ansonsten werden auch hier Klickzahlen und journalistische Relevanzkriterien miteinander aufgewogen, um Entscheidungen bezüglich der Gestaltung und des Umbaus des Angebotes zu treffen. Gerade bei der Lokalredaktion spielt der regionale Bezug von Nachrichten eine wichtige Rolle. Selbst wenn auf den Hauptseiten des Rundfunkanbieters bestimmte Meldungen sehr gut gelesen werden, müssen diese nicht unbedingt im Aufmacher für das lokale Angebot übernommen werden. So stellt die interviewte Lokalredakteurin einer regionalen Rundfunkanstalt mit Blick auf einen Großbrand, der im Moment des Interviews auf den Hauptseiten des Medienanbieters zentral gestellt und auch gut nachgefragt ist, fest: „Mich interessiert natürlich dieser Brand in XY-Stadt null. Das ist XY-Stadt. Mich interessiert diese Pferdegeschichte mehr. So ist unsere Lokal-Seite aufgebaut.“ Deutlich wird, wie nach den anfänglichen Übersetzungen der Nutzungsdaten in aussagefähige Hinweise auf das Besuchsverhalten auch die daran anschließenden themen- und beitragsbezogenen Entscheidungen sich an Kategorien und Kriterien orientieren, die sich dem journalistischen Selbstverständnis verdanken.

3.3 Öffentliche Beobachtungs- und Kommunikationsräume

Auch wenn bei der Nachrichtenauswahl und -gewichtung offensichtlich zwischen den Orientierungen der Journalist/innen und des Publikums vermittelt wird, bleibt die Frage offen, ob es nicht trotzdem zu einer weiteren Fragmentierung des Publikums im Sinne einer immer präziseren Bedienung der Interessen und Gewohnheiten spezieller Nutzer/innen- bzw. Zielgruppenprofile kommt. Insbesondere die zunehmende Bedeutung von Drittplattformen für den Nachrichtenvertrieb scheint die geläufige These einer im Internet sich radikalisierenden Publikumsfragmentierung zu unterstützen. So werden in allen von uns untersuchten Fällen Google, Facebook und andere Plattformbetreiber als zunehmend bedeutsame Vertriebskanäle beschrieben. Vor allem Facebook wird eine zentrale Stellung zugesprochen. Exemplarisch bringt dies der Beauftragte für digitale Strategien des untersuchten Fernsehsenders auf den Punkt: „Diese Zentralisierung auf die großen Plattformen und das ist nun mal Facebook in Deutschland, […] die ist nicht zu übersehen“. Für die klassischen Medienanbieter bedeutet dies, dass sie sich auf Facebook als wichtigen Nachrichtenkanal einlassen müssen – mit der Konsequenz, dass dann eben tatsächlich nicht mehr – wie auf den eigenen Webangeboten – redaktionell entschieden werden kann, welche Inhalte ‚gestreut‘ werden. Denn bekanntermaßen entscheidet bei Facebook ein Algorithmus darüber, welche Nachrichten wann an welche User/innen ausgespielt werden.15 Wie die Redaktionsleiterin und Social Media-Beauftragte des Radiosenders nüchtern festhält, führt an den sozialen Netzwerken allerdings kein Weg vorbei, da man den „Leuten nicht ihre Nutzungsgewohnheiten vorschreiben kann“. Wer dies nicht akzeptiere, sei ihrer Auffassung nach schlichtweg „irgendwann raus“.

Wie der weitere Blick ins Material zeigt, bedeutet dies aber nicht, dass sich die traditionellen Medienanbieter Facebook und dessen Algorithmus zur ‚personalisierten‘ Distribution von Neuigkeiten hilflos ausliefern. Vielmehr reagieren die jeweiligen Organisationen auf die genannte Entwicklung, indem sie versuchen, sich den Algorithmus für die eigenen Zwecke zu Eigen zu machen. So werden Personalkapazitäten verschoben oder sogar neue Mitarbeiter/innen eingestellt, um Know-how für den kompetenten Umgang mit Social Media-Diensten und ihren Funktionen zu gewinnen. Exemplarisch deutlich wird dies in folgender Antwort der Online-Chefin der Zeitung auf die Frage, inwiefern mit der wachsenden Aufmerksamkeit für die sozialen Medien strukturelle Änderungen innerhalb der massenmedialen Organisationen selbst zu erwarten sind.

„Also ich denke schon, wenn man solche Sachen ausbauen will, gibt es ja immer zwei Möglichkeiten. Entweder man hat mehr Leute, die das können und machen oder wenn man nicht mehr Leute hat, dann muss man eben an anderer Stelle gucken, was brauchen wir jetzt nicht so dringend oder was ist einfach gerade nicht so wichtig und die Redaktionsabläufe ein bisschen umbauen. Aber das ist halt der Wandel, der findet ja immer statt und so ein Programm wie unseres sollte das glaube ich auch quasi als selbstverständlich annehmen und auch wollen“.

Dass entsprechende Umstrukturierungen nicht nur Zukunftsprojekte sind, sondern bereits umgesetzt werden, wird an der Stelle der Online-Chefin des Radiosenders selbst deutlich. Denn, wie sie selbst sagt, „hat das Haus sich vor gut zwei Jahren entschlossen, diese Position einzurichten“ (Online-Chefin Radio) zu deren dezidierten Aufgaben es gehört, die unterschiedlichen Social Media-Kanäle im Blick zu haben und die Performance des eigenen Radiosenders auf diesen Kanälen zu überwachen und zu verbessern. Schon einige Jahre vorher wurde bei dem untersuchten Fernsehsender eine Abteilung gegründet, die sich der Entwicklung eigener Strategien für das Internet widmet. Und auch die Online-Chefin der Zeitung erwähnt, dass im eigenen Hause „zwei Kolleginnen“ dafür zuständig seien, den Erfolg der eigenen Nachrichten bei Facebook zu beobachten und zu verbessern.

Deutlich wird aber auch, dass die jeweiligen Anbieter erst einmal lernen mussten, die sozialen Medien so zu ‚bespielen‘, dass ihre Inhalte trotz intransparentem Distributionsalgorithmus bei den Rezipient/innen landen. Dies betont die Online-Chefin der Zeitung: „Am Anfang war jeder auf Facebook und nichts war irgendwie so richtig erfolgreich“. Dies gelte auch für die eigene Zeitung, die „sehr klein angefangen“ habe, mittlerweile aber „sehr erfolgreich“ sei. Letzteres führt sie vor allem auf Erfahrungen zurück, die mit den eigenen Angeboten bei Facebook gemacht worden seien und zu einem besseren Verständnis der Funktionsweise beigetragen hätten. Entsprechend „überlegen [die verantwortlichen Kolleginnen] natürlich sehr genau auch da: Was posten sie? Wie posten wir es? Wie ist unsere Ansprache?“ In der Konsequenz – und dies ist vor dem Hintergrund der Frage nach dem Zerfall von Öffentlichkeit im Internet von besonderem Interesse – zeitigt dieser bewusste professionelle Umgang mit den sozialen Medien nach Ansicht der Online-Verantwortlichen der Zeitung überraschende und positive Folgen. Denn, so zumindest die Behauptung, die zunehmende Zentralstellung von Facebook als Distributionsplattform für Nachrichtenprodukte führe nicht zwingend zu einer immer weiteren Aufsplittung des Publikums und Verstärkung unterschiedlicher kollektiver Präferenzen. Im Gegenteil sieht beispielsweise die interviewte Online-Chefin der Zeitung in dem sozialen Netzwerk Facebook – so es denn richtig bespielt wird – gar ein „Tool“,

„um diese Inhalte auch an Leute rauszuspielen, die vielleicht mit der Zeitung nichts anfangen können oder die vielleicht nicht wissen, wofür die Zeitung steht und die dann das einfach über die Algorithmen von Facebook in ihre Timeline gespült bekommen und dann vielleicht sagen: Ah da gucke ich mal hin“.

Entsprechend hält sie wenig später sogar fest, „Facebook ist da sehr viel nachhaltiger [im Vergleich etwa zu Werbekampagnen; F.M./J.W.], wenn es darum geht, Leute zur Zeitung zu bringen“. Offenbar können Algorithmen auch dazu beitragen, vorhandene Informationsgewohnheiten und -filter zu überwinden und bestimmte Teilpublika (etwa liberale oder konservative Publika mit ihren etablierten Vorlieben für bestimmte Zeitungen) mit Nachrichten zu versorgen, die sie aufgrund ihrer persönlichen und politischen Präferenzen ansonsten nicht rezipieren würden. Bedingung hierfür ist natürlich, dass die Nachrichten so aufbereitet werden, dass sie die algorithmischen Filter entsprechend durchlaufen oder gar ‚überlisten‘.

Einen anderen Aspekt der Nutzung von Facebook für die Herstellung einer breiteren Öffentlichkeit spricht der Programmchef des untersuchten Radiosenders an. Ihm geht es bei Facebook weniger darum, Nachrichtenangebote an Rezipient/innen auszuspielen, die nicht von selbst auf die Online-Angebote des Senders zugreifen würden. Stattdessen spricht er positiv über die User-Daten, die der Sender dadurch erhält, dass viele User/innen über Facebook auf die eigenen Angebote zugreifen:

„bei Facebook kriegen wir die besten Daten, was die Demografie angeht. Da wissen wir über Jungs und Mädchen, da wissen wir in welchen Städten die User sind ähm in welchen Ländern. […] und Facebook gibt ja dann, das sind ja praktische Daten, […] da kann man sich so ein bisschen denken sind wir jetzt besonders weiblich, sind wir besonders männlich?“.

Auf dieser Grundlage, und dies ist für den vorliegenden Zusammenhang wichtig, wird es für den Sender möglich, sich selbst zu beobachten und intendiertes und tatsächliches Publikum miteinander abzugleichen. Interessanterweise verbindet der Interviewpartner dies mit dem Programmauftrag des Senders und sagt weiter, dass er sich gemeinsam mit der Online-Chefin diese Daten regelmäßig anschaue,

„weil wir einfach gucken müssen: stimmt die Grobrichtung? also machen wir hier ein Programm irgendwie für eine kleine Elite, die in einen VW-Bus passt? oder kommen wir wirklich unserem öffentlich-rechtlichen Auftrag ein offenes, demokratisches Grundangebot für eine junge Zielgruppe zu machen nach?“

Facebook, das ansonsten eher als ‚Datenkrake‘ kritisch beäugt wird, dient dieser Lesart zufolge also vor allem als ‚Reflektionsmedium‘ um zu beurteilen, ob die angestrebte Publikumsgröße und damit auch die anvisierte Öffentlichkeit erreicht werden. Als sich für den Radiosender beispielsweise herausstellte, dass in der Vergangenheit nur kleine Spezialpublika („die in einen VW-Bus“ passen) erfolgreich adressiert wurden, wurde dies zum Anlass genommen, über strukturelle Änderungen des Programmangebotes nachzudenken. Auch in dieser Hinsicht erweist sich also die Verdatung des Publikums eher als Vehikel, um breitere Öffentlichkeiten anzusprechen, denn als Technologie, die zu einer immer weiteren Segregation und Vereinzelung des Publikums führt.

In diese Richtung weisen auch Entscheidungen, Nutzungsdaten auf den eigenen Webseiten zu veröffentlichen, etwa in Form von Hinweisen auf die Anzahl aktueller Leser/innen oder der Kommentare zu bestimmten Artikeln, ebenso wie Informationen darüber, welche Artikel insgesamt am meisten gelesen oder weiterempfohlen wurden. Auf diese Weise werden Echtzeitmessungen der Besuchsaktivitäten zu einem Bestandteil der eigenen Onlineangebote und erzeugen für die Online-Rezipient/innen neuartige Gelegenheiten der kollektiven Erfahrung und wechselseitigen Beobachtung. Ganz im Gegensatz zu Thesen der zunehmenden Auflösung des Publikums im Internet entsteht hierdurch ein neuartiges Potential zu Schaffung von Öffentlichkeiten – auch wenn diese nur temporär und schwach assoziiert erscheinen mögen. Entsprechende Hinweise finden sich bei den von uns untersuchten Fällen – wie auch bei fast allen anderen Anbietern, insbesondere den traditionellen Printmedien – auf den eigenen Webseiten sowie in den Social Media-Auftritten der verschiedenen Medienanbieter. Auf den ersten Blick wirken entsprechende Hinweise relativ banal. Es sind dennoch genau solche Angebote, die für die User/innen überhaupt erst die Möglichkeit bieten, sich selbst als Teil eines aktuellen Publikums im Internet erfahren zu können und zu erleben, was andere aktuell interessiert. So jedenfalls sieht es die Online-Chefredakteurin der untersuchten Zeitung, wenn sie zu der eigenen ‚meistgelesen’-Spalte anmerkt:

„Was lesen denn andere Leute gerade? Oder was ist das meistkommentierte? […] das ist der Versuch nach draußen Leute weiter an die Seite zu binden, so wie das alle anderen Seiten auch machen. Wie das z.B. die XYZ-Zeitung sehr intensiv macht […] Und ich merke an meinem eigenen Userverhalten, dass ich durchaus auf diese Dinge gucke, wenn ich auf anderen Seiten bin und denke: Ah, ok dann klicke ich da vielleicht auch mal.“

Ohne dass sie die publikumsbildende Funktion entsprechender Angebote explizit anspricht, macht die Expertin deutlich, dass diese ganz offensichtlich dazu dienen, die User/innen auf dem eigenen Angebot zu halten und für die Rezeption genau solcher Artikel zu interessieren, die auch andere interessieren. Es macht also offensichtlich einen Unterschied, ob bekannt ist, dass bestimmte Artikel auch anderen bekannt sind. Vermessungen der Useraktivitäten und darauf aufbauende Angebotssteuerungen müssen nicht (zwangsläufig) darauf hinauslaufen, immer kleiner Interessensgruppen zu bedienen. Offenbar verbinden sich mit der Verdatung auch Chancen, weitere Publikumskreise zu erschließen bzw. über die skizzierten neuen Möglichkeiten der Rückspiegelung der Echtzeit-Publikumsbeobachtungen ins Angebot selbst auch neue Formen von Öffentlichkeit zu unterstützen.

4 Schluss

Die voranstehenden Auswertungen der Interviews sollten erkennen lassen, dass die verschiedenen Möglichkeiten der Echtzeit-Beobachtung des Publikums spürbare Implikationen für die journalistische Arbeit haben, unabhängig davon, ob deren Wurzeln in Print, TV oder Radio liegen. Sie sollten jedoch auch deutlich machen, dass sich diese Folgen – auf der hier untersuchten Ebene der Expertenbeschreibungen und damit zugegebenermaßen auf einer schmalen empirischen Basis – etwas anders darstellen, als oftmals befürchtet. Dass Nutzungsdaten nun einfacher und schneller in die redaktionellen Abläufe gelangen und ein immer genaueres Bild von den Besucher/innen der Seiten entstehen lassen, dass die Auswahl und Aufbereitung der Programme und Beiträge sich – zuungunsten der journalistischen Autonomie – immer stärker an den Informations- und Mediengewohnheiten des Publikums orientieren und dass auch die Möglichkeiten, ein größeres Publikum zu bedienen, immer geringer werden – solche Annahmen konnten durch die Äußerungen der von befragten Expert/innen nicht bestätigt werden.

So konnte festgestellt werden, dass sich infolge des vermehrten Nutzungsdatenaufkommens die redaktionsinternen Deutungs- und Übersetzungsaufwände in einem erheblichen Maße erhöhen, so dass von einer Kontrolle über das Publikum kaum die Rede sein kann. Auch konnte den Äußerungen entnommen werden, dass die Verfügbarkeit von Echtzeit-Nutzungszahlen nicht automatisch zum Verlust journalistischer Autonomie führen muss. Eine zunehmend wichtiger werdende Publikumsorientierung scheint auf auf journalistische Routinen sowie professionelle und normative Standards zu treffen, die nicht einfach abgelöst werden, sondern in ‚Verhandlung’ mit der Orientierung an Nutzungszahlen treten, was zu situativ je unterschiedlichen Gewichtungen verschiedener Selektionskriterien führt. Das bedeutet auch, dass – zumindest gegenwärtig – die Lösung der (Dauer)Aufgabe, die datentechnisch erfassten Trends der Besucheraktivitäten und darin erkennbaren Interessen der Nutzer/innen mit dem journalistische Selbstverständnis und dem damit verbundenen Informationsauftrag gegenüber dem Publikum andererseits abzustimmen, von Redaktion zu Redaktion unterschiedlich ausfallen können. Schließlich fanden sich in den Interviews Hinweise darauf, dass die Redaktionen neben den Versuchen, mit Hilfe der Nutzungsdaten spezielle Informationsinteressen immer besser zu bedienen, nach wie vor nach Strategien suchen, ein möglichst großes Publikum anzusprechen. Überraschenderweise scheinen dabei teilweise sogar die sozialen Medien, welche ansonsten als Treiber einer Auflösung des massenmedialen Publikums betrachtet werden, dazu verwendet zu werden, traditionelle Grenzen eigener Zielgruppen zu überwinden und zu überprüfen, ob eine breitere Öffentlichkeit erreicht werden konnte.

Diese Ergebnisse fügen sich zu einem Bild, das den Journalismus und seine Publikumsbeziehungen „in Bewegung“ zeigen, bei dem deutlich erkennbar Änderungen der Verbreitungs- und Erfolgsmessungsarten sowie der Rezeptionsgewohnheiten auf bewährte Strukturen und Abläufe treffen und zu deren Veränderung beitragen. In Anlehnung an Überlegungen des Wissenschafts- und Technikforschers Andrew Pickering (2007) ließe sich hier auch davon sprechen, dass die technischen Innovationen, die den Journalismus im Internet vor neue Herausforderungen stellen, in den journalistischen Organisationen in eine ‚Mangel der Praxis‘ geraten und dabei in einem letztlich auf Dauer gestellten, also ohne Aussicht auf Perfektionierung oder Finalisierung geführten Spiel von Widerstand und Anpassung (immer wieder) neue Formen und Routinen hervorbringen, mit denen das Verhältnis von Journalismus und seinem Publikum re-konfiguriert wird. So gesehen wäre es sinnvoll, in weiteren (ethnographischen) Forschungen genauer zu untersuchen, wie in der konkreten Praxis Aufbereitungen und Interpretationen von Zahlen erfolgen, wie darauf basierende Entscheidungsprozesse vollzogen werden und wie sich zusätzlich auch in der Nachrichtenauswahl neue Routinen etablieren, welche die hier beschriebenen Probleme im Umgang mit Echtzeit-Publikumsbeobachtung und Vervielfältigung der Distributionswege zu ‚unproblematischen Problemen’ machen. Aufschlussreich wären darüber hinaus Vergleiche zwischen öffentlich-rechtlichen Radio- und Fernsehanbietern und privaten Anbietern anzustellen, wie auch zwischen den verschiedenen Medienarten (Radio, Fernsehen, Zeitung) und Online-Anbietern mit einem Nachrichtenprogramm ausschließlich für ein Netzpublikum.

Literatur

Ang, Ien, 2001, Zuschauer, verzweifelt gesucht. S. 454-483, in: Ralf Adelmann, Jan O. Hesse, Judith Keilbach, Markus Stauff und Matthias Thiele (Hg.): Grundlagentexte zur Fernsehwissenschaft. Konstanz. UVK.

Anderson, Christopher W., 2011a, Between Creative and Quantified Audiences: Web Metrics and Changing Patterns of Newswork in Local US Newsrooms, Journalism 12: 550-566.

Anderson, Christopher W., 2011b, Deliberative, Agonistic, and Algorithmic Audiences: Journalism’s Vision of its Public in an Age of Audience Transparency, International Journal of Communication 5: 529–547.

Bergmann, Jörg, 1985, Flüchtigkeit und methodische Fixierung sozialer Wirklichkeit. Aufzeichnungen als Daten der interpretativen Soziologie. S. 299-320, in: Wolfgang Bonß und Heinz Hartmann (Hg.): Entzauberte Wissenschaft: Zur Relativität und Geltung soziologischer Forschung. Göttingen. Schwartz.

Boczkowski, Pablo J., 2013, The Continual Transformation of Online News in the Digital Age, Communication & Society 25: 1-26.

Bogner, Alexander, Beate Littig und Wolfgang Menz, 2014, Interviews mit Experten. Eine praxisorientierte Einführung. Wiesbaden. Springer.

Coddington, Mark, 2015, Clarifying Journalism’s Quantitative Turn. A Typology for Evaluating Data Journalism, Computational Journalism, and Computer-Assisted Reporting, Digital Journalism 3 (3): 331-348.

Couldry, Nick und Joseph Turow, 2014, Big Data, Big Questions. Advertising, Big Data and the Clearance of the Public Realm: Marketers’ New Approaches to the Content Subsidy, International Journal of Communication 8: 1710–1726.

Engel, Bernhard und Kerstin Niederauer, 2014, Quoten für Videostreaming, Media Perspektiven 11: 539-555.

Fürst, Silke, 2017, Popularität statt Relevanz? Die journalistische Orientierung an Online-Nutzungsdaten, in: Thorben Mämecke, Jan-Hendrik Passoth und Josef Wehner (Hg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz. Wiesbaden: Springer VS (im Druck).

Heintz, Bettina, 2010, Numerische Differenz. Überlegungen zu einer Soziologie des (quantitativen) Vergleichs, Zeitschrift für Soziologie 39 (3): 162–181.

Heise, Nele, Wiebke Loosen, Julius Reimer und Jan-Hinrik Schmidt, 2013, Including the Audience. Comparing the Attitudes and Expectations of Journalists and Users towards Participation in German TV News Journalism, Journalism Studies 15 (4): 411–430.

Hohlfeld, Ralf, 2013, Journalistische Beobachtungen des Publikums. S. 135-146, in: Klaus Meier und Christoph Neuberger (Hg.): Journalismusforschung. Stand und Perspektiven. Baden-Baden. Nomos.

Knoblauch, Hubert, 2001, Fokussierte Ethnographie, Sozialer Sinn 2 (1): 123–141.

Kramp, Leif, Leonhard Novy. Dennis Ballwieser und Karsten Wenzlaff (Hg.), 2013: Journalismus in der digitalen Moderne. Wiesbaden. Springer VS.

Kruse, Jan, 2014, Qualitative Interviewforschung. Ein integrativer Ansatz. Weinheim. Beltz Juventa.

Law, John, 1994, Organizing Modernity. Oxford. Blackwell.

Lowrey, Wilson und Chang Wan Woo, 2010, The News Organization in Uncertain Times. Business or Institution?, Journalism & Mass Communication Quarterly 87 (1): 41–61.

McGregor, Phil, 2007, Tracking the Online Audience. Metric Data Start a Subtle Revolution, Journalism Studies 8 (2): 280-298.

Meuser, Michael und Ulrike Nagel, 1991, ExpertInneninterviews – vielfach erprobt, wenig bedacht. Ein Beitrag zur qualitativen Methodendiskussion. S. 441-471, in: Detlef Garz (Hg.): Qualitativ-empirische Sozialforschung. Konzepte, Methoden, Analysen. Opladen. Westdeutscher Verlag.

Napoli, Philip M., 2010, Audience Evolution: New Technologies and the Transformation of Media Audiences. New York. Columbia University Press.

Neuberger, Christoph, 2009, Internet, Journalismus und Öffentlichkeit. Analyse des Medienumbruchs. S. 19-105, in: Christoph Neuberger, Christian Nuernbergk und Melanie Rischke (Hg.): Journalismus im Internet: Profession – Partizipation – Technisierung. Wiesbaden. VS Verlag.

Neuberger, Christoph und Christian Nuernbergk, 2015, Verdatete Selbstbeschreibung der Gesellschaft. Über den Umgang des Journalismus mit Big Data und Algorithmen. S. 199-224, in: Florian Süssenguth (Hg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld. Transcript.

Pariser, Eli, 2012, Filter Bubble. Wie wir im Internet entmündigt werden. München. Hanser.

Pickering, Andrew, 2007, Kybernetik und neue Ontologien. Berlin. Merve.

Selting, Margret, Peter Auer, Dagmar Barth-Weingarten, Jörg Bergmann, Pia Bergmann, Karin Birkner, Elizabeth Couper-Kuhle, Arnulf Deppermann, Peter Gilles, Susanne Günthner, Martin Hartung und Friederike Kern, 2009, Gesprächsanalytisches Transkriptionssystem 2 (GAT 2), Gesprächsforschung – Online-Zeitschrift zur verbalen Interaktion 10: 353–402.

Stark, David, 2011, The Sense of Dissonance. Accounts of Worth in Economic Life. Princeton/Oxford. Princeton University Press.

Strauss, Anselm L. und Juliet M. Corbin, 1996, Grounded theory. Grundlagen qualitativer Sozialforschung. Weinheim. Beltz.

Tandoc, Edson C., 2014, Journalism is Twerking? How Web Analytics is Changing the Process of Gatekeeping, New Media & Society 16 (4): 559-575.

Usher, Nikki, 2013, Al Jazeera English Online. Understanding Web Metrics and News Production when a Quantified Audience is not a Commodified Audience, Digital Journalism 1 (3): 335–351.

Wehner, Josef, 2010, Numerische Inklusion – Medien, Messungen und Modernisierung. S. 183-210, in: Tilmann Sutter und Alexander Mehler (Hg.): Medienwandel als Wandel von Interaktionsformen. Wiesbaden. Springer VS.

Datenverfügbarkeit

Alle relevanten Daten befinden sich innerhalb der Veröffentlichung.

Interessenskonfliktstatement

Die Autor:innen erklären, dass ihre Forschung ohne kommerzielle oder finanzielle Beziehungen durchgeführt wurde, die als potentielle Interessenskonflikte ausgelegt werden können.


  1. Wir lassen hier außer Acht, dass neben den Massenmedien selbst auch noch weitere Einrichtungen mit speziellen Erwartungen und Zielsetzungen die Nutzungsdaten beobachten und bewerten, so vor allem die Werbeindustrie und Unternehmen, die nach Plattformen für ihre Anzeigen suchen. Hinzu kommen all jene Dienstleister, die im Auftrag Nutzungsdaten erheben und auswerten. Solche Anbieter beschränken sich nicht darauf, nur Rohdaten zu liefern, sondern bieten ihren Abnehmern an, diese Daten auch aufzubereiten und mit entsprechenden Beratungsleistungen zu kombinieren. Wo auf solche Leistungen zugegriffen wird, werden Prozesse der Datenerzeugung und -auswertung wieder ausgelagert, aber auch externen Bewertungskriterien und Publikumsverständnissen eine gewisse redaktionelle Relevanz eingeräumt und mittelfristig möglicherweise sogar Kernaufgaben des Journalismus (welche Themen, welche Beitragspositionierung, welche Überschriften, welcher Beitragsumfang etc.) in Abstimmung mit Dritten bearbeitet (vgl. Tandoc 2014).↩︎

  2. So ist durchaus anzunehmen, dass neben den Redaktionen andere Funktionsbereiche der Medienorganisationen ebenfalls oder noch stärker daran interessiert sind, Wissen über das Publikum zu erlangen – und hierbei möglicherweise sogar andere Interessen verfolgen als die Journalist/innen. In diesem Sinne hält etwa Hohlfeld (2013: 203) fest, dass Programmverantwortliche Publikumsmessungen als nützlicher einschätzen, als die Programmmacher. Diese Einschätzung basiert allerdings auf einer Studie aus den 1980er Jahren – also der Zeit vor dem Internet.↩︎

  3. So wird vor allem in zahlensoziologischen Studien darauf hingewiesen, dass Messverfahren bzw. Messergebnisse und die mit ihnen verbundenen Vergleichsmöglichkeiten deshalb eine gesellschaftsweite Akzeptanz gefunden haben, weil sie im Unterschied zu qualitativen Vergleichen als wissenschaftlich begründet und objektiv gelten. Dies macht sie ungewöhnlich erfolgreich in der Herstellung kommunikativer Annahmewahrscheinlichkeiten; sie werden deshalb auch als ‚Erfolgsmedien’ beschrieben (Heintz 2010).↩︎

  4. Vergleiche hierzu die Unterscheidung rekonstruierender und registrierender Verfahren der Datenerhebung in Bergmann (1985). Bei den Interviews handelt es sich um rekonstruierende Verfahren der Datenerhebung. Das heißt, sie geben nicht das tatsächliche Geschehen in den Redaktionen und Meetings innerhalb der Organisationen wider, sondern nur (subjektive) Berichte über dieses Geschehen (vgl. auch Kruse 2014: 181). Für weitergehende Analysen zum Umgang mit den Möglichkeiten und Problemen der Publikumsmessung wären etwa teilnehmende Beobachtungen, die idealerweise audiovisuelle Aufzeichnungen des Geschehens beinhalten, sinnvoll (vgl. Abschnitt 4).↩︎

  5. Ein interessanter Vergleichsfall wären sicher auch ‚Online Only’-Nachrichtenanbieter wie Heise Online oder die Huffington Post. Entsprechende Vergleiche müssen anschließenden Untersuchungen vorbehalten bleiben. In unserem Projekt standen die Versuche der klassischen massenmedialen Anbieter im Vordergrund, das Internet als neue Distributionsplattform zu nutzen.↩︎

  6. Für diesen Beitrag wurden die Transkripte geglättet, um den Lesefluss zu verbessern.↩︎

  7. Entsprechende gezielte Forschung, die derzeit von den Autoren vorbereitet wird, würde die intensivere Feldforschung im Sinne einer fokussierten Ethnographie (vgl. Knoblauch 2001) beinhalten (vgl. Abschnitt 4).↩︎

  8. IVW steht für „Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e. V.“. Mitglieder der IVW sind Organisationen, die mit der Verbreitung von Werbeträgern zu tun haben, etwa Verlage, Radio- und Fernsehsender und Online-Anbieter. Aufgabe der IVW ist es, die Verbreitung von Werbeträgern zu messen. Bei Online-Anbietern werden hierfür sogenannte IVW-Pixel oder Zählpixel eingesetzt, um die Verbreitung von deren Angeboten zu messen. Da alle Organisationen, die Mitglieder der IVW sind, dieses Verfahren nutzen, lassen sich die durch dieses Verfahren gewonnenen Daten vergleichen; sie gelten ähnlich wie die Quote im Fernsehen als wichtige ‚Währung’.↩︎

  9. Als mitverantwortlich für die Vielfalt der existierenden Zählsysteme und Metriken im genannten Kontext kann die relative Neuheit der Möglichkeiten der Echtzeit-Beobachtung von Nutzungsverhalten im Internet angesehen werden. Web Mining-Technologien, welche entsprechende Beobachtungen ermöglichen (vgl. Wehner 2010), sind erst mit dem sogenannten Web 2.0 seit Mitte der 2000er Jahre entstanden und weiterhin im Entstehen begriffen. Wie bei vielen anderen technischen Innovationen auch, wird diese Entwicklung von konkurrierenden Unternehmen vorangetrieben, die entsprechend auch konkurrierende Verfahren und Metriken entwickeln und versuchen die eigenen Systeme zur Messung sowie die selbst verwendeten Metriken als Standard durchzusetzen. Allerdings, darauf verweist die Vielfalt der existierenden Zählsysteme und Metriken, ist eine entsprechende Standardisierung noch nicht abgeschlossen, so dass parallel unterschiedliche Beobachtungsdaten und -verfahren existieren.↩︎

  10. Bei der AGOF handelt es sich um die „Arbeitsgemeinschaft Online Forschung“ (https://www.agof.de), einen externen Dienstleister, der im Auftrag von Anwendern Nutzungsdaten erhebt und auswertet.↩︎

  11. Page Impressions zeigen an, wie viele der (Unter-)Seiten eines Webangebotes besucht worden sind. Bei Visits hingegen wird gezählt, wie viele Besuche ein Webangebot hatte. Das heißt, ein Webangebot hat weniger Visits als Page Impressions, da bei einem Visit mehrere Seiten des Angebotes angeklickt werden können. Der Wert Unique User gibt an, wie viele unterschiedliche Personen das Angebot besucht haben. Wenn ein User öfter das gleiche Angebot besucht, wird nur ein Unique User gezählt, aber mehrere Visits und – so der User denn auf mehreren Unterseiten surft – noch mehr Page Impressions.↩︎

  12. Nicht alle Verdatungsmöglichkeiten sind also im Grenzstellenbereich der Medienorganisationen angesiedelt. Für relevant gehaltene Daten werden nicht allein mit Hilfe selbstadministrierter Verdatungssysteme, sondern auch von Dritten (Plattformen wie Facebook, aber auch Dienstleistern wie Chartbeat, Omniture oder Visual Revenue) erzeugt und angeboten. Diese legen allerdings ihre Arbeitsweisen für die Datenabnehmer nicht offen. Auch wissen die Medienorganisationen nicht, wie diese Dritten mit „ihren“ Daten umgehen, für welche weiteren Verwendungszwecke sie diese nutzen und an welche Einrichtungen diese Daten weitergegeben werden. Online-Verdatung bedeutet deshalb nicht automatisch mehr Transparenz und Kontrolle in Fragen der Erzeugung und Aufbereitung der Daten.↩︎

  13. Ein solcher Mess- oder Aggregationsalgorithmus wäre – unabhängig von der Frage, ob er tatsächlich funktionieren und zu den gewünschten Ergebnissen führen würde – ebenfalls vorher zu beschließen und Gegenstand von Verhandlungen und Entscheidungen.↩︎

  14. Hierbei handelt es sich um einen weiteren Datentypus. Mit ‚Hits’ ist die Anzahl der von einem Webserver aufgerufenen Beiträge gemeint.↩︎

  15. Vgl. hierzu https://de-de.facebook.com/help/327131014036297/ [Stand: 28.10.2016].↩︎

Downloads

Zitationen
7
1
7 von Crossref erfasste Zitate
  
  1. Das sichtbare Publikum?
    Marc Mölders (2023)
    Book content
    DOI: 10.1007/978-3-658-41172-5_6

  2. Das sichtbare Publikum?
    Wiebke Loosen (2023)
    Book content
    DOI: 10.1007/978-3-658-41172-5_2

  3. Das sichtbare Publikum?
    Josef Wehner (2023)
    Book content
    DOI: 10.1007/978-3-658-41172-5_4

  4. Das sichtbare Publikum?
    Nils Matzner et al. (2023)
    Book content
    DOI: 10.1007/978-3-658-41172-5_9

  5. Publikumsbeobachtung im digitalen Wandel
    (2023)
    Book
    DOI: 10.14361/9783839466094

  6. Das sichtbare Publikum?
    Karsten Pieper (2023)
    Book content
    DOI: 10.1007/978-3-658-41172-5_5

  7. Das sichtbare Publikum?
    Florian Muhle (2023)
    Book content
    DOI: 10.1007/978-3-658-41172-5_7

1 von Semantic Scholar erfasste Zitate
  
  1. Publikumsbeobachtung im digitalen Wandel
    Karsten Pieper (2023)
    Arbeit und Organisation
    DOI: 10.14361/9783839466094

Metriken
Views/Downloads
  • Abstract
    509
  • HTML
    24
  • PDF
    274
Weitere Informationen

Erhalten

2016-11-01

Akzeptiert

2017-02-01

Veröffentlicht

2017-05-01