Maschinensprache versus Journalismus?!
Wie (generative) KI den gesellschaftlichen Diskurs verändert
DOI:
https://doi.org/10.15460/apimagazin.2026.7.1.265Schlagworte:
Künstliche Intelligenz, Journalismus, Demokratischer Diskurs, TransparenzBegutachtung
Abstract
Die Integration Künstlicher Intelligenz (KI) in den Journalismus eröffnet Chancen, stellt jedoch zugleich eine ernsthafte Herausforderung für den demokratischen Diskurs dar. KI-gestützte Anwendungen können die Bekämpfung von Falschinformationen unterstützen. Sie bergen aber auch Risiken, die von der Machtkonzentration bei wenigen US-Plattformen bis hin zur Verstärkung von Vorurteilen reichen. Die mangelnde Transparenz algorithmischer Entscheidungsprozesse bei der Themengewichtung kann den pluralistischen Charakter der Öffentlichkeit gefährden. Ein Beitrag zur zentralen Frage, ob KI-basierte Systeme die journalistischen Grundsätze von Qualität, Verantwortung und Unabhängigkeit wahren können – oder ob sie diese langfristig unterminieren.
1 Automatisierte Nachrichtenstellung als Vorläufer der generativen KI
In einigen deutschen Nachrichtenredaktionen gehört der Einsatz von automatisierten Prozessen zur Textgenerierung längst zum Standard (Becker 2023: 143; Bieber u. a. 2023: 11). Häufige Anwendungsbereiche sind Sport-, Finanz-, Wetter- und Verkehrsnachrichten, da sich diese durch eine hohe Datenverfügbarkeit und standardisierte Berichterstattungsmuster auszeichnen (Beckett 2019: 25; Körner 2024: 44f). Ein weiterer Anwendungsbereich ist die automatisierte Erstellung und Veröffentlichung von Beiträgen in Sozialen Medien durch Nachrichtenmedien, wie aus einer globalen Umfrage unter Journalist*innen hervorgeht (Beckett 2019: 24).
Der ‚automatisierte Journalismus’ folgt dem ‚Eingabe-Verarbeitungs-Ausgabemodell’, das die Erhebung von Daten, die Verarbeitung durch Algorithmen und die Textausgabe umfasst . Nach Haim und Graefe (Graefe u. a. 2018: 141) erfordert dieser Prozess hinreichend strukturierte Daten als Input, wobei die anschließende Verarbeitung ohne menschliches Zutun erfolgt. Die Grenzen des Modells liegen in der notwendigen journalistischen Mitwirkung bei der Datenverarbeitung und dem Training der Algorithmen. Darüber hinaus lassen sich hybride Texte von rein automatisiert erstellten Texten unterscheiden. Die hybride Form kombiniert menschliche Fähigkeiten zur Kontextualisierung und Qualitätskontrolle mit algorithmischem Output (Bieber u. a. 2023: 2; Körner 2024: 28). Ein Beispiel hierfür ist ‚Reporters and data and robots’ (RADAR) der Press Association. Das Angebot kombiniert die Fähigkeiten von Menschen und Maschinen, um große Datenmengen zu analysieren und daraus lokalisierte Nachrichten für bestimmte Zielgruppen zu generieren (Beckett 2019: 25; Wellner 2025: 6).
„Large Language Model” (LLM)-Systeme hingegen generieren Texte vollständig neu, basierend auf maschinellem Lernen und neuronalen Netzen, um kontextbezogene Texte in natürlicher Sprache zu erstellen. An dieser Stelle lässt sich der Unterschied zwischen automatisiertem und KI-Journalismus festhalten: Im Vergleich zu ‚einfachen’ Automatisierungstechnologien können mit Hilfe von Natural Language Generation (NLG)-Systemen und generativer KI nicht nur bestehende Informationen analysiert, sondern auf Basis dieser Analysen auch neue Inhalte erstellt werden. Damit geht KI-Journalismus über die reine Automatisierung hinaus und ermöglicht die Erfüllung journalistischer Aufgaben, die traditionell menschliches Urteilsvermögen und kreative Fähigkeiten erfordern.
2 Einsatz von KI im Journalismus
Die Medienlandschaft befindet sich in einem anhaltenden Veränderungsprozess. Ein zentraler Aspekt dieser Transformation ist die Auflösung des traditionellen Gatekeeper-Monopols journalistischer Akteur*innen. Der Journalismus in Deutschland kann als soziales System verstanden werden, das (immer noch) eine exklusive Funktion für die Gesellschaft erfüllt. Eine seiner wichtigsten Funktionen ist das Sichern von Meinungsbildung und Meinungspluralismus in der Gesellschaft, zu dem Medieninhalte in jeglicher Form beitragen sollen (Schweiger 2017: 35). In seiner Rolle der professionellen Fremdbeobachtung verschiedener gesellschaftlicher Bereiche, Prozesse und Themen, die relevant für die öffentliche Kommunikation sind, ist der Journalismus für die Verbreitung von Informationen für den öffentlichen Diskurs von zentraler Bedeutung. Informationen können dabei als „Aussage über die Realität, die für den Empfänger der Information eine gewisse Relevanz hat” (Schweiger 2017: 27) definiert werden. Der Wert einer Nachricht bemisst sich dabei meist nach bestimmten Nachrichtenfaktoren, die dem Inhalt eine mediale Bedeutung zuweisen.
Künstliche Intelligenz hat das Potenzial den Journalismus erheblich zu verändern, was die Inhalte und die Arbeit der Journalist*innen betrifft. Anwendungsgebiete finden sich im Bereich der Recherche, Distribution, Produktion und Texterstellung. Kontrollierten in der Vergangenheit wenige große Medienhäuser den Informationsfluss, haben alternative Angebote wie Soziale Plattformen als ‚vermittelnde Dritte’ diesen Einfluss bereits reduziert. Auf Sozialen Plattformen entsteht ein sogenannter ‚Netzwerkjournalismus’ als „Knoten in einem weit verzweigten, dezentralen und dynamischen öffentlichen Netzwerk, in dem er im interaktiven Austausch mit Quellen und Publikum steht” (Neuberger 2022: 172). Es ist davon auszugehen, dass sich dieser Trend mit der Einführung von Automatisierungstechnologien, insbesondere der generativen KI, weiter verstärken wird. Denn neue Technologien wie ChatGPT erweitern die Möglichkeiten der Informationsabfrage und -produktion erheblich, was zu einer Vielzahl neuer Informationsangebote führt und gleichzeitig zu einer zunehmenden Unübersichtlichkeit und Fragmentierung der Information beiträgt.
Die Integration moderner Technologien in alle Bereiche der journalistischen Praxis lässt sich unter dem Begriff ‚Computational Journalism’ zusammenfassen (Graefe u. a. 2018: 140; Körner 2024: 16). In einigen deutschen Nachrichtenredaktionen gehört der Einsatz von automatisierten Prozessen zur Textgenerierung längst zum Standard (Bieber u. a. 2023). Nachrichtendienste haben Zugriff auf fortschrittliche Tools von Retresco,1 die datenbasierte Textmodelle und große Sprachmodelle kombinieren. Damit können Texte in Echtzeit und kanalübergreifend für verschiedene Zielgruppen umgeschrieben werden. Die Plattform textengine.io2 wird unter anderem von Nachrichtenmedien zur Erstellung von Texten auf Basis von Templates und datenbasierten Modellen ermöglicht. So können KI-Systeme qualitative Texte generieren, die eine hohe Ähnlichkeit zu menschlich verfassten Texten aufweisen: In einer Umfrage auf dem Nachrichtenportal ‚kress’ ist nur eine Minderheit der Leser*innen (39 Prozent) aufgefallen, dass der Text von einer KI und nicht von einem Menschen erstellt wurde.3
2.1 Vorteile der Automatisierung des Journalismus durch KI
2.1.1 In der Recherche
Der Einsatz von Künstlicher Intelligenz kann in der Recherche Ressourcen und Zeit sparen. Indem Algorithmen große Datenmengen rasant verarbeiten, werden Kosten und Zeit eingespart und die Effektivität gesteigert. Archive von Nachrichtenredaktionen und Rundfunkanstalten bilden beispielsweise große Datenmengen, die von einer KI erschlossen und verschlagwortet werden kann. KI-Systeme können Informationen in einem großen Umfang für verschiedene Zwecke kategorisieren. Insgesamt wird die Suche von Quellen und die Extraktion von Informationen vereinfacht, denn Datenmengen können heutzutage ohne technische Hilfe kaum mehr überblickt werden (Beckett 2019: 25; Körner 2024: 22).
Vor diesem Hintergrund sind zusätzlich die Identifikation von Trends (Beckett 2019: 22) sowie von Falschnachrichten und Deepfakes effektive Einsatzmöglichkeiten (Bieber u. a. 2023: 25). Die überregionale Zeitung „The Times” aus London nutzt das KI-gesteuerte Tool namens JAMES,4 um Leserpräferenzen zu erkennen und personalisierte Inhalte bereitzustellen.5 Diese Art von Technologie zielt darauf ab, Leser*innen „besser” zu verstehen und ihnen individuelle Nachrichten bereitzustellen. Und führt zu einer höheren Leserzufriedenheit und zu einer geringeren Kündigungsrate bei Abonnent*innen (Kunova 2019). Der T-Online-Chefredakteur und Geschäftsführer Florian Harms und sein Entwicklungschef Robert Hiersemann berichteten jüngst in Kress Pro, dass inzwischen über 100 KI-Assistenten in der Redaktion zum Einsatz kommen und dass für deren Einsatz im redaktionellen Alltag „alle Redakteure einzeln geschult” wurden (kress pro 2025).
Der sogenannte Prompt-Journalismus bezieht sich auf eine neue Form der Nachrichtenbeschaffung und -verbreitung, die durch den Einsatz von KI ermöglicht wird. Dabei formulieren Journalist*innen gezielte Anfragen, sogenannte Prompts, an KI-Modelle wie ChatGPT, um umfassende Antworten auf spezifische Fragen zu erhalten. Diese Daten, die nicht mehr auf Basis von robust recherchierten Informationen gesammelt werden, bieten oft eine schnelle und effiziente Möglichkeit, sich über aktuelle Ereignisse zu orientieren und informieren.6 Anders als herkömmliche Suchmaschinenanfragen, erfordern Prompts eine genauere Formulierung, um relevante und qualitativ hochwertige Ergebnisse zu erzielen. Zusätzlich können spezifische Prompts verwendet werden, um ChatGPT spezifische Anweisungen zu geben (Brown u. a. 2020: 6). So kann ChatGPT anhand spezifischer Daten oder Beispiele trainiert werden (Zero-Shot-, One Shot- und Few-Shot-Learning)7, um den „richtigen Ton” zu treffen und beispielsweise eine formale oder freundliche Tonalität zu verwenden.8
2.1.2 In der Produktion
Dieser Ansatz nutzt KI, um Nachrichten zu schreiben, die von menschlich verfassten Texten kaum noch zu unterscheiden sind (Beckett 2019: 57; Bieber u. a. 2023: 11). Sport- oder Wetternachrichten werden beispielsweise schon regelbasiert durch eine KI geschrieben. Beispiele für solche automatisierten Systeme sind „Wordsmith” von Automated Insights,9 das von der Associated Press für Sport- und Marktberichte verwendet wird, oder das Tool „Heliograf”, welches ebenfalls autonome Sportnachrichten und Wahlberichterstattungen für die Washington Post erstellt.10 Die Redaktion „Rheinpfalz” setzt seit 2024 das KI-System „AI Content Assistant” ein, um Texte zu bearbeiten. So können Artikel von Freien oder Pressemitteilungen schneller redigiert werden (kress pro 2025).
Newsrooms produzieren mit KI Tools automatisierte Inhalte oder moderieren damit Kommentare auf sozialen Medien (Kunova 2019). Ein Beispiel dafür ist das Tool „FactFox”,11 welches Faktenchecks automatisiert und hilft, die Verbreitung von Falschinformationen zu reduzieren. Es wurde von Journalist*innen der BR24-App entwickelt,12 um Community Managern das Beantworten von Kommentaren zu erleichtern. Dieses Tool zeigt, wie KI die Effizienz im Newsroom erhöhen und gleichzeitig die Qualität der Berichterstattung verbessern kann. Diese Automatisierung kann Journalist*innen unterstützen, sich auf tiefere, investigative und analytischere Berichterstattung zu konzentrieren (Pfalzgraf 2023).
Die von der Reporterfabrik entwickelte „Wolf-Schneider-KI” (WSKI),13 zielt darauf ab, Texte stilistisch zu optimieren. Die Grundlage dieser KI sind die Schreibregeln des renommierten Journalisten Wolf Schneider. Sie hilft dabei Autor*innen, ihre Texte klarer und prägnanter zu gestalten. Neben der Textverbesserung kann die KI, welche auf dem Large Language Model ChatGPT von OpenAI basiert, auch Überschriften finden und Teaser generieren (Pfalzgraf 2023).
2.1.3 In der Distribution
Zuletzt kann KI auch bei der Distribution von Inhalten in verschiedener Weise zum Einsatz kommen. Beckett definiert als Ziel beim Einsatz von KI in der Distribution: „ (…) connecting better created content more effectively to audiences, who in turn would be more engaged and prepared to pay attention, or money, for journalism” (Beckett 2019: 21). Dies geschieht beispielsweise in Form von Personalisierung, Marketing, der Vermittlung an die entsprechende Zielgruppe, Monetarisierung, Erstellung von Untertiteln und anhand einer Analyse von Nutzerverhalten.14 Mit der Personalisierung von Inhalten können Algorithmen das Informationsangebot so weit zuschneiden, dass Rezipient*innen eine hochspezialisierte Nutzung erlaubt wird und fast ausschließlich Inhalte angezeigt bekommen, die ihrer eigenen Meinung entsprechen und ihr Weltbild bestätigen (Schweiger 2017: 86f.).
Personalisierung ist eine Strategie, um Nutzer*innen auf den entsprechenden Websites länger zu halten und Daten über sie zu sammeln (Thurman und Schifferes 2012). Darüber hinaus kann KI auch bei der direkten Interaktion mit Rezipient*innen eingesetzt werden, beispielsweise in Form einer Moderation von Kommentaren.15 Dies sorgt für mehr Engagement auf Seite der Rezipient*innen (Beckett 2019: 27). Auf Basis von Analysen kann KI außerdem eine Einschätzung darüber liefern, wie viel Reichweite ein Beitrag generiert und bei welchen Inhalten es sich folglich lohnen könnte, Bezahlschranken einzurichten (Bieber u. a. 2023: 15).
2.2 Nachteile der Automatisierung des Journalismus durch KI
KI-Chatbots unterstützen Redaktionen zunehmend bei der Themenfindung, Texterstellung und Suchmaschinenoptimierung. Dies hilft in einer Zeit, in der die Informationsflut zunimmt und der Druck auf Redaktionen steigt, laufend qualitativ hochwertige Inhalte zu liefern (Vitlif 2023). Hier besteht die Gefahr, dass Journalist*innen sich vollständig auf die KI generierten Antworten verlassen und die Originalquellen nicht mehr konsultieren, was zu einem Vertrauensverlust für die der Medienunternehmen führen könnte (Meier 2023). Andererseits gibt es Bedenken hinsichtlich der Transparenz, da unklar ist, wie die KI-Modelle trainiert wurden und welche Inhalte sie genau nutzen.16 Aufgrund dessen müssen KI-Systeme mit qualitativ hochwertigen Daten gefüttert werden, um zuverlässige und genaue Texte zu erzeugen (Dierickx u. a. 2023: 218). Es ist daher entscheidend, dass die Ergebnisse von KI-Chatbots überprüft werden, um sicherzustellen, dass sie journalistischen und ethischen Standards entsprechen (Vitlif 2023).
2.2.1 Unpassende Tonalität
ChatGPT lernt durch die Analyse der bereitgestellten Daten, wie verschiedene Tonalitäten in unterschiedlichen Kontexten verwendet werden, indem es Muster in der Sprache erkennt und reproduziert (Zumbühl 2024). Im ‚Fine Tuning’ werden die Datensätze auf spezifische Stile, Fachgebiete oder Anwendungsfälle abgestimmt, wodurch die Sprache und Tonalität von ChatGPT an ausgewählte Kontexte angepasst werden können (Kontextabhängigkeit). Zumbühl beschreibt den Prozess des ‚Reinforcement Learning with Human Feedback’ im Kontext der Tonalität als ‚adaptives Lernen’, bei dem Nutzende Feedback zu den generierten Antworten geben. Zusätzlich können spezifische Prompts verwendet werden, um ChatGPT spezifische Anweisungen zu geben: Zero-Shot-, One Shot- und Few-Shot-Learning, um den ‚richtigen Ton’ zu treffen und beispielsweise eine formale oder freundliche Tonalität zu verwenden.17
Herausforderungen bestehen bei der Maschine vor allem in der Erfassung subtiler menschlicher Tonalitäten und kontextueller Besonderheiten, die Chatbots wie ChatGPT oft nicht vollständig verstehen (Zumbühl 2024). Ironie und Sarkasmus können missverstanden werden und zu Kommunikationsfehlern führen. Darüber hinaus variiert die Tonalität in verschiedenen Kulturen stark, was ebenfalls zu Missverständnissen führen kann, wenn kulturelle Nuancen nicht erkannt und angepasst werden (Zumbühl 2024). Außerdem können ChatGPT und Co. Schwierigkeiten haben, Emotionalitäten hinter menschlichen Ausdrücken richtig zu interpretieren (Zumbühl 2024). Eine ungenaue Emotionserkennung kann zu unangemessenen Antworten und einer unpassenden Tonalität führen. Fragt man bei ChatGPT selbst nach, ob die Maschine Emotionen verstehen kann, erhält man folgende Antwort: „ChatGPT kann Emotionen erkennen und sprachlich darauf reagieren – aber sie nicht wirklich fühlen oder verstehen wie ein Mensch.”
2.2.2 Verstärkung von Vorurteilen
Eine weitere Gefahr besteht in der Übernahme von Vorurteilen (Bias) aus den Trainingsdaten, wenn diese kulturelle, soziale oder geschlechtsspezifische Stereotype enthalten (Beckett 2019: 58). Oder wie von Meckel und Steinacker gezeigt, die Inhalte der Trainingsdaten (zunehmend) kontaminiert sind und es sich nicht mehr um Originaldaten handelt, sondern um Remixe aus KI-generierten Texten und (auslaufenden) Originalquellen.18 Hier gilt: Die Genauigkeit der Ergebnisse hängt stark von den Trainingsdaten ab. Beim ‚Reinforcement Learning from Human Feedback’ (RLHF) wird das Modell zwar ständig durch menschliches Feedback optimiert und daran gekoppelte Belohnungen und Bestrafungen verwendet Fischer 2024, zitiert nach (Wellner 2025: 16). OpenAI verwendet ein trainiertes Belohnungsmodell, das auf menschlichen Präferenzen aus realen Gesprächsdaten basiert (Gao u. a. 2022: 2). Dennoch kann es zu Verzerrungen kommen und die Art und Weise beeinflussen, wie das Modell antwortet und bestimmte Tonalitäten bevorzugt oder unangemessen anwendet (Beckett 2019: 57f.; Brown u. a. 2020: 36ff.). Da Algorithmen häufig bestehende Stereotype und Diskriminierungsmuster reproduzieren, kann es zu einer verzerrten Darstellung der Realität kommen.19 Brown u.a. haben festgestellt, dass GPT-3-Modelle Geschlechter- und Herkunftsbias aufweisen, indem sie Berufe häufiger mit männlichen Identifikatoren und bestimmte Ethnien oder Religionen negativ konnotiert darstellen. Es ist daher wichtig, Vorurteile zu erkennen und zu minimieren, um eine faire und konsistente Tonalität zu gewährleisten.20
2.2.3 Fehlinformationen und Halluzinationen
Generative KI kann damit die Verbreitung von Desinformationen begünstigen. Die Verbreitung von Fehlinformationen stellt eine große Gefahr dar, da „Chatbots nur zufällig richtige Antworten produzieren” (Bai u. a. 2025: 26; Wellner 2025: 13). Sie generieren Texte aufBasis von Wahrscheinlichkeiten und können statistisch plausible, aberfaktisch falsche Informationen erzeugen. Eine mögliche Ursache ist unzureichendes Training trotz erfolgreicher Tonalitätskontrolle. Unvollständige, veraltete oder verzerrte Trainingsdaten können dazu führen, dass das Modell fehlerhafte Muster lernt und Halluzinationen erzeugt (Bai u. a. 2025: 7f.). Dies ist besonders im Kontext demokratischer Prozesse bedenklich: Die Enquete-Kommission Künstliche Intelligenz (2022) nennt beispielhaft die Präsidentschaftswahlen in den USA im Jahr 2016, bei denen Facebook politische Anzeigen mit falschen Inhalten aus Kremlnahen Quellen identifizieren musste (U.S. Select Comitee on Intelligence 2020).
Halluzinationen treten insbesondere bei komplexen oder spezifischen Anfragen auf, die präzise Detailinformationen erfordern (Bai u. a. 2025: 7f.). Halluzinationen können schwerwiegende Folgen haben, da sie häufig als wahr angenommen werden (Bai u. a. 2025: 1). Ein Beispiel hierfür ist die Erfindung von Gerichtsakten durch ChatGPT im Jahr 2023.21
2.2.4 Deep-Fakes
Darüber hinaus schaffen generative KI-Modelle auch neue Möglichkeiten für die Erstellung und Verbreitung von Deep Fakes. Der Begriff setzt sich aus ‚Deep Learning’ und ‚Fake’ zusammen und beschreibt Audio- und Videoinhalte, die Handlungen oder Aussagen realer Personen darstellen, die diese nie gemacht haben (Deutscher Bundestag 2020: 235). Der mehrstufige Trainingsprozess wird, ebenso wie bei der Generierung von Fake News, gezielt manipuliert. Dafür ist eine kritische Masse an Rohdaten wie Fotos und Videos erforderlich. „Maschinelles Lernen ist das perfekte Werkzeug für die Generierung von Deepfakes und gefälschten Inhalten. Dies wird ein großes Problem für Nachrichten und glaubwürdige Medien darstellen. Auch die Überprüfung von Inhalten wird viel schwieriger und/oder werkzeugabhängig werden”, so eine anonyme Antwort im Rahmen einer globalen Umfrage von Journalist*innen (Beckett 2019: 24).
Fazit: Obwohl KI-Technologien auch zur Bekämpfung von Falschinformationen genutzt werden können, besteht weiterhin das Risiko, dass sie zur gezielten Verbreitung von Desinformation missbraucht werden.22 Die damit einhergehende Konzentration von Macht und Ressourcen in wenigen Händen könnte die Vielfalt der Meinungen einschränken und den Zugang zu unabhängigen Informationen erschweren.23 Dazu gibt es Bedenken hinsichtlich der Aussagen und Originalität der generierten Texte. KI Texte basieren auf Wahrscheinlichkeiten und können statistisch plausible, aber faktisch falsche Informationen und also Falschinformationen erzeugen. Wenn KI-Modelle von KI-generierten Texten lernen, dann „kollabiert” die Vielfalt und Inhalte würden zunehmend eintönig und stereotypehaft werden. Der Deutsche Journalisten Verband (DJV) mahnt die Zeitungs- und Zeitschriftenverlage in Deutschland, Journalistinnen und Journalisten nicht durch Künstliche Intelligenz zu ersetzen: „Der Qualitätsjournalismus lebt von menschlicher Recherche. Generative KI, die nur wiederkäut, was bereits gedacht und gesagt wurde, kann keine neuen Perspektiven schaffen”, erklärt auch DJV-Bundesvorsitzender Mika Beuster.24
3 Richtlinien in Redaktionen am Beispiel des NDR
Obwohl es beim Norddeutschen Rundfunk (NDR), eine Landesrundfunkanstalt, derzeit noch keine fertige KI-Strategie gibt, wird Wert auf das Ausprobieren und Testen von neuen KI-Anwendungen gelegt. Eine der ersten war die Entwicklung von KI-Leitlinien, die den Rahmen für den Einsatz von KI im NDR abstecken. Diese Leitlinien definieren, wie und unter welchen Bedingungen KI zum Einsatz kommen darf, und betonen die Notwendigkeit, ethische und rechtliche Aspekte zu berücksichtigen.25
Die acht Leitlinien umfassen: Redaktionelle Verantwortung, Menschliche Kontrolle, Transparenz, Informationssicherheit und Datenschutz, Robuste und sichere KI, Geistiges Eigentum, Talente und Kompetenzen sowie Evaluation. Die redaktionelle Verantwortung umfasst hierbei die journalistischen Grundsätze, welche konsequent eingehalten werden sollen, mit persönlicher Prüfung aller Inhalte vor der Veröffentlichung. Bei der Nutzung von KI wird besonders auf journalistische Sorgfalt geachtet, um Risiken wie Fehlentscheidungen oder Fehlinformationen zu vermeiden. Inzwischen gibt es einen verpflichtenden KI-Führerschein für alle NDR-Mitarbeitenden, die mit generativer KI arbeiten. Dieses Lernmodul vermittelt grundlegende Kenntnisse über KI-Anwendungen, ethische Leitlinien sowie Sicherheits- und Datenschutzrichtlinien.
Der NDR übernimmt dabei die redaktionelle Verantwortung für die Berichterstattung über den Einsatz von KI. Die Menschliche Kontrolle greift vor der Veröffentlichung jedes Inhaltes, der mithilfe von KI erstellt wurde. Dieses Konzept wird als "human-in-the-loop" bezeichnet, bei dem der Mensch die Entscheidung zur Veröffentlichung trifft und die Verantwortung trägt. In einigen Fällen reichen vorab Plausibilitätsprüfungen durch Menschen aus, zum Beispiel bei Formatänderungen oder regelbasierten Automatisierungen. Für die richtige Kennzeichnung KI-generierter Inhalte ist die Transparenz maßgeblich.
Für die Informationssicherheit und den Datenschutz, setzt der NDR einen verantwortungsvollen Umgang mit dienstlichen Informationen und integraler Daten voraus. Grundsätze der Informationssicherheit und des Datenschutzes wie Vertraulichkeit, Integrität sind einzuhalten. Es wird auf robuste KI gesetzt, die Risiken minimiert. Die KI soll in allen Entwicklungs- und Betriebsphasen kontrollierbar sein und Mechanismen zur Verbesserung von Zuverlässigkeit, Genauigkeit, Faktentreue, Vielfalt, Fairness und Nachvollziehbarkeit beinhalten. Falls nötig, wird die KI mit eigenen Trainingsdaten nachtrainiert, um den Werten und Grundsätzen des NDR zu entsprechen. Dabei achtet der NDR sowohl den Schutz persönlicher geistiger Schöpfung als auch die wirtschaftlichen Grundlagen. Die Leitlinie Talente und Kompetenzen umfasst hierbei die Unterstützung beim Aufbau von Wissen über KI und bietet Möglichkeiten, diese Technologie zielgerichtet und geschützt auszuprobieren. Durch gezielte Bildungsangebote sollen die Mitarbeiter*innen verantwortungsvoll und souverän mit KI umgehen können.26
4 Fazit
Die Debatte um die Rolle von Künstlicher Intelligenz im Journalismus berührt einen zentralen Aspekt der Gesellschaft. Gerade wenn es um die damit einhergehende Demokratie-Debatte geht und den öffentlichen aufgeklärten Diskurs. Obwohl KI-Tools zur Bekämpfung von Falschinformationen eingesetzt werden können, bleibt das Risiko bestehen, dass die Technologie missbraucht wird, um Desinformation zu verbreiten.27
Ein weiteres Problem ist die Monopolstellung bestimmter KI-Plattformen, wie etwa ChatGPT, die durch Kooperationen mit großen Technologiekonzernen verstärkt wird.28 Diese Konzentration von Macht und Ressourcen in den Händen weniger Akteure könnte dazu führen, dass die Vielfalt der Meinungen und der Zugang zu unabhängigen Informationen eingeschränkt werden. Zudem zeigt die Erfahrung, dass europäische Initiativen oft hinter amerikanischen Entwicklungen zurückbleiben, was die Abhängigkeit von externen Technologien verstärken könnte.29
Auch die Gefahr von unbewussten Vorurteilen, die durch KI verstärkt werden können, stellt eine Gefährdung dar. Algorithmen reproduzieren oft bestehende Vorurteile und Diskriminierungen, was zu einer verzerrten Darstellung der Realität führen kann.30 Dies könnte dazu führen, dass bestimmte Themen überbewertet und andere vernachlässigt werden, was den pluralistischen Charakter der datengetriebenen Medienkommunikation und damit den öffentlichen Diskurs gefährdet.
Die mangelnde Transparenz und die Unfähigkeit, die Entscheidungsprozesse der KI vollständig nachzuvollziehen, verstärken dieses Risiko (Calvo-Rubio und Rojas-Torrijos 2024: 252). Die sogenannten „Unconscious Bias” können besonders dann kritisch sein, wenn es um die Bewertung und Auswahl von Nachrichteninhalten geht, da bestimmte Gruppen oder Themen systematisch benachteiligt werden könnten.31 Dazu ist der Zugriff auf Quellen aus dem Internet noch nicht ausgereift und nicht vollständig nachzuvollziehen.
Der Hauptunterschied zwischen KI-generierten und menschlichen Texten liegt jedoch in der Art und Weise der Erstellung. Bei der KI-Nachricht basieren die Informationen auf vordefinierten Datenquellen und algorithmischer Verarbeitung. Traditionell wird Journalismus dagegen als eine menschliche kreative wie reflexive Tätigkeit angesehen. Die Berichterstattung, Analyse und Interpretation von Ereignissen durch Menschen erfolgt anhand von Recherchen in Originalquellen. Mit der Einführung von KI-generierten Texten stellt sich die Frage, ob diese Form der automatisierten Berichterstattung die journalistischen Grundsätze und Werte, wie etwa die Verpflichtung zur ethischen Berichterstattung, einhalten kann oder langfristig unterläuft (Bieber u. a. 2023: 3; Graefe u. a. 2018: 595; Zvereva 2020: 10). Auch besteht die Gefahr, dass viele journalistische Arbeitsplätze durch Maschinen ersetzt werden, was zu einer Entmenschlichung des Berufs führen kann.32
Die Förderung des Qualitätsjournalismus durch den Einsatz von künstlicher KI kann hingegen auch zahlreiche Chancen bieten. Obwohl die Personalisierung von Nachrichten als eine der größten Gefahren für die Berichterstattung gesehen wird, gilt sie ebenso als eine der fördernden innovativen Anwendungen von KI im Journalismus. Durch Algorithmen können Inhalte individuell auf die Bedürfnisse und Vorlieben der Rezipient*innen zugeschnitten werden. Dies ermöglicht es, Informationen effizienter zu vermitteln und die Rezipient*innen stärker zu binden.33
Ein weiterer Vorteil von KI im Journalismus ist die Verbesserung der Rechercheprozesse. Tools wie „Geospy”,34 die Fotos auf ihren Aufnahmeort hin analysieren können, erleichtern die Überprüfung und Verifizierung von Informationen. Dies kann zu einer schnelleren und präziseren Berichterstattung führen, da Journalist*innen ihre Zeit effizienter nutzen können. Darüber hinaus können KI-basierte Textverarbeitungsprogramme wie „Lexpage”35 oder das Redigiertool WSKI von Reporterfabrik Texte verbessern und Feedback geben, was die Qualität der journalistischen Inhalte weiter steigert.36
KI kann dabei auch kreative Prozesse innerhalb von Redaktionen unterstützen. Durch die Analyse von Nutzerdaten und das Erstellen von Prototypen können neue journalistische Formate entwickelt werden, die besser auf die Bedürfnisse der Zielgruppen abgestimmt sind. Beispielsweise kann eine KI dabei helfen, Formate zu entwickeln, die junge Erwachsene ansprechen, indem sie Elemente aus verschiedenen erfolgreichen Konzepten kombiniert.37
Der Einsatz von KI erfordert ein tiefes Verständnis der verschiedenen Tools und deren Anwendungsmöglichkeiten. Ohne die kritische Überprüfung durch erfahrene Journalist*innen besteht die Gefahr, dass die Qualität der Berichterstattung leidet und der öffentliche Diskurs oberflächlich oder verzerrt wird, was unmittelbare Auswirkungen auf den demokratischen Diskurs und damit auf unsere Demokratische Verfassung hat.
Literatur
Bai, Zechen; Wang, Pichao; Xiao, Tianjun; u. a. (2025): Hallucination of Multimodal Large Language Models: A Survey, arXiv, doi: 10.48550/arXiv.2404.18930.
Becker, Kim Björn (2023): Neues Spiel, neue Regeln, in: Journalistik, doi: 10.1453/2569-152X-22023-13378-de.
Beckett, Charlie (2019): New powers, new responsibilities: A global survey of journalism and artificial intelligence, [online] https://blogs.lse.ac.uk/polis/2019/11/18/new-powers-new-responsibilities/ [21.01.2026].
Bieber, Prof Dr Christoph; Heesen, PD Dr Jessica; Lauber-Rönsberg, Prof Dr Anne; u. a. (2023): Künstliche Intelligenz im Journalismus: Potenziale und Herausforderungen für Medienschaffende, München: Lernende Systeme - Die Plattform für Künstliche Intelligenz.
Brown, Tom B.; Mann, Benjamin; Ryder, Nick; u. a. (2020): Language Models Are Few-Shot Learners, arXiv, doi: 10.48550/arXiv.2005.14165.
Calvo-Rubio, Luis-Mauricio; Rojas-Torrijos, José-Luis (2024): Criteria for Journalistic Quality in the Use of Artificial Intelligence, in: Communication & Society, S. 247–259, doi: 10.15581/003.37.2.247-259.
Deutscher Bundestag (2020): Unterrichtung Der Enquete-Komission Künstliche Intelligenz - Gesellschaftliche Verantwortung Und Wirtschaftliche, Soziale Und Ökologische Potenziale, (Drucksache 19/23700), Deutscher Bundestag.
Dierickx, Laurence; Lindén, Carl-Gustav; Opdahl, Andreas L.; u. a. (2023): AI in the Newsroom: A Data Quality Assessment Framework for Employing Machine Learning in Journalistic Workflows, in: CARMA 2023 - 5th International Conference on Advanced Research Methods and Analytics.
Gao, Leo; Schulman, John; Hilton, Jacob (2022): Scaling Laws for Reward Model Overoptimization, arXiv, doi: 10.48550/arXiv.2210.10760.
Graefe, Andreas; Haim, Mario; Haarmann, Bastian; u. a. (2018): Readers’ Perception of Computer-Generated News: Credibility, Expertise, and Readability, in: Journalism, SAGE Publications, Jg. 19, Nr. 5, S. 595–610, doi: 10.1177/1464884916641269.
Körner, Theresa (2024): Generalisiertes Vertrauen in automatisierten Journalismus: Bedeutung und Einflussfaktoren auf das Vertrauen deutscher Leser*innen, Wiesbaden: Springer Fachmedien, doi: 10.1007/978-3-658-42735-1.
kress pro (2025): Wie Medien von KI-Assistenzen profitieren, in: kress pro: Das Magazin für Führungskräfte bei Medien, Jg. 04/2025.
Kunova, Marcela (2019): The Times Employs an AI-powered ’digital Butler’ JAMES to Serve Personalised News, Journalism UK, https://www.journalism.co.uk/the-times-employs-an-ai-powered-digital-butler-james-to-serve-personalised-news/.
Meier, Christian (2023): Künstliche Intelligenz: Die Ära des Prompt-Journalismus - WELT, DIE WELT, https://www.welt.de/kultur/medien/article249096126/Kuenstliche-Intelligenz-Die-Aera-des-Prompt-Journalismus.html [01.12.2025].
Neuberger, Christoph (2022): Journalismus und Plattformen als vermittelnde Dritte in der digitalen Öffentlichkeit, in: KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 74, Nr. 1, S. 159–181, doi: 10.1007/s11577-022-00832-9.
Pfalzgraf, Maren (2023): Wolf-Schneider-KI ist online, correctiv.org.
Schweiger, Wolfgang (2017): Nachrichtenjournalismus, Alternative Und Soziale Medien, in:, S. 27–68, doi: 10.1007/978-3-658-16058-6_2.
Thurman, Neil; Schifferes, Steve (2012): THE FUTURE OF PERSONALIZATION AT NEWS WEBSITES: Lessons from a Longitudinal Study, in: Journalism Studies, Jg. 13, Nr. 5-6, S. 775–790, doi: 10.1080/1461670X.2012.664341.
U.S. Select Comitee on Intelligence (2020): Report of the select comittee on intellogence United States senate on russian active measures campaigns and interference in the 2016 U.S. election, ( Nr. Volume 5: Counterintelligence threats and vulnerabilities), U.S.: Select comitee on intelligence United States senate.
Vitlif, Oskar (2023): ChatGPT im Journalismus: 10 Prompts für Redaktionen, Oskar Vitlif.
Wellner, Felina (2025): Die Rolle der Tonalität von generativer KI bei der Verbreitung und Wahrnehmung von Informationen: Chancen und Herausforderungen automatischer Textgenerierung in der journalistischen Praxis, in: API Magazin, Jg. 6, Nr. 1, doi: 10.15460/apimagazin.2025.6.1.219.
Zumbühl, Adi (2024): Content Produktion: Tonalität in ChatGPT & Co, Facebook Marketing und Social Media Blog Hutter Consult AG.
Zvereva, E. (2020): Interaction „Journalist — Robot Journalist“: Communicative Advantages and Social Responsibility, in: Communication Trends in the Post-Literacy Era: Polylingualism, Multimodality and Multiculturalism as Prerequisites for New Creativity. — Ekaterinburg, 2020, Ural University Press, S. 536–549, doi: 10.15826/B978-5-7996-3081-2.37.
O. A. (2024): Retresco - Unlock the Full Potential of your Content with AI, Retresco, [online] https://www.retresco.de/ [21.01.2026].↩︎
O. A. (2024): Text-Automation für mehr Effizienz in der Content-Produktion, Retresco, [online] https://www.retresco.de/text-automation/ [21.01.2026].↩︎
Bartl, Marc (o. J.): Studie: Nicht einmal jeder Zweite erkennt einen Text von einer KI, kress, [online] https://kress.de/news/beitrag/137855-studie-nicht-einmal-jeder-zweite-erkennt-einen-text-von-einer-ki.html [01.12.2025].↩︎
JAMES steht für “Journey Automated Messaging for Higher Engagement through Self-Learning”. JAMES nutzt maschinelles Lernen und KI-Methoden, um Nutzerverhalten, Interessen, Lesegewohnheiten etc. zu analysieren und Inhalte entsprechend anzupassen. Sudhakar, Namitha (o. J.): „JAMES” from „The Times”, Quintype, [online] https://blog.quintype.com/ampstories/webstories/james-from-the-times [21.01.2026].↩︎
Kunova, Marcela (2019): The Times employs an AI-powered „digital butler” JAMES to serve personalised news, Journalism UK, [online] https://www.journalism.co.uk/the-times-employs-an-ai-powered-digital-butler-james-to-serve-personalised-news/ [21.01.2026] und Brandl, Max (2024): Remix Regional: Personalisierte Regionalnachrichten zum Ausprobieren, [online] https://www.br.de/unternehmen/inhalt/programm/remix-regional-124.html [21.01.2026].↩︎
Meier, Christian (2023): Künstliche Intelligenz: Die Ära des Prompt-Journalismus - WELT, DIE WELT, [online] https://www.welt.de/kultur/medien/article249096126/Kuenstliche-Intelligenz-Die-Aera-des-Prompt-Journalismus.html [01.12.2025].↩︎
Klassisches maschinelles Lernen braucht oft tausende Beispiele, um eine neue Aufgabe zu lernen. Mit Zero-/One-/Few-Shot kann ein Modell schon mit gar keinem, einem oder wenigen Beispielen nützliche Ergebnisse liefern. Der Vorteil: es spart Zeit, Kosten und Ressourcen, weil keine großen Datensätze gesammelt oder annotiert werden müssen.↩︎
Zumbühl, Adi (2024): Content Produktion: Tonalität in ChatGPT & Co, Facebook Marketing und Social Media Blog | Hutter Consult AG, [online] https://www.thomashutter.com/content-tonalitaet-in-chatgpt-co/ [01.12.2025] und Microsoft (2024): Prompt engineering techniques - Azure OpenAI, [online] https://learn.microsoft.com/en-us/azure/ai-foundry/openai/concepts/prompt-engineering?view=foundry-classic [20.12.2025].↩︎
O. A. (2024): What Is The Washington Post’s Heliograf AI?, [online] https://www.pampermenetwork.com/index.php?option=com_alphauserpoints&view=creatormanager&layout=detailblogfeed&id=2942 [20.12.2025].↩︎
Eisenbeis, Prof. Dr. Uwe; Ciepluch, Magdalena (Hrsg.) (2022): AI Media Insider: Das Magazin rund um Künstliche Intelligenz in der Medienwirtschaft - powered by MediaTech Navigator.↩︎
O. A. (o. J.): Smarte Content Moderation - Factfox, Media Lab Bayern, [online] https://www.media-lab.de/de/startups-experts/startups/factfox-2/ [21.01.2026].↩︎
O. A. (2025): #Faktenfuchs: Wie wir arbeiten, BR24, [online] https://www.br.de/nachrichten/wissen/br24-faktenfuchs-faktenchecker-wie-wir-arbeiten,ScNSHNZ [21.01.2026].↩︎
O. A. (o. J.): Wolf-Schneider-KI (WSKI) – Reporterfabrik, [online] https://reporterfabrik.org/wski-editor/ [21.01.2026].↩︎
Brandl, Max (2024): Remix Regional: Personalisierte Regionalnachrichten zum Ausprobieren, [online] https://www.br.de/unternehmen/inhalt/programm/remix-regional-124.html [21.01.2026].↩︎
Siehe Fußnote 11.↩︎
Forschende kommen jüngst zu dem Ergebnis, dass der generativen KI in naher Zukunft hochwertige Trainingsdaten ausgehen. „Wenn man zugrunde legt, dass ein großes Sprachmodell mit Hunderten von Milliarden Worten trainiert wurde, sind die Originaltexte bereits nahezu ausgelesen”, schreiben die Forscherinnen Meckel und Steinacker. Genau zu demselben Ergebnis kommt auch eine schottisch-deutsche Forschungsgruppe. Ihr zufolge ist der Fundus an neuen hochwertigen Textdaten für die KI bereits 2026 erschöpft. Das Fazit der Studie: Spätestens 2026 habe die generative KI alles gelesen, was es zu lesen gibt. Damit wäre der Zugriff auf hochwertige Daten mehr oder weniger ausgereizt. Villalobos, Pablo; Ho, Anson; Sevilla, Jaime; u. a. (2024): Will we run out of data? Limits of LLM scaling based on human-generated data, arXiv, doi: 10.48550/arXiv.2211.04325 und Meckel, Miriam; Steinacker, Lèa (2025): Alles überall auf einmal: Wie künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können, 1. Auflage., Hamburg: Rowohlt Taschenbuch.↩︎
Siehe Fußnote 9.↩︎
Die Autorinnen Meckel/Steinacker beschreiben den Prozess der Herstellung synthetischer Daten durch generative KI wie als einen `hocheffizienten Mixer´ was wiederum `Wissen´ produziert. Die KI arbeitet irgendwann nur noch mit selbstgeschaffenen Inhalten, der Remix wächst proportional zum Original. Meckel und Steinacker prägen dafür den Begriff „Textinzest”. Die Originaldaten werden in diesem Zuge des ständigen Remixes vergessen. Das, so Meckel/Steinacker, tut dem MLModel nicht gut, da sie sozusagen „verdrecken”. Siehe dazu auch Fußnote 16., S. 150ff.↩︎
Komatsu, Tomoko; Gutierrez Lopez, Marisela; Makri, Stephann; u. a. (2020): AI should embody our values: Investigating journalistic values to inform AI technology design, in: Proceedings of the 11th Nordic Conference on Human-Computer Interaction: Shaping Experiences, Shaping Society, New York, NY, USA: Association for Computing Machinery (NordiCHI ’20), S. 1–13, doi: 10.1145/3419249.3420105.↩︎
Felina Wellner untersucht in ihrem Beitrag „Die Rolle der Tonalität von generativer KI bei der Verbreitung und Wahrnehmung von Informationen” die Bedeutung der Tonalität generativer Künstlicher Intelligenz für die Verbreitung und Wahrnehmung von Informationen und wie emotionale und stilistische Aspekte die Rezeption beeinflussen und welche Ansätze zur Sicherstellung der Zuverlässigkeit generierter Inhalte beitragen können (Wellner 2025).↩︎
Wittenhorst, Tilman (2023): ChatGPT erfindet Gerichtsurteile – US-Anwalt fällt darauf herein, heise online, [online] https://www.heise.de/news/ChatGPT-erfindet-Gerichtsurteile-US-Anwalt-faellt-darauf-herein-9068180.html [21.01.2026].↩︎
O. A. (o. J.): KI & Fake News: Wie KI Desinformation erschafft – und bekämpft, Media Lab Bayern, [online] https://www.media-lab.de/de/blog/ki-und-fake-news/ [21.01.2026].↩︎
Schröder, Catalina; Vicari, Jakob (o. J.): Für Journalisten kann KI zur Superkraft werden, journalist.de, [online] https://www.journalist.de/meinung/meinungen-detail/fuer-journalisten-kann-ki-zur-superkraft-werden/ [21.01.2026].↩︎
Zörner, Hendrik (2025): Journalismus nicht durch KI ersetzen, Deutscher Journalisten-Verband, [online] https://www.djv.de/news/pressemitteilungen/press-detail/journalismus-nicht-durch-ki-ersetzen/?utm_source=chatgpt.com [01.12.2025].↩︎
„KI muss in jeder Phase der Entwicklung und des Betriebs kontrollierbar sein. Sie soll Mechanismen beinhalten, die Zuverlässigkeit sowie Genauigkeit, Faktentreue, Vielfalt, Fairness und Nachvollziehbarkeit erhöhen. Wir machen uns bewusst, inwieweit eine KI nachtrainiert werden muss, falls erforderlich mit unseren eigenen Trainingsdaten, um unseren Werten und Grundsätzen zu entsprechen.” O. A. (o. J.): Umgang mit Künstlicher Intelligenz (KI) im NDR, ndr.de, [online] https://www.ndr.de/der_ndr/Umgang-mit-Kuenstlicher-Intelligenz-KI-im-NDR,kileitlinien100.html [20.12.2025].↩︎
OpenAI (2026): Eine gemeinsame Erklärung von OpenAI und Microsoft, [online] https://openai.com/de-DE/index/joint-statement-from-openai-and-microsoft/ [21.01.2026].↩︎
Siehe Fußnote 25.↩︎
Statements zu den Kooperationen von OpenAI mit Microsoft und Apple: OpenAI (2026): Eine gemeinsame Erklärung von OpenAI und Microsoft, [online] https://openai.com/de-DE/index/joint-statement-from-openai-and-microsoft/ [21.01.2026]; OpenAi (2024): OpenAI and Apple announce partnership, [online] https://openai.com/index/openai-and-apple-announce-partnership/ [22.01.2026].↩︎
Siehe Fußnote 25.↩︎
Siehe Fußnote 22.↩︎
Siehe Fußnote 33.↩︎
DJV-Bundesvorsitzender Mika Beuster sieht durch den Einsatz von ChatGPT Arbeitsplätze von Journalist*innen in Gefahr: „Wer Journalismus durch ChatGPT und andere KI-Tools ersetze, riskiere nicht nur Qualität, sondern auch Vertrauen. `Ich sehe die Gefahr, dass Leser und Werbekunden der Verlage nicht bereit sein werden, Geld für Roboterjournalismus auszugeben. Mögliche Einsparungen bei den Personalkosten würden so durch wegbrechende Erlöse wettgemacht. ´” Siehe Fußnote 24.↩︎
In einer von Reuters durchgeführten Studie zeigt sich, dass Personalisierung in Nachrichten möglich, aber sensibel ist. Nutzer*innen sollten klarsehen können, warum ihnen bestimmte Inhalte vorgeschlagen werden, sonst besteht die Gefahr der Intransparenz und des Vertrauensverlusts. Arguedas, Amy Ross (2025): How audiences think about news personalisation in the AI era | Reuters Institute for the Study of Journalism, [online] http://reutersinstitute.politics.ox.ac.uk/digital-news-report/2025/how-audiences-think-about-news-personalisation-ai-era [21.01.2026].↩︎
Graylark Technologies Inc (2025): GeoSpy | Unlock the Power of AI Image intelligence, [online] https://geospy.ai/ [21.01.2026].↩︎
Lex, Inc (o. J.): Collaborative documents, with powerful AI editing tools, Lex, [online] https://lex.page/ [21.01.2026].↩︎
Siehe Fußnote 26.↩︎
Ebd.↩︎
Erhalten
Akzeptiert
Veröffentlicht
Ausgabe
Rubrik
Lizenzinformation
Copyright (c) 2026 Katharina Jeorgakopulos

Dieses Werk steht unter der Lizenz Creative Commons Namensnennung 4.0 International.

