Künstliche Intelligenz als Assistenz Bestandsaufnahme zu KI im Journalismus aus Sicht von Wissenschaft und Praxis

von Michael Graßl, Jonas Schützeneder und Klaus Meier

Abstract: Künstliche Intelligenz ist als Trendwort für automatisierte, kooperative und korrektive Formen von Mensch-Maschinen-Interaktion in Wirtschaft und Gesellschaft angekommen. Es besteht ein Bedarf an Information, Diskussion und Systematisierung – trotz oder wegen fast täglich erscheinender Publikationen zu diesem Thema. Der vorliegende Beitrag versucht, (begriffliche) Ordnung in dieses Feld zu bringen. Der Kern dieses Ordnungsversuchs ist eine qualitative Befragung von Expertinnen und Experten aus Wissenschaft und Praxis. Wir vernetzen Perspektiven aus der Software-Produktion, redaktionellen Organisation und Medienethik, suchen damit nach einer Grundlage für Begriffe, Herausforderungen und Potentiale dieser technischen Entwicklung. Die Auswertung der Interviews zeigt, dass die Bedeutung von KI für den Journalismus erkannt wurde und vor allem im Kontext von Recherche, Distribution, Workflow-Optimierung und Verifikation externer Inhalte die zentralen Potentiale liegen. Daraus schließen wir: Für den Journalismus der Gegenwart und Zukunft ist KI als Assistenz zu begreifen (technisch, definitorisch und redaktionell); Praxis und Forschung sollten das Thema als ständige diskursive Auseinandersetzung über Chancen und Risiken integrieren und auch entlang der medienethischen Debatte Bewusstsein und Lösungen (vor allem entlang der Verantwortungslinien für Content und Publikum) schaffen.

1. Die Ambivalenz der Assistenz

Hilfe und Unterstützung – gern gesehen, manchmal ausbleibend, mitunter teuer oder Blendwerk. Dass Menschen als Individuen Hilfe und Unterstützung brauchen, ist eine Binsenweisheit. Gleiches gilt auf Meso- (Unternehmen) und Makro-Ebene (Staaten). Und es gilt für den Journalismus, seine Akteure und Organisationsformen. Mit zunehmender Unterstützung wächst allerdings grundsätzlich auch die Abhängigkeit, was Journalisten, Journalistinnen und Redaktionen generell skeptisch sehen, weil Unabhängigkeit zu den zentralen Normen des Journalismus in der Demokratie gehört (Meier 2018: 17). Während politische oder wirtschaftliche Unterstützung bzw. Abhängigkeit in der Regel problematisch ist, scheint technische Unterstützung bzw. Abhängigkeit auf den ersten Blick keine Makel zu haben. Die technische Entwicklung ist seit jeher treue Begleiterin des Journalismus (Altmeppen/Arnold 2013: 47). Sie verschafft neuerdings zum Beispiel neue Distributionskanäle für journalistische Inhalte, Analytic-Tools für einen präziseren Blick auf das Publikum, intermediäre Strukturen zur Integration externer Plattformen (Graßl et al. 2020) oder auch neue und effizientere Formen der redaktionellen Organisation (García-Avilés et al. 2014; Lischka 2018: 237). Und dennoch sind Prozesse technischer Adaption für den Journalismus in jedem einzelnen Fall eine große Herausforderung – auch im Hinblick auf Abhängigkeiten. Risiken, Vorsicht, Skepsis und Ablehnung treten nahezu immer mit auf. Gillmor (2013: 187) hat den Beteiligten in Redaktionen hierzu eine zugespitzte Gleichung in den Mund gelegt: »Neu gleich Gefahr. Technik gleich unjournalistisch.« Man kann von einer Ambivalenz der Assistenz sprechen – Hilfe in Form von technischer Neuerung verspricht viel, hält nicht alles, birgt Risiken und wird deshalb neugierig-kritisch von den Beteiligten hinterfragt. Nahezu deckungsgleich vollzieht sich seit einiger Zeit die Diskussion rund um den Wert, die Dimensionen, Chancen und Probleme von Künstlicher Intelligenz (KI) im Journalismus. Die Potentiale einer redaktionellen KI-Assistenz werden ambivalent diskutiert – in Wissenschaft und Praxis. Die eher neugierig-skeptischen Zugänge hängen womöglich auch mit inhaltlichen und definitorischen Lücken zusammen. Noch ist hier vieles unklar. Vom Begriff, über konkrete Ausgestaltungen bis hin zur Vorstellung, was die Zukunft an dieser Stelle bringt.

Die Anwendungsvielfalt von Software, Tools und anderen Computersystemen, die inzwischen unter dem Begriff Künstliche Intelligenz versammelt werden, ist riesig. Wenngleich auch international noch keine einheitliche Begriffsanwendung vorherrscht, ist es in der Folge nicht verwunderlich, dass das Thema überall immer stärker in das Forschungsinteresse rückt (Stray 2019: 1077 f.). In der deutschen Journalismusforschung ist das Thema bisher allerdings wenig bearbeitet. Die Anzahl an Studien und Beiträgen ist überschaubar (vgl. Dreyer/Schulz 2019; Loosen/Solbach 2020; Porlezza 2020). Empirische Forschungsergebnisse liegen nur wenige vor oder sind im Angesicht des rasanten technischen Fortschritts der vergangenen Jahre mittlerweile in der Zeit zurück (vgl. Meier et al. 2021). Hier sehen wir eine Aufgabe für Wissenschaft und Praxis gleichermaßen.

Unser Beitrag soll kein »literature review« darstellen, sondern einen Impuls zur Schließung der empirischen Lücke in Deutschland leisten: Wir wollen aus Perspektive von Wissenschaft und Praxis mehr Details und Hintergründe liefern

  • zum Begriffsverständnis von KI und seiner Verortung,
  • zu aktuellen und konkreten Einsatzmöglichkeiten in Produktion und Organisation journalistischer Inhalte,
  • zu Herausforderungen und Problemen aus mittel- und langfristiger Perspektive,
  • zum internationalen Vergleich der Bestandsaufnahme.

Das Ziel liegt in einer grundlegenden Systematisierung des Feldes mithilfe von qualitativen Leitfaden-Interviews von Expertinnen und Experten aus Wissenschaft und Praxis in Deutschland. Ergänzt werden können diese Ergebnisse um einen internationalen Vergleich, der auf einem DFG-geförderten Forschungsprojekt in fünf Ländern basiert und eine Einordnung des Innovationsgrads von KI im Journalismus in einem größeren Kontext ermöglicht. Zunächst bedarf es jedoch einer theoretischen und begrifflichen Vorsortierung des Feldes.

2. Die Vielfalt der KI: eine definitorische Basis

Der Begriff KI wird seit Jahren in verschiedenen Fächern, Situationen und Intentionen benutzt – und er stiftet zum Teil mehr Verwirrung als Orientierung. Wir nutzen als ersten Zugang zum Begriff KI (engl. AI) eine etwas ältere Definition von McCarthy (2007: 2):

»It is the science and engineering of making intelligent machines, especially intelligent computer programs. It is related to the similar task of using computers to understand human intelligence, but AI does not have to confine itself to methods that are biologically observable.«

Dieser technische Zugang sieht in der Maschine (Computer-Potential) das zentrale Subjekt der KI. Im Allgemeinen werden darunter zurzeit Computersysteme, also in erster Linie Software bzw. Algorithmen, verstanden, die bestimmte abgegrenzte Problemstellungen lösen sollen (vgl. z. B. Buxmann /Schmidt 2021: 7). Sie greifen dabei – gerade auch bei Anwendungen im Bereich digitaler Medien – auf große Datensätze zurück und arbeiten mit automatisierten Prozessen, wobei zunehmend der Clou dabei ist, dass diese Systeme dazulernen, also immer besser werden können: Man spricht dann von Maschinellem Lernen oder auch von Deep Learning, wenn so genannte neuronale Netze zur Anwendung kommen. KI-Anwendungen lernen zum Beispiel aus Trainingsdaten: Sie erkennen Muster und wenden diese Muster dann nach dem Training auf neue Datensätze an.

Inzwischen wird also zunehmend differenziert: Nicht mehr jede Form von »Computational Journalism« (Thurman 2020) oder »Automated Journalism« (Dörr 2016; Dörr/Hollnbuchner 2017; Caswell/Dörr 2017) wird als Anwendung von KI-Tools klassifiziert. So hält sich im Journalismus selbst nach wie vor hartnäckig die Vorstellung, dass alleine eine regelbasierte automatisierte Zusammensetzung von Textbausteinen – oft als »Roboterjournalismus« beschrieben – schon künstlich intelligent sei (wie zum Beispiel bei automatisierten Texten zu Wettervorhersagen, Sportergebnissen oder Börsenkursen). »Mit künstlicher Intelligenz hat das übrigens nichts zu tun: Die Texte werden regelbasiert erzeugt«, legte zum Beispiel der Spiegel völlig zurecht offen, als man im März 2021 automatisierte Texte zu Wahlergebnissen veröffentlichte (Pauly 2021): »Alle Entscheidungen sind händisch definiert: Unterscheiden sich beispielsweise die Ergebnisse vor Ort um einen vorgegebenen Schwellenwert von den Landesergebnissen, so wird das als erwähnenswerte Abweichung eingestuft – ein entsprechender Textbaustein wird eingefügt.« In einer früheren Publikation haben wir den häufig genutzten Begriff des »Roboterjournalismus« dahingehend ebenfalls kritisch eingeordnet: »Die Anwendungsoptionen und Diskussionsdimensionen in Wissenschaft und Praxis [zu KI im Journalismus] gehen weit über das oberflächliche Verständnis eines ›Roboter-Journalismus‹ hinaus. Sowohl der Begriff selbst, wie auch die verknappte Fokussierung auf automatische Text-Produktion sind zu kurz gegriffen« (Meier et al. 2021).

Wir verstehen daher den Bezug zwischen KI und Journalismus als Form einer technischen Assistenz. KI ist kein autonomes System, vielmehr vollzieht sich die Assistenz-Leistung wechselseitig:

  • Künstliche Intelligenz als technische Assistenz für redaktionelle Tätigkeiten, Entscheidungsfindung und Helferin menschlicher Intelligenz.
  • Menschliche Intelligenz als Korrektiv und Garant für die zirkuläre Weiterentwicklung der Künstlichen Intelligenz.

KI ist in diesem Verständnis ein technisch-fundierter, individuell angepasster und durch Perma-Feedback trainierter Pool verschiedener Tools in ständiger Weiterentwicklung. Durch den permanenten Lerneffekt können diese Tools im Journalismus auf verschiedenen Ebenen und im gesamten journalistischen Produktionsprozess unterstützend zum Einsatz kommen:

  • Recherche und Themenfindung: Recherche als Herzstück journalistischer Tätigkeit hat durch technische Weiterentwicklung (Mobilität, Telefon, Online-Datenbanken) schon häufig intensive Impulse erfahren. KI setzt diese Entwicklung fort. Konkret kann der Einfluss auf Recherche (mindestens) entlang folgender Kategorien beschrieben werden (Stray 2019: 1080; Diakopoulos 2019): Analyse großer Dokumenten- und Datensätze (Mining), Sprach-Analyse und Übersetzungsprogramme, Datenbereinigung, Identifikation von Breaking-News-Themen oder Gesprächsthemen in bestimmten Communities (z. B. durch Social-Media-Monitoring).
  • Darstellung und Aufbereitung journalistischer Inhalte: Künstliche Intelligenz kann im Sinne des maschinellen Lernens als Assistenz bei der Content-Aufbereitung mitwirken. Hier werden verschiedene Anwendungen diskutiert (vgl. Beckett 2019: 10; Rech/Meyer 2021: 21): KI als Lieferantin von Text-, Bild- oder Video-Bausteinen, die aus Datensätzen, zum Beispiel auch aus eigenen Archiven, hervorgehen oder KI als Vorschlaggeberin der Hypertextualität, also konkreter Querverweise auf relevanten und verwandten Content zu bestimmten Themen, Personen oder Datenbanken. Möglich sind auch ein automatisiertes Glätten von Texten (sprachlich), Audios und Videos (Schnitt) oder automatisierte Übersetzungen für multilinguale Portale.
  • Unterstützung bei der Distribution: Künstliche Intelligenz kann riesige Datenmengen von digitalen Nutzungsspuren in Echtzeit auswerten und damit zum Beispiel bessere Ansprachen von Zielgruppen, Personalisierung oder Empfehlungssysteme ermöglichen. Im Idealfall entsteht hier ein »system [that] ›knows‹ the end-users’ preferences very well« (Vergeer 2020: 375). Besonders im Fokus steht hierbei die Frage nach der Monetarisierung, also die Bereitschaft des Publikums, für bestimmte Inhalte zu bezahlen.
  • Redaktionelle Organisation und Workflows: Künstliche Intelligenz ist im Sinne der Koordination von Personal eine Assistenz für menschliche Zusammenarbeit. Gerade größere Kooperationsformen (cross-border-journalism) leben von einer guten Koordination, von Tools, die Kooperation und Kollaboration vereinfachen und Organisationskompetenz unterstützen (Beckett 2019: 75 ff.). Der oft zitierte Weg »from Tool to Teammate« oder »Machines as Teammates (MaT)« (u. a. Bienefeld 2020; Seeber et al. 2020) inkludiert eine Verknüpfung menschlicher und technischer Entscheidungsfindung: Noch ist die praktische Umsetzung hierzu höchstens im Anfangsstadium. Es existieren aber bereits KI-Tools, die (externe) Anfragen per NLP (Natural Language Processing) automatisch an korrekte Verantwortliche/Bereiche schicken oder Dokumente konkret anhand vorgegebener Workflows nacheinander an die richtigen Stellen übermitteln. Gleichzeitig können strategische innerredaktionelle Anpassungen in der Organisation des Innovationsmanagements (und die Frage nach der Integration von KI in eigene Prozesse zählt definitiv dazu) beobachtet werden: Rund um KI und digitale Format- und Organisationsentwicklung haben sich neue Innovationseinheiten – häufig als Media Labs tituliert (Hogh-Janovsky/Meier 2021) – entwickelt. die genau diese Trends und Herausforderungen losgelöst vom Tagesgeschäft aufgreifen.
  • Verifikation/Korrektiv nicht-journalistischer Inhalte: Künstliche Intelligenz ist in der Lage die Exklusivität und Originalität von Text-, Bild- und Video-Content zu prüfen und damit eine zentrale Leistung des Journalismus für das Publikum (Faktizität, Transparenz) sicherzustellen, die vor allem im Kontext von Deep Fakes mit rein menschlicher Wahrnehmung nicht mehr sichergestellt werden kann (Mattke 2018; Godulla et al. 2021).

Wie werden diese umfangreichen Möglichkeiten bereits eingesetzt? Aus einer Befragung zu Journalismus und KI auf Basis von 71 Medienorganisationen aus 32 Ländern geht hervor (Beckett 2019: 7 ff.): Die Hauptmotive für die Integration von KI im Journalismus liegen im Wunsch einer effizienteren Gestaltung der Redaktionsorganisation (68%), eines besser abgestimmten Content-Angebots für das Publikum (45%) sowie einer ökonomisch effektiveren Gesamtstruktur im Sinne des Personal- und Content-Managements (18%). Diesem Potential werden die größten Herausforderungen gegenübergestellt: Finanzierung (27%), Schulung und Wissensmanagement (24%) sowie die Arbeit an der spezifischen Unternehmenskultur (24%), innerhalb derer eben häufig die KI-skeptischen Positionen überwiegen.

Auf Deutschland bezogen konnten Rech und Meyer (2021) auf Basis von 385 befragten Journalistinnen und Journalisten zeigen, dass der Großteil zwar rund um das Thema KI Wissen ansammelt und es als Thema in Redaktionen präsent ist, gleichzeitig aber nur eine Minderheit direkt in Kontakt mit KI-Tools kommt. Demnach haben über 60 Prozent der Befragten diese Technik noch nie genutzt, knapp 20 Prozent gaben an, zumindest selten damit in Berührung (gekommen) zu sein. Dennoch wird häufig die grundlegende Bedeutung von KI als zentrale Herausforderung für die Zukunft in Journalismus und Gesellschaft hervorgehoben: Bei einer internationalen Befragung der Universität Oxford von 227 Entscheidungsträgern in Medienunternehmen im Dezember 2020 sahen 69 Prozent Künstliche Intelligenz als den wichtigsten technischen Wegbereiter für journalistische Innovationen in den nächsten Jahren und damit weit vor der 5G-Technologie, die auf Platz zwei mit 18 Prozent hinter KI liegt (vgl. Newman 2021: 30).

Neben den genannten Chancen und Zukunftsszenarien für KI-Anwendungen im Journalismus müssen bei einer Bestandsaufnahme und Potentialanalyse auch Risiken und ethische Konzepte berücksichtigt werden. Als Querschnittsthemen (vgl. Meier et al. 2021) lassen sich dabei folgende vier Dimensionen bündeln (vgl. u. a. Giessmann et al. 2018; Montal/Reich 2017; Linden 2017; Dörr/Hollnbucher 2017, Filipovic 2020), welche die Basis für unsere empirische Untersuchung sind:

  • Automatisierte und lernende Textproduktion: Funktionsweise, Stärken und Schwächen;
  • KI als Assistentin oder teilweise sogar Determinantin im Produktionsprozess – von der Themenauswahl und Recherche über die Verarbeitung und Anreicherung bis zur Verbreitung und Nutzung journalistischer Produkte;
  • Wandel journalistischer Rollenbilder und Kompetenzen: neue Aufgaben im Kontext von Algorithmen und Automatisierung, auch in der Zusammenarbeit mit technischen Mitarbeiterinnen und Mitarbeitern;
  • (Neue) Medienethik an der Schnittstelle zwischen Medienethik, Journalistischer Ethik und Maschinenethik – also eine Entwicklung ethischer Konzepte für die vorher genannten Dimensionen.

3. Empirische Vorgehensweise

Teil-standardisierte Leitfäden waren die Basis für ca. 60-minütige Interviews mit Expertinnen und Experten. Bei der Auswahl der Gesprächspartner lag der Fokus auf einer ausgewogenen Zusammenstellung entlang der Expertise aus Software/KI-Entwicklung, journalistischer Praxis und Journalismus-/Medienforschung. Die Interviews wurden im Rahmen zweier Lehrprojekte im Masterstudiengang Journalistik mit Schwerpunkt Innovation und Management an der Katholischen Universität Eichstätt-Ingolstadt geführt. Daraus ergeben sich zwei Zeiträume (November 2020 bis Januar 2021 und Mai 2021 bis Juni 2021) und insgesamt 18 Interviews. Konkret konnten wir auf die Expertise folgender Expertinnen und Experten zurückgreifen:

Tabelle 1
Befragten-Sample der empirischen Befragung

Name Position Verortung
Susanne Merkle Leiterin Treffpunkt Trimedialität, Labor für Innovation und Vernetzung, Bayerischer Rundfunk (BR) Praxis
Steffen Kühne Entwicklungsleiter Recherche /Data und AI + Automation Lab, BR Praxis
Robert Kaiser Abteilungsleiter IT Business-Systeme und -Lösungen, BR Praxis
Jens Radü Chef vom Dienst Multimedia, SPEGEL Praxis
Jan Georg Plavec Redakteur, Stuttgarter Zeitung Praxis
Gabriele Wenger-Glemser Leitung Dokumentation und Recherche, BR Praxis
Cécile Schneider Product Lead AI + Automation Lab, BR Praxis
Norbert Lossau Wissenschaftsjournalist, Physiker und Beirat der Wissenschaftspressekonferenz Wissenschaft/Praxis
Jonas Schreiber Wissenschaftlicher Dokumentar, Archiv BR Wissenschaft/Praxis
Philipp Mayer Dualer Student, BR/LMU Wissenschaft/Praxis
Jessica Heesen Leiterin Forschungsschwerpunkt Medienethik und Informationstechnik, Universität Tübingen Wissenschaft
Karla Markert Cognitive Security Technologies, Fraunhofer AISEC Wissenschaft
Alexander Waldmann Senior Technical Product Manager for AI and ML, Amazon Wissenschaft
Oliver Zöllner Professor für Medienforschung, internationale Kommunikation und Digitale Ethik, Hochschule der Medien Stuttgart Wissenschaft
Oliver Wiesener Professor Technologie- und Innovationsmanagement, Hochschule der Medien Stuttgart Wissenschaft
Rolf Fricke Head of Research and Development, Condat AG Software und IT
Johannes Sommer CEO Retresco GmbH Softwareentwicklung
Stefan Grill Team Innovation und Produkte, 3pc Agentur

Aus diesen Interviews[1] und den zugehörigen Transkripten ergibt sich ein Pool von über 226 Seiten Erfahrungen zum Thema KI und Journalismus. Ausgewertet wurden diese mithilfe von MAXQDA und einem qualitativen Kategoriensystem, das sich im Wesentlichen an den genannten Dimensionen orientiert. Insgesamt wurden darin über die 18 Interviews hinweg entlang von 66 Kategorien 860 Einzelcodes gesetzt. Bei der folgenden Auswertung, die als Gliederung die gebildeten Hauptkategorien (u. a. »Begrifflichkeiten«, »KI in der Redaktion«, »Anwendungsfelder«, »Kompetenzen«, »Chancen und Herausforderungen« und »Ethik und Verantwortung«) verwendet, werden Zitate und indirekte Zuschreibungen jeweils durch Nennung der entsprechenden Personen und deren Tätigkeit zugeordnet.

4. Ergebnisse

Die Auswertung der Interviews zeigt zunächst, dass die in der theoretischen Vorarbeit problematisierten Schwierigkeiten rund um die passenden Begrifflichkeiten auch in der Praxis bestehen. Fast alle Befragten erläutern, dass innerhalb der Abteilung, der Redaktion oder im Medienunternehmen mit keiner einheitlichen Definition von KI gearbeitet wird. Oft einigt man sich nur für bestimmte Projekte auf eine Art Arbeitsdefinition, wie es beispielsweise der SPIEGEL und der Bayerische Rundfunk (BR) für eine Kooperation getan haben: »Wir haben uns in diesem einen Projekt (…) darauf geeinigt, dass wir KI als etwas verstehen, was ›Computer lernen‹ bedeutet (Jens Radü, SPIEGEL).« Eine Begriffsschärfung findet meist nur über die Abgrenzung zu anderen Buzzwords in diesem Kontext statt. Zum einen unterscheiden die Befragten aus der Praxis den Begriff Machine Learning (maschinelles Lernen), welcher nur als ein Teilgebiet von KI angesehen wird, gleichzeitig im Journalismus aber derzeit das Etablierteste darstellt. Zum anderen übernimmt die Abgrenzung zum Datenjournalismus eine wichtige Funktion in der Begriffsbestimmung. Die Arbeit mit Daten ist zwar auch fundamentaler Bestandteil in der Arbeit mit KI-Anwendungen, dennoch sind KI und Datenjournalismus als zwei verschiedene Herangehensweisen zu begreifen: »Verkürzt lässt es sich so sagen: KI ist eine Technologie und Datenjournalismus ein Prozess, der sich aber auch teilweise der Methoden der Künstlichen Intelligenz bedienen kann« (Steffen Kühne, BR).

Relativ deutlich wird darüber hinaus, dass der Begriff »Roboterjournalismus«, der schon aus wissenschaftlicher Perspektive fraglich erscheint (vgl. Kap. 2), auch in der Praxis im Kontext von Künstlicher Intelligenz wenig hilfreich ist:

»Ich halte vom Begriff Roboterjournalismus überhaupt nichts, weil er völlig falsche Dinge suggeriert. Journalismus umfasst sehr viele Tätigkeiten. Indem ich ein ›Roboter‹ davor hänge sage ich ja, dass ein Roboter in der Lage wäre, all die Tätigkeiten auszuführen, die Journalistinnen und Journalisten heute ausführen. Und das ist einfach nicht richtig und das sollte auch nicht so sein. Wir sprechen in diesem Fall lieber von Textautomatisierung, weil das eine klar umrissene Funktion ist, die bezeichnet, was der sogenannte ›Roboter‹ tut.« (Cécile Schneider, BR)

In der Summe besteht redaktions- und unternehmensübergreifend deutlicher Aufklärungs- und Präzisierungsbedarf hinsichtlich der Verwendung des Begriffs KI, wobei ein gemeinsamer Austausch und Diskurs zwischen Wissenschaft und Praxis (vgl. Meier/Schützeneder 2019) zu Aufklärung und Präzisierung beitragen kann, wie beispielsweise unser Podcast-Projekt zu »KI und Journalismus« (Meier/Graßl 2021).

4.1 Anwendungsfelder

Die von den Befragten genannten Anwendungsfelder reichen über die ganze Bandbreite des journalistischen Produktionsprozesses hinweg. Die vielfachen Nennungen werden im Folgenden systematisiert und ergänzen die in der Literatur genannten und oben zusammengefassten potentiellen Einsatzgebiete von KI um praktische Beispiele der tatsächlichen Anwendung.

  • Recherche: KI-Anwendungen werden von Redaktionen und Investigativ-Teams zu Recherchezwecken eingesetzt. An dieser Stelle entsteht auch die größte Nähe zum Datenjournalismus. Die eingesetzte KI fungiert dabei als das Puzzleteil in der Gesamtrecherche, welches die Durchforstung großer Datenmengen ermöglicht, die von Menschen aufgrund des Umfangs nicht zu erschließen wären. Auch für kleinere Recherche-Projekte werden mittlerweile KI-Anwendungen entwickelt und eingesetzt (z. B. für die Durchsuchung von Social Media).
  • Verifikation: KI-Anwendungen unterstützen Journalistinnen, Journalisten und Redaktionen bei der Verifizierung von zugespieltem Material oder anderen Inhalten. Insbesondere bei der Erkennung von Fakes und Deep Fakes helfen sie, gefälschtes oder manipuliertes Bild- und Videomaterial zu identifizieren oder Redaktionen zumindest auf mögliche Fakes aufmerksam zu machen.
  • Produktion: Die Befragten nennen verschiedene Tools zur (automatischen) Textgenerierung, zur Textzusammenfassung, zum Korrekturlesen und zur Transkription (meist Speech-to-text), die Deep-Fake-Technologie (zur Glättung von Video-Beiträgen oder im Comedy-Bereich), Empfehlungssysteme und Speech-to-text-Anwendungen (z. B. zur Live-Untertitelung).
  • Dokumentation und Archivierung: KI-Anwendungen helfen bei der zeit- und ressourcenaufwändigen (und redaktionsübergreifenden) Dokumentation und Archivierung täglich neu geschaffener Inhalte. So wird z. B. Gesichtserkennung eingesetzt, um Metadaten von Videobeiträgen (u. a. Name aller vorkommender Personen) nicht mehr manuell erstellen zu müssen. Derartige Verschlagwortungshilfen sind auch für Text (z. B. Pressemitteilungen), Bild und Audio in Probe oder im Einsatz.
  • Publikumsinteraktion: KI-Anwendungen übernehmen im Online- und Social-Media-Bereich die Unterstützung im Community Management. Sie treffen für die Redaktionen z. B. eine Vorauswahl oder eine Clusterung von Kommentaren.
  • Nutzungsanalyse und Monitoring: KI-Anwendungen greifen bei der Analyse der Nutzung digitaler Angebote unter die Arme, messen beispielsweise Reichweiten oder scannen Soziale Netzwerke im Hinblick auf besondere Auffälligkeiten (Trends, Untypisches, bestimmte Worte). Insbesondere in Letzterem schließt sich der redaktionelle Produktionskreislauf: KI liefert hierdurch wiederum Impuls für Themen und ist somit Ausgangspunkt für neue Recherchen.

Diese Ausführungen zeigen, dass Künstliche Intelligenz bereits in den gesamten journalistischen Produktionsprozess von Themenfindung und Recherche bis zur Nutzungsanalyse und dem Monitoring in die redaktionelle Arbeit integriert ist bzw. integriert werden kann.

4.2 Redaktionelle Auswirkungen

Diese vielfältigen Anwendungsmöglichkeiten nehmen längst auch Einfluss auf die Aufbau- und Ablauforganisationen von Redaktionen. Vor allem abseits von großen Medienunternehmen oder den Öffentlich-Rechtlichen berichten die Befragten im ersten Schritt jedoch von organisatorischen Herausforderungen im Umgang mit KI-Anwendungen:

»In der Regel haben Redaktionen mit derartigen Systemen kaum bzw. gar keine Erfahrung. Es ist besonders schwierig, wenn es dazu keine Vorbilder und Workflows gibt. Dann muss man natürlich auch Budget und Personalkapazitäten dafür frei schlagen, das ist immer ein heikles Thema.« (Jan Georg Plavec, Stuttgarter Zeitung)

Die Schulung oder der Umbau von redaktionellen Teams, ebenso wie die Erarbeitung von Workflows im Zusammenhang mit dem Einsatz von KI-Technologie, müssten laut den Befragten einer dafür aufgestellten KI-Strategie folgen, die in deutschen Redaktionen und Medienhäusern aber in der Regel nicht existiert. Nicht überraschend ist es deshalb, dass aus den Interviews mit Blick auf die organisationalen Auswirkungen von KI auf Redaktionen (noch) wenig Konkretes herausgelesen werden kann. Vielmehr geben die Befragten an, dass das Thema KI meist in die Hände weniger Interessierter gelegt wird oder gesonderte Arbeitsgruppen bzw. spezielle Einheiten dafür geschaffen werden (z. B. »AI + Automation Lab« des BR). Diese Teams werden interdisziplinär mit Personen aus Journalismus/Redaktion, Daten/Technik, Design und Produktentwicklung zusammengesetzt und sollen den Redaktionen zuarbeiten.

Neben fehlender Erfahrung und fehlenden Workflows stellt die Redaktionen vor allem die Frage nach der technischen Infrastruktur vor Probleme. Zwar können z. B. die Öffentlich-Rechtlichen für gezielte Projekte Personal, Zeit und Geld in die Entwicklung und den Aufbau eigener KI-Technologie investieren, doch der Großteil des Bedarfs wird fast alternativlos über Kooperationen abgedeckt. Mit Vor- und Nachteilen für die Redaktionen und Medienhäuser:

»Man nimmt gerne die technologischen Errungenschaften von Google, weil es wahnsinnig teuer wäre, selbst eine neue Unit von 50 KI-Experten auf die Beine zu stellen. Das können wir finanziell nicht tun. So kann man gleich auf das Level von Google springen. (…) Aber der Preis für diesen Sprung ist eine mangelnde Unabhängigkeit. Was machen wir, wenn es bei Google Missstände gibt, die es aufzuklären gilt?« (Jens Radü, SPIEGEL)

Die Auswirkungen von KI auf den Aufbau von Redaktionen und derer Abläufe führen auch zu Konsequenzen für die Journalistinnen und Journalisten. Das klassische Gesamtkonstrukt an benötigten Kompetenzen im Journalismus (vgl. Meier 2018: 233 ff.) hat bereits durch andere Entwicklungen (z. B. Social Media, vgl. Dernbach 2022) Anpassungsvorgänge durchlaufen. KI wird – so die einhellige Meinung – die Technikkompetenz noch mehr in den Vordergrund rücken. Damit einher gehen für die Befragten z. B. Mathematik- und Statistik-Kenntnisse und in einigen Szenarien auch die Fähigkeit programmieren zu können. Die journalistische Kompetenz wird trotz Künstlicher Intelligenz deswegen aber nicht bedeutungslos: »Ich würde nicht sagen, dass jetzt alle Journalist:innen programmieren können müssen, weil man sowas eben einfach auch mit interdisziplinären Teams sehr gut abdecken kann« (Cécile Schneider, BR). Die Kernaufgabe sehen die Befragten im »Kreativen« (Johannes Sommer, Retresco), im Einordnen (Johannes Sommer, Retresco) oder im »Geschichten erzählen« (Susanne Merkle, BR). So müssen Journalistinnen und Journalisten etwa im Feuilleton zwar keinen Algorithmus programmieren, dafür allerdings mit den Daten und Ergebnissen der KI-Anwendungen umgehen können.

4.3 Chancen und Risiken

Wie bei jeder neuen Technologie stellt sich auch für KI die Frage nach dem Für und Wider. Die Befragten vermitteln in den Interviews zunächst den Eindruck, dass sie KI vor allem als Hilfe, Unterstützung und Lösung für Probleme sehen und ihr somit tendenziell positiv gegenüberstehen. Die Risiken und Herausforderungen offenbarten sich größtenteils in der Umsetzungsphase von konkreten Projekten. Wie eng Chancen und Risiken dabei zusammenhängen, verdeutlicht das Beispiel Diversity, das in den Gesprächen immer wieder fiel: Einerseits können die Redaktionen ihre journalistischen Texte durch ein KI-Programm durchlaufen und so kontrollieren lassen, ob beispielsweise die zitierten Expertinnen und Experten im Verhältnis ausgewogen zum Beispiel nach Geschlecht ausgewählt wurden. Andererseits kann die eingesetzte KI-Anwendung auch einer Diskriminierung Vorschub leisten, indem sie zuvor mit Daten, die selbst bereits einen Bias enthalten, trainiert bzw. entwickelt wurde. So wie es beispielsweise dem Unternehmen Amazon passierte, welches ein KI-Tool für die Vorauswahl aller Bewerbungen verwendete und so nachweislich Frauen diskriminierte (vgl. Holland 2018).

KI kann also durchaus als »Spannungsfeld« (Stefan Grill, 3pc) gesehen werden. Tabelle 2 dient zur Bündelung und übersichtlichen Darstellung der zahlreich ausgesprochenen Chancen und Herausforderungen von KI im Journalismus.

Nicht alle Aspekte daraus können in diesem Rahmen ausführlich thematisiert werden. Dennoch lohnt es sich, einige wenige Schlaglichter herauszugreifen. Deep Fakes beispielsweise führen das angesprochene Spannungsfeld erneut vor Augen, wurden sie von den Befragten doch mehrmals sowohl als Chance, als auch als Risiko für den Journalismus genannt. Die Risiken liegen für die Befragten zum einen in der Schwierigkeit begründet, Deep Fakes als Manipulationen zu entlarven, zum anderen im Glaubwürdigkeitsverlust, den Redaktionen und Medienhäuser bei einer Weiterverbreitung von Deep Fakes erleiden. Doch die Möglichkeiten der Technologie sind vielfältig: Sie versetzt Redaktionen in die Lage, Bildmaterial vorzuproduzieren oder im Nachgang zu glätten und so z. B. »Ähs« zu streichen, fehlende Worte einzusetzen oder eine bessere Synchronisierung herzustellen. Insbesondere in Vorproduktionen »im Studio« sehen die Befragten einen zukünftigen ökonomischen Vorteil.

Tabelle 2:
Chancen und Herausforderungen von KI im Journalismus

Chancen
  • Produktentwicklung
  • Effektivitätssteigerung
  • Schaffung von barrierefreien Zugängen
  • Bessere Zielgruppenanalyse
  • Personalisierung von Inhalten
  • Auswertung von kleinen und großen Datenmengen (lokal, überregional, etc.)
  • Vielfalt (Geschlecht, Sprache, etc.)
  • KI als Assistenz
  • Deep Fakes
Herausforderungen
  • Finanzierung (Anschaffungskosten, Pflege)
  • Zeitaufwendig in Entwicklung und Training
  • Zeitaufwendig in Pflege und Betreuung
  • Datenschutz
  • Ängste der Beschäftigten
  • Fehlendes technisches Know-how in Redaktionen
  • Falsches/schlechtes Datenmaterial
  • Bias und Verzerrungen
  • Deep Fakes

(eigene Darstellung)

Der ökonomische Aspekt hebt die Chancen, die KI im Journalismus zugeschrieben werden, auf die Verlags- und Unternehmensebene. Für Stefan Grill (3pc) liegt darin sogar die Hauptchance: »Der eigentliche Nutzen der KI steckt eigentlich weniger im journalistischen Produkt, sondern mehr im Geschäftsmodell, nämlich Werbung oder andere Services zu verkaufen« (Stichwort Personalisierung). Ein Empfehlungssystem von personalisierten Artikeln kann ein wichtiger Ansatzpunkt für Newsrooms sein (vgl. Elmer 2021). Bedeutend ist die Personalisierung vor allem für die Distribution und den Vertrieb. Durch eine KI-gestützte Zielgruppen- und/oder Publikumsanalyse »können Abonnent:innen oder Premium-Kund:innen ganz neu angesprochen werden« (Jens Radü, SPIEGEL). Aus ökonomischer Perspektive kann dadurch im zweiten Schritt auch Werbung besser verkauft werden, weil sie zielgerichteter an die User gebracht werden kann. Im Zusammenhang mit der Personalisierung sehen die Befragten auch Chancen für den Lokaljournalismus, »weil ich mit KI und Automatisierung die Möglichkeit habe, mit regionalen Daten Angebote für sehr kleinräumige Gebiete zu schaffen, die ich mit menschlichen Arbeitskräften nie hinbringen würde« (Cécile Schneider, BR).

So stellen zur Verfügung stehende Daten zwar einerseits eine Chance für KI und Journalismus dar, auf der anderen Seite sind sie aber auch ein Risiko. Strenge Datenschutzregelungen erschweren die Arbeit. Das größte Risiko stellt allerdings der falsche Umgang mit den Daten dar. Die Herausforderungen offenbaren sich an drei Punkten des Produktionsprozesses:

  • In der Aufbereitung der Daten (1): Werden diese ungeprüft übernommen, können Verzerrungen, ein Bias oder fehlerhafte Daten in die KI-Anwendungen eingespeist werden, was wiederum auch verzerrte oder falsche Ergebnisse zur Folge hat. Vor allem große Datenmengen sind in der Bereinigung schwierig und aufwendig.
  • In der Anwendung der Daten (2): Werden die richtigen und aktuellen Daten für die spezielle KI-Anwendung verwendet? Im Sportjournalismus zum Beispiel können Trainerentlassungen oder Nachholspieltage zu fehlerhaften automatisiert hergestellten Texten führen. Die Pflege der Datensätze und KI-Anwendungen erfordert weitere Ressourcen.
  • In der Interpretation der Daten (3): Die Ergebnisse einer KI-gestützten Anwendung sollten von Menschen in den zugehörigen Kontext eingeordnet werden, ebenso sollte auf Grenzen und Limitationen im Datenmaterial und in den Ergebnissen hingewiesen werden, um Fehlinterpretationen durch das Publikum zu vermeiden.

In allen Fällen wird sichtbar, dass der Mensch im Journalismus nicht komplett durch eine KI-Anwendung ersetzt werden kann. Dem gegenüber stehen jedoch Ängste und Sorgen, die in vielen Redaktionen und Medienunternehmen verbreitet sind: »Erst herrscht schon eine gewisse Unruhe in der Branche. Ich glaube aber weniger davor, dass KI komplett unsere Arbeit ersetzt, aber dass man nicht so richtig weiß, was da kommt« (Susanne Merkle, BR). Insgesamt scheint die lange Zeit vorherrschende Stimmung der totalen Ablehnung aber im Wandel. Das berichtet auch Johannes Sommer, der mit seinem Unternehmen Retresco KI-Software für Redaktionen anbietet: »Vor fünf Jahren sind wir noch rausgeflogen, als z. B. der Sportchef eines Hauses gesagt hat: ›Solange ich hier Sportchef bin, werden wir niemals automatische Fußball-Texte haben.‹ Heute arbeiten fast alle großen Medienunternehmen mit uns zusammen.« Diese steigende Offenheit fokussiert auf der anderen Seite Herausforderungen, die bisher nur wenig priorisiert thematisiert wurden. Dazu zählen vor allem ethische Fragestellungen.

4.4 Ethik und Verantwortung

Fragen von Ethik und Verantwortlichkeit sind für die Befragten entscheidende Details für die dauerhafte Implementierung von KI-Anwendungen. Diese Fragestellungen sind generell nicht nur eine Diskussion des Journalismus, sondern ein Diskurs, der gesamtgesellschaftlich geführt wird (vgl. Weber-Guskar 2021). Aktuell befinden sich die Redaktionen und Medienhäuser in Bezug auf Regulierungen aber mehr oder weniger in einem luftleeren Raum: »Es müssen gesetzliche Grundlagen geschaffen werden für den Einsatz bzw. Nichteinsatz von KI-Anwendungen, also etwas, was bisher noch kaum geschehen ist« (Oliver Zöllner, Hochschule der Medien Stuttgart). Diesem Mangel versuchen die ersten Medienhäuser mit eigenen »Ethik-Richtlinien« (Steffen Kühne, BR) zu begegnen. Eine journalistische Verantwortung aus dem Umgang mit KI leiten die Befragten vor allem auf drei Ebenen ab:

  • Verantwortung gegenüber Daten: Diese Verantwortungsdimension lässt sich vor allem dem oben genannten Bereich der Datenaufbereitung (1) zuordnen und fordert eine Verantwortung für die »Richtigkeit« (Johannes Sommer, Retresco) der eingesetzten Daten. Demnach liegt es in der Verantwortung der Redaktionen, bestehendes oder altes Datenmaterial so aufzubereiten, dass dort vorhandene Bias oder Verzerrungen ausgebessert und so beispielsweise Vorurteile (Geschlecht, Hautfarbe etc.) nicht weitergetragen werden.
  • Verantwortung gegenüber Redaktion: Die Redaktionsmitglieder sollen in der Verantwortung bleiben, nicht die Maschine. Damit soll die Verantwortung innerhalb der Redaktion (und somit gegenüber der Redaktion) an eine oder mehrere Personen gebunden vorhanden bleiben. Die Befragten plädieren deshalb z. B. für fest installierte Abnahmeregelungen und Freigabeprozesse durch Menschenhand, damit »es eben nicht dazu kommt, dass ich die Verantwortung auf eine KI schieben kann« (Cécile Schneider, BR).
  • Verantwortung gegenüber Publikum: Ihm gegenüber besteht eine Verantwortung in der transparenten Kennzeichnung von KI-erstellten Inhalten und gegebenenfalls in der Erläuterung, wie und mit welchen Daten die KI-Anwendung zu diesen Ergebnissen gekommen ist. Bestenfalls verbunden mit der Nennung einer Ansprechperson. Darüber hinaus ist die menschliche Verantwortung für das Einhalten von Datenschutz und Persönlichkeitsrechten (z. B. bei Gesichtserkennung) transparent zu machen.

Die Verantwortlichen sind sich über alle Interviews hinweg einig, dass die übergeordnete Verantwortung in den Händen des Menschen und somit der Journalistinnen und Journalisten bleiben soll. Eine Verantwortungsübergabe »an die Maschine« soll nicht stattfinden. Stattdessen sehen die Befragten in einer besseren und übergeordneten Regulierung (Makroebene) und der Implementierung von Kontrollmechanismen in die Workflows rund um KI-Anwendungen (Mesoebene) Lösungen zur Vermeidung von (ethischen) Fehlern. Diese Sichtweise korreliert stark mit der für die KI angedachten Rolle als Assistenz für den Journalismus.

4.5 KI als Assistenz: »Werkzeug« mit Grenzen

Die Rolle von KI im Journalismus definieren die Befragten relativ klar und einheitlich. KI wird u. a. als »Werkzeug« (Steffen Kühne, BR), »Hilfsmittel« (Cécile Schneider, BR), »Skaliermittel« (Jens Radü, SPIEGEL) oder »Hilfe« (Oliver Zöllner, Hochschule der Medien Stuttgart) bezeichnet. Die zugedachte Rolle soll nicht über die Funktion als Assistenz hinausgehen, »die Hoheit der Relevanzentscheidung, die Hoheit des letzten Wortes«, wie es Jens Radü (SPIEGEL) formuliert, soll in der Hand der Journalistinnen und Journalisten bleiben. Damit verbunden ist auch die Kernaufgabe von Journalismus:

»Das, was Journalisten leisten können für die Gesellschaft, das wird sich nicht wirklich verändern. Wir werden nach wie vor recherchieren, wir werden nach wie vor Geschichten machen, wir werden Fakten prüfen und wir werden komplexe Zusammenhänge versuchen zu erklären. Aber wir werden eben das mithilfe von Künstlicher Intelligenz tun und die Künstliche Intelligenz wird uns an vielen Stellen unterstützen.« (Susanne Merkle, BR)

Die Grenzen von KI in Redaktionen sehen die Befragten folglich an verschiedenen Stellen. Gesammelt lassen sich folgende Punkte als aktuelle Bestandsaufnahme in Bezug auf Grenzen von KI im Journalismus festhalten:

  • im Erkennen, Verarbeiten und Darstellen von Atmosphäre und Emotionen,
  • in der Kontextbildung,
  • in der Zuverlässigkeit (z. B. bei der Recherche),
  • in moralischen/ethischen Entscheidungen,
  • in den zur Verfügung stehenden Daten,
  • im Inhalt der vorhandenen Daten.

Neben technischen Gründen werden einige Limitationen vor allem aus dem eigenen Berufsverständnis heraus begründet. Wie im Zitat von Radü bereits angeklungen, wird der KI nicht die Fähigkeit eingeräumt, beispielsweise ethische Fragen im Sinne einer menschlichen Moralvorstellung entscheiden zu können oder eine Wahl nach journalistischen Qualitäts- und Auswahlkriterien zu treffen. Vielmehr soll KI als Assistenz für den Journalismus…

  • Journalistinnen, Journalisten und Redaktionen zuarbeiten,
  • einfache Routineaufgaben übernehmen,
  • mehr Zeit für andere Tätigkeiten schaffen (z. B. Recherche),
  • die Produktionseffizienz erhöhen (einfachere und schnellere Produktion),
  • Hinweisgeberin sein (z. B. Auffälligkeiten in Datensätzen erkennen, Social-Media-Monitoring, Zielgruppenanalyse unterstützen),
  • Korrekturhilfe sein (z. B. bei Rechtschreibung oder anderer Fehlervermeidung).

Der Fokus des Journalismus verlagert sich dadurch noch mehr auf Recherche, Kreativität, Kontext-Interpretation und (finale) Entscheidung. Die übergeordnete Funktion der KI-Assistenz sehen die Befragten in der Unterstützung des Journalismus, um »besseren Journalismus zu machen« (Cécile Schneider, BR). Diese Hilfestellung wird für die Interviewten auch dann bereits erfüllt, wenn eine KI-Anwendung z. B. unliebsame Routineaufgaben übernimmt und so den Menschen mehr Zeit für Recherche verschafft. So gesehen unterstützt KI die Qualität von journalistischen Produkten, indem sie so manche Aufgaben übernimmt oder effizienter ausführt.

Die Rolle als Assistenz ist innerhalb der genannten Grenzen aber noch nicht ausgereizt. Die Befragten sehen die Entwicklung erst am Anfang und identifizieren viel Entwicklungspotential. Vor allem in der Personalisierung und der zielgerichteten Distribution von journalistischen Inhalten erwarten sie Chancen. Das beginnt in der Datenauswertung von Nutzerfeedback und genaueren Zielgruppenanalysen und endet – in der Vorstellungskraft der Befragten – bei einem »personalisierten« Magazin, welches für jeden Menschen auf Basis ihrer/seiner Lesegewohnheiten zusammengestellt und produziert wird. Aus ökonomischer Perspektive erwarten die Befragten durch die fortschreitende technische Entwicklung u. a. günstigere Anschaffungskosten für KI-Tools und somit die Möglichkeit für mehr Redaktionen, KI-Technologie einzusetzen.

Auf der anderen Seite steht der Journalismus allerdings vor der Herausforderung, auch in sich selbst zu investieren. Neben den angesprochenen technischen Grenzen von KI liegen die Grenzen von KI im Journalismus auch in den Journalistinnen und Journalisten selbst. Die Interviewten sehen an dieser Stelle über alle Ebenen hinweg großen Nachholbedarf, auch auf Entscheider-Ebene: »Es ist schon ein großes Problem, dass das Wissen in den Medienhäusern unterentwickelt ist. Sie müssen Entscheidungen treffen, ob sie eine Software einkaufen, die sie aber gar nicht beurteilen können, weil ihnen einfach das Wissen fehlt« (Johannes Sommer, Retresco). Für fast alle Befragten ist klar, dass der Weg nur über Nachschulungen beim vorhandenen und über eine Anpassung der Ausbildung beim zukünftigen Personal führt, um die Branche zukunftsfähig aufzustellen. Der Umbruch und Umbau des Journalismus sind nachhaltig: »Früher hat es beim Fernsehen einen Journalisten, einen Kameramann und einen Ton-Verantwortlichen gegeben. Zukünftig wird es einen Journalisten, einen Grafiker, einen Datamanager und einen Entwickler geben« (Susanne Merkle, BR). Die Organisation von Redaktionen oder Newsrooms wird sich mit KI weiter verändern, darin sind sich die Interviewten einig. Dass der Journalismus in Deutschland dabei aber erst am Anfang steht, verdeutlicht der internationale Kontext.

4.6 Internationaler Vergleich

International gesehen darf sich Deutschland im Gesamten ebenso wie im Journalismus in Bezug auf KI als abgehängt betrachten, darin besteht bei den Befragten Konsens. Während sie KI in Deutschland mehr oder weniger in den »Kinderschuhen« (Gabriele Wenger-Glemser, BR) verorten, sind vor allem die USA und China Deutschland (und Europa) enteilt: »Deutschland ist auf keinen Fall an der Speerspitze der Entwicklung. An dieser Stelle laufen wir weit hinterher. Wir sind als Gesamtbranche sicherlich nicht innovativ, sondern Follower« (Johannes Sommer, Retresco). In der Medienbranche werden international vor allem die Washington Post, die Financial Times oder die BBC als Vorreiter gesehen, vereinzelt wird Axel Springer als international agierendes Unternehmen für ein positives deutsches Beispiel gehalten.

Dass KI als Innovationstreiber im deutschen Journalismus noch nicht angekommen ist, zeigen auch die Ergebnisse aus unserem internationalen und von der Deutschen Forschungsgemeinschaft (DFG) geförderten Forschungs­projekt »Innovationen im Journalismus in demokratischen Gesellschaften: Index, Einfluss und Voraussetzungen im internationalen Vergleich«, an dem insgesamt 19 Forschende aus Deutschland, Österreich, der Schweiz, Spanien und Großbritannien beteiligt sind. Ziel dieses auf drei Jahre ausgelegten Forschungsprojektes ist es, die erfolgreichsten Innovationen im Journalismus in den besagten Ländern im Zeitraum von 2010 bis 2020 zu identifizieren und in anschließenden Fallstudien näher zu untersuchen (vgl. Meier 2020). Zur Identifizierung der erfolgreichsten Innovationen im Journalismus wurden im Zeitraum von Dezember 2020 bis April 2021 jeweils 20 Expertinnen und Experten pro Land mithilfe eines Leitfadens befragt. Die Befragten in den Ländern wurden nach den Kompetenzbereichen Medienschaffende (Praxis), Medienbeobachtende (Wissenschaft) und Medienbewertende (z. B. aus Media Labs oder Jurys) ausgewählt und um die Nennung ihrer wichtigsten Innovationen (vorgegebener Richtwert: 10 Nennungen) gebeten. Am Ende konnten so 273 Innovationen in Deutschland gezählt werden.

Aus den Interviews geht hervor, dass Künstliche Intelligenz in Deutschland bisher kaum als Innovation im oder für den Journalismus wahrgenommen wird. Von den deutschen Befragten zählten nur vier von 20 überhaupt eine Innovation auf, die sich dem Bereich KI und Automatisierung zuordnen lässt. Künstliche Intelligenz wurde dabei allerdings nur einmal wörtlich als die Innovation genannt, ansonsten fand der Zugang in erster Linie über die Automatisierung statt.[2] Zur Einordnung im nationalen Kontext dient ein Vergleich mit anderen Innovationsbereichen: Der Audio-Bereich (u. a. mit Podcasts) wurde in Deutschland von zwölf Befragten, digitales Storytelling von zwölf, Paywalls von zehn und Nachrichten über Social Media von 15 Befragten angegeben. Allein »funk« wurde genauso häufig von den Befragten (vier Mal) als Innovation genannt wie der gesamte Bereich KI und Automatisierung.

Während in Deutschland somit nur ein Fünftel der Befragten KI/Automatisierung als eine der wichtigsten Innovationen im Journalismus in der Dekade 2010 bis 2020 betrachten, ist der Anteil in den Vergleichsländern deutlich höher (vgl. Tabelle 3). IIn Österreich und der Schweiz sind es fast doppelt so viele Expertinnen und Experten, in Großbritannien sind es doppelt so viele und in Spanien sogar mehr als doppelt so viele, die KI/Automatisierung als bedeutende Innovation einordnen. Deutschland bildet damit im Ländervergleich das Schlusslicht.

Tabelle 3:
KI und Automatisierung als Innovation

Land Anzahl Befragter Anzahl Befragter, die KI als Innovation nennen
Deutschland 20 5
Großbritannien 20 10
Österreich 23 8
Schweiz 25 10
Spanien 20 12

Übersicht über Anzahl der Befragten pro Land und die Anzahl derer, die KI und Automatisierung als eine der wichtigsten Innovationen im Journalismus in den Jahren 2010-2020 sehen (eigene Darstellung).

Die Gründe für den höheren Wert in den anderen Ländern sind vor allem im Bereich der Content-Produktion zu finden. Allein in Spanien wird die Produktion von automatisierten und KI-basierenden Nachrichten neun Mal genannt. Darüber hinaus wird auch der vermehrte Einsatz von KI zur Optimierung von Abonnements (z. B. über algorithmisierte Paywalls) und Werbung als wichtige Innovation für den Journalismus angeführt. Über alle Länder hinweg wird aber die automatisierte Produktion von journalistischen Inhalten mit Hilfe von KI als das zentrale innovative Element im Bereich KI/Automation angesehen.

5. Fazit und Ausblick

Künstliche Intelligenz hat eine zentrale Bedeutung für den digitalen Journalismus eingenommen und wird diese Bedeutung zunehmend ausbauen. Anhand verschiedener begrifflicher Zugänge halten wir als definitorischen Zugang zunächst fest: Künstliche Intelligenz (KI) ist ein technisch-fundierter, individuell angepasster und durch Perma-Feedback trainierter Pool verschiedener Tools in ständiger Weiterentwicklung. Diese Tools verwenden häufig große Datensätze und können die ganze Bandbreite des journalistischen Produktionsprozesses unterstützen.

Grundsätzlich ist die Rolle der KI im Journalismus aktuell also als eine Form von Assistenz zu verorten. Konkretere Details zur genauen Ausgestaltung hierzu liefert unsere qualitative Befragung von 18 ausgewählten Expertinnen und Experten aus Wissenschaft und Praxis (Erhebungszeitraum November 2020 – Juni 2021). Demzufolge können wir aus wissenschaftlicher und praktischer Perspektive feststellen, dass die Bedeutung des Themas KI und Automatisierung für den Journalismus unbestritten ist, nach wie vor aber hoher Bedarf an grundlegender Information (auch definitorisch), Diskussion und Kooperation besteht. Die entsprechenden Einsatzmöglichkeiten von KI werden durch die Interviews ebenfalls klarer: Aktuell sind diese vor allem in den Bereichen Recherche/Themenfindung, Darstellung/Aufbereitung von Content, Unterstützung bei der Distribution, Unterstützung redaktioneller Workflows und bei der Verifikation externer Inhalte zu beobachten.

Daraus ergibt sich gleichzeitig ein verstärkter Fokus auf neue Kompetenzen: Der Journalismus der Gegenwart und Zukunft sollte KI als Assistenz begreifen (technisch, definitorisch und redaktionell), er muss das Thema als ständige diskursive Auseinandersetzung über Chancen und Risiken integrieren und auch entlang der medienethischen Debatte Bewusstsein und Lösungen (vor allem entlang der Verantwortungslinien für Content und Publikum) schaffen.

Das ist umso dringlicher, weil die Resultate aus unserem internationalen Forschungsprojekt darauf hinweisen, dass Deutschland in diesem Schlüsselfeld von Gegenwart und Zukunft nur Follower ist. Zumindest in der Wissenschaftspolitik ist gesteigertes Problembewusstsein zu erkennen: In den nächsten Jahren werden zahlreiche Professuren zum Thema KI entstehen. Entscheidend wird sein, sowohl interdisziplinär (technische, geistes- und sozialwissenschaftliche Zugänge) sowie transdisziplinär in einem engen Austausch von Wissenschaft und Praxis an Lösungen zu arbeiten.

Ein Teil der Forschung zu diesem Aufsatz wurde gefördert von der Deutschen Forschungsgemeinschaft (DFG), Projektnummer 438677067, im Rahmen des Projekts »Journalism innovation in democratic societies: Index, impact and prerequisites in international comparison« (JoIn-DemoS).

Über die Autoren

Michael Graßl ist Wissenschaftlicher Mitarbeiter am Lehrstuhl Journalistik I der Katholischen Universität Eichstätt-Ingolstadt. Dort forscht er schwerpunktmäßig zu Journalismus und Social Media, Innovationen im Journalismus und zu den Veränderungsprozessen, die Künstliche Intelligenz für den Journalismus bedeuten. Er erarbeitete u. a. Lehreinheiten für den KI-Campus. Kontakt: Michael.Grassl@ku.de

Jonas Schützeneder, Dr., ist Vertretungsprofessor für Journalismus und digitale Innovation an der Hochschule Magdeburg-Stendal. Seine Forschungsschwerpunkte liegen vor allem in den Bereichen Innovationen im Journalismus, Lokaljournalismus und digitale Kommunikation. Zusammen mit Klaus Meier war er 2020/21 als Fellow am KI-Campus aktiv. Kontakt: Jonas.Schuetzeneder@h2.de

Klaus Meier, Prof. Dr., ist Inhaber des Lehrstuhls für Journalistik I an der Katholischen Universität Eichstätt-Ingolstadt und seit 2021 auch deren Vizepräsident für Studium und Lehre. Zentrale Forschungsinhalte sind u. a. Innovation und Transformation im Journalismus, Qualität und Ethik, Transfer, Journalistenausbildung. Zusammen mit Jonas Schützeneder war er 2020/21 Fellow am KI-Campus. Seit 2020 leitet er das internationale DFG-Projekt »Innovations in Journalism«. Kontakt: Klaus.Meier@ku.de

Literatur

Altmeppen, Klaus; Arnold, Klaus (2013): Journalistik: Grundlagen eines organisationalen Handlungsfelds. München: Oldenbourg.

Beckett, Charlie (2019): New powers, new responsibilities. A global survey of journalism and artificial intelligence. London: LSE/Journalism AI/Google News Initiative.

Bienefeld, Nadine (2020): From Tools to Teammates: Human-AI Teaming Success Factors in High-risk Industries. Projekt an der ETH Zürich (2020-2024); abrufbar unter https://p3.snf.ch/project-187331

Buxmann, Peter; Schmidt, Holger (2021) Grundlagen der Künstlichen Intelligenz und des Maschinellen Lernens. In: Buxmann, Peter; Schmidt, Holger (Hrsg.): Künstliche Intelligenz. Berlin, Heidelberg: Springer Gabler, S. 3-25. https://doi.org/10.1007/978-3-662-61794-6_1

Caswell, David; Dörr, Konstantin (2017): Automated Journalism 2.0: Event-driven narratives. From simple descriptions to real stories. In: Journalism Practice, 12(4), S. 477-496. https://doi.org/10.1080/17512786.2017.1320773

Dernbach, Beatrice (2022): Lernen und Lehren: (Social-Media-) Kompetenzen in der journalistischen Ausbildung. In: Schützeneder, Jonas; Graßl, Michael (Hrsg.): Journalismus und Instagram. Analysen, Strategien, Perspektiven aus Wissenschaft und Praxis. Wiesbaden: Springer VS, S. 89-104.

Diakopoulos, Nicholas (2019): Automating the News. Cambridge: Harvard University Press.

Dörr, Konstantin (2016): Mapping the field of Algorithmic Journalism. In: Digital Journalism, 4(6), S. 700-722. https://doi.org/10.1080/21670811.2015.1096748

Dörr, Konstantin; Hollnbuchner, Katharina (2017): Ethical Challenges of Algorithmical Journalism. In: Digital Journalism, 11(5), S. 404-419. https://doi.org/10.1080/21670811.2016.1167612

Dreyer, Stephan; Schulz, Wolfgang (2019): Künstliche Intelligenz, Intermediäre und Öffentlichkeit. Bericht an das BAKOM, abrufbar unter https://www.bakom.admin.ch/bakom/de/home/elektronische-medien/studien/einzelstudien.html

Elmer, Christina (2021): KI und Journalismus: Die erstaunlichsten und nützlichsten KI-Tools, die Journalismus besser machen können. Und Mythen, die es aufzuklären gilt. Präsentation im Rahmen des SPIEGEL Story Days am 29. Oktober in Hamburg.

Filipovic, Alexander (2020): Ethik als Akteurin für die Entwicklung einer digitalen Kultur. Das Verhältnis zu Wirtschaft und Politik am Beispiel des Diskurses um »Künstliche Intelligenz«. In: Prinzing, Marlis; Debatin, Berhard; Köberer, Nina (Hrsg.): Kommunikations- und Medienethik reloaded? Nomos: Baden-Baden.

García-Avilés, José; Kaltenbrunner, Andy; Meier, Klaus (2014): Media Convergence Revisited. Lessons learned on newsroom integration in Austria, Germany and Spain. In: Journalism Practice, 8(5), S. 573-584. https://doi.org/10.1080/17512786.2014.885678

Giessmann, Marius; Goutrie, Christine; Herzog, Michael (2018): Unsichtbar und unverständlich: Kennzeichnungen von Roboterjournalismus. In: Dachselt, Raimund; Weber, Gerhard (Hrsg.): Mensch und Computer 2018 – Sammelband zur Tagung in Dresden. Dresden: GfI. https://doi.org/10.18420/muc2018-mci-0294

Gillmor, Dan (2013): Unternehmer werden Journalismus retten (und Sie können einer von ihnen sein). In: Kramp, Leif; Novy, Leonard; Ballwieser, Dennis; Wenzlaff, Karsten (Hrsg.): Journalismus in der digitalen Moderne. Einsichten – Ansichten – Aussichten. Wiesbaden: Springer VS.

Godulla, Alexander; Hoffmann, Christian P.; Seibert, Daniel (2021): Dealing with deepfakes – an interdisciplinary examination of the state of research and implications for communication studies. In: SCM Studies in Communication and Media, 10(1), S. 72-96. https://doi.org/10.5771/2192-4007-2021-1-72

Graßl, Michael; Schützeneder, Jonas; Klinghardt, Korbinian (2020): Intermediäre Strukturen und Neu-Organisation bekannter Aufgaben: Instagram im Lokaljournalismus. In: Medienwirtschaft: Zeitschrift für Medienmanagement und Medienökonomie, Heft 2-3, S. 18-27. Doi: 10.15358/1613-0669-2020-2-3-18

Hogh-Janovsky, Isabell; Meier, Klaus (2021): Journalism Innovation Labs 2.0 in Media Organisations : A Motor for Transformation and Constant Learning. In: Journalism and Media, 2(3), S. 361-378. Doi: 10.3390/journalmedia2030022

Holland, Martin (2018): Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen, abrufbar unter https://www.heise.de/newsticker/meldung/Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html

Linden, Carl-Gustav (2017): Decades of Automation in the Newsroom. Why are there still so many jobs in journalism? In: Digital Journalism, 5(2), S. 123-140. https://doi.org/10.1080/21670811.2016.1160791

Lischka, Juliane (2018): Nachrichtenorganisation. Umbrüche durch Konvergenz, Crossmedialität, Multikanal- und Innovationsfähigkeit. In: Nuernbergk, Christoph; Neuberger, Christian (Hrsg.): Journalismus im Internet. Profession – Partizipation – Technisierung. Wiesbaden: Springer VS, 2. Auflage.

Loosen, Wiebke; Solbach, Paul (2020): Künstliche Intelligenz im Journalismus? Was bedeutet Automatisierung für journalistisches Arbeiten? In: Köhler, Tanja (Hrsg.): Fake News, Framing, Fact-Checking: Nachrichten im digitalen Zeitalter: Ein Handbuch. https://doi.org/10.14361/9783839450253-010

Mattke, Sascha (2018): KI gegen KI: Wettbewerb zu Fälschung von Video-Inhalten, abrufbar unter https://www.heise.de/newsticker/meldung/DARPA-veranstaltet-Wettbewerb-zu-Faelschung-von-Video-Inhalten-4074467.html

McCarthy, John (2007): What is Artifical Intelligence? abrufbar unter http://jmc.stanford.edu/articles/whatisai/whatisai.pdf

Meier, Klaus (2020): Start des Projekts, abrufbar unter: https://innovations-in-journalism.com/2020/innovationen-journalismus-medien-projekt-deutschland-spanien-medieninnovationen

Meier, Klaus (2018): Journalistik. 4. Auflage. Konstanz: UTB.

Meier, Klaus; Schützeneder, Jonas; Graßl, Michael (2021): KI als Anwendung im Journalismus: zwischen Misstrauen und Aufklärung. Berlin: KI-Campus, abrufbar unter https://ki-campus.org/blog/ki-im-journalismus

Meier, Klaus; Schützeneder, Jonas (2019): Bridging the Gaps: Transfer Between Scholarly Research and Newsrooms in Journalism Education – Toward an Evidence-Based Practice in an Age of Post-Truth and State of Flux. In: Journalism and Mass Communication Educator, 74(2), S. 199-211. https://doi.org/10.1177/1077695819830021

Meier, Klaus; Graßl, Michael (2021): Podcast »KI im Journalismus«, abrufbar unter: https://ki-campus.org/podcasts/ki-im-journalismus

Montal, Tal; Reich, Zvi (2017): I, Robot. You, Journalist. Who is the Author? Authorship, bylines and full disclosure in automated journalism. In: Digital Journalism, 12(5), S. 829-849.

Newman, Nic (2021): Journalism, Media, and Technology Trends and Predictions 2021, abrufbar unter https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2021-01/Newman_Predictions_2021_FINAL.pdf

Pauly, Marcel (2021): So lassen wir Dutzende Wahlkreisanalysen automatisiert schreiben, abrufbar unter https://www.spiegel.de/backstage/ltw-in-baden-wuerttemberg-und-rheinland-pfalz-2021-automatisierte-wahlkreis-analysen-a-701c2ffb-c0a9-4ffb-8575-ac27c2184a0e

Porlezza, Colin (2020): Ethische Herausforderungen des automatisierten Journalismus. Zwischen Dataismus, Bias und fehlender Transparenz. In: Prinzing, Marlis; Debatin, Bernhard; Köberer, Nina (Hrsg.): Kommunikations- und Medienethik reloaded? Baden-Baden: Nomos. https://doi.org/10.5771/9783748905158-143

Rech, Benjamin; Meyer, Matthias (2021): Plattformen und neue Technologien im Journalismus: Ergebnisse einer Online-Befragung von Journalistinnen und Journalisten in Deutschland. ArXiv, abs/2105.07881

Seeber, Isabella, Bittner, Eva, Briggs, Robert O., de Vreede, Triparna, de Vreede, Gert-Jan, Elkins, Aaron, Maier, Ronald, Merz, Alexander B., Oeste-Reiß, Sarah, Randrup, Nils, Schwabe, Gerhard, Söllner, Matthias (2020): Machines as teammates: A research agenda on AI in team collaboration. In: Information & Management, 57(2). https://doi.org/10.1016/j.im.2019.103174

Stray, Jonathan (2019): Making Artificial Intelligence Work for Investigative Journalism. In: Digital Journalism, 7(8), S. 1076-1094. https://doi.org/10.1080/21670811.2019.1630289

Thurman, Neil (2020): Computational Journalism. In: Wahl-Jorgensen, Karin; Hanitzsch, T. (Hrsg.): The Handbook of Journalism Studies. New York: Routledge.

Vergeer, Maurice (2020): Artificial Intelligence in the Dutch Press: An Analysis of Topics and Trends. In: Communication Studies, 71(3), S. 373-392. https://doi.org/10.1080/10510974.2020.1733038

Weber-Guskar, Eva (2021): Drohen mit dem Einsatz von Künstlicher Intelligenz neue Menschenwürdeverletzungen? In: Kipke, Roland; Röttger, Nele; Wagner, Johanna; v. Wedelstaedt, Almut Kristine (Hrsg.): ZusammenDenken. Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-33464-2_12

Fussnoten

1 Wir danken den Befragten für die wertvollen Impulse und die Unterstützung des Projekts. Folgende Studierende aus dem Masterstudiengang »Journalistik mit dem Schwerpunkt Innovation und Management« waren beteiligt: Konstantin Holtkamp, Felix Melzer, Verena Müller, Morgana Pfeiffer, Amelie Ries, Leonie Bednorz, Paulina Skrobanek, Leonie Heinrichs, Hannah Marquardt, Tamara Ruf, Florian Enslein, Jana Rudolf, Laura Danner und Katharina Harbach.

2 Den Begriff Automatisierung haben wir zu Beginn dieses Beitrags aus theoretischer Perspektive von Künstlicher Intelligenz abgegrenzt (vgl. Kap. 2 sowie Dörr 2016; Montal/Reich 2017), für den länderübergreifenden Vergleich wurden im vorliegenden internationalen Forschungsprojekt KI und Automatisierung aufgrund von zahlreichen Überschneidungen und Übereinstimmungen in den Interviews als ein Innovationscluster zusammengeführt.


Über diesen Artikel

 

Copyright

Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.

Zitationsvorschlag

Michael Graßl, Jonas Schützeneder und Klaus Meier: Künstliche Intelligenz als Assistenz. Bestandsaufnahme zu KI im Journalismus aus Sicht von Wissenschaft und Praxis. In: Journalistik. Zeitschrift für Journalismusforschung, 1, 2022, 5. Jg., S. 3-27. DOI: 10.1453/2569-152X-12022-12021-de

ISSN

2569-152X

DOI

https://doi.org/10.1453/2569-152X-12022-12021-de

Erste Online-Veröffentlichung

März 2022