Generative visuelle KI in Redaktionen Überlegungen zu Produktion, Präsentation, Auslegung durch das Publikum und Auswirkung auf das Publikum

Von T. J. Thomson und Ryan J. Thomas

Abstract: KI-Dienste, die Antworten auf Anfragen bereitstellen, wie ChatGPT, haben leidenschaftliche Diskussionen über die Zukunft des Lernens, der Arbeit und der Kreativität entfacht. KI-gesteuerte Text-zu-Bild-Generatoren, wie Midjourney, werfen tiefgreifende Fragen nach dem Zweck, der Bedeutung und dem Wert von Bildern auf, haben jedoch trotz der aufgeworfenen Implikationen für die Produktion und den Konsum von Bildern wesentlich weniger Forschungsaufmerksamkeit erhalten. In diesem Essay werden grundlegende Überlegungen angestellt, die Journalist*innen und Nachrichtenmedien im Auge behalten sollten, wenn sie die Konzeption, Beschaffung, Präsentation oder Überprüfung von KI-generierten Bildern in Betracht ziehen. Insbesondere werden in diesem Essay die Transparenz bezüglich der Auswirkung von Algorithmen sowie Herkunft, algorithmische Vorurteile, Arbeitsethik und die Verdrängung von herkömmlichen Bildjournalist*innen diskutiert. Weiterhin werden in diesem Essay potenzielle Auswirkungen auf Präzision und Repräsentativität von Bildern angesprochen, die das Publikum in Nachrichten sieht, während auch der Mangel entsprechender Vorschriften und Initiativen zur Entwicklung von Richtlinien zur Nutzung von KI-generierten Bildern in Nachrichten bedacht wird. Die Autoren haben dazu acht Bildredakteur*innen bzw. Journalist*innen in entsprechenden Positionen in leitenden Nachrichtenorganisationen in Australien und den USA befragt. Insgesamt arbeitet dieser Essay Schlüsselfragen heraus, die Journalist*innen und ihre Nachrichtenorganisationen im Zeitalter von KI und synthetischen, visuellen Medien in Angriff nehmen müssen.

Übersetzung: Stine Eckert

Abbildung 1
KI-generiertes Bild (links) von Papst Franziskus in Luxusdaunenjacke

Quelle: Twitter Screenshot

Ein Bild von Papst Franziskus mit Daunenjacke eines Luxusmodehauses (siehe Abbildung 1) ging im März 2023 viral. Es wurde durch den Text-zu-Bild-Generator Midjourney kreiert und zunächst auf Reddit gepostet, bevor es online weiterverbreitet und von vielen gesehen wurde (Di Placido 2023). Im selben Monat verbreiteten sich auch KI-generierte Bilder des ehemaligen U.S.-Präsidenten Donald Trump rasch online (Devlin/Cheetham 2023). Die schnelle Verbreitung der Bilder online und das Ausmaß, in dem sie als glaubwürdig behandelt wurden, haben Bedenken geweckt, inwiefern Rezipient*innen im Internet fähig sind, Wahrheit von Unwahrheit zu unterscheiden (Stokel-Walker 2023; Vincent 2023). Diese Bilder bieten einen sinnvollen Einstiegspunkt in eine Diskussion darüber, was Journalist*innen und Redaktionen wissen sollten zu generativer visueller KI, die sich zunehmend weiterverbreitet. In diesem Essay untersuchen wir relevante Bereiche – Produktion, Präsentation, Auslegung durch das Publikum und Auswirkung auf das Publikum – generativer visueller KI und ihre Konsequenzen für Redaktionen, Journalist*innen und ihre Öffentlichkeiten.

Unser Essay schließt an jüngste Forschungsarbeiten an (siehe Becker 2023; Cools/Diakopoulos 2023), die Redaktionsrichtlinien (vorwiegend in Europa und Nordamerika) bezüglich KI untersucht haben. In diesen Studien fanden die Forschenden heraus, dass Transparenz, Verantwortlichkeit und Zuständigkeit häufig in Redaktionsrichtlinien erwähnt werden, während Fragen zum Beispiel zur Einhaltung von gesetzlichen Vorschriften und zu Vorurteilstendenzen in den Algorithmen weniger hervortreten. Unser Essay fügt der bestehenden Fachliteratur Erkenntnisse aus Redaktionen in Australien hinzu und evaluiert die Perspektiven von Redakteur*innen in anderen Redaktionen in Nordamerika als von Becker (2023) und Cools und Diakopoulus (2023) untersucht wurden. Unser Essay hebt sich auch dadurch ab, dass er einen zentralen Fokus auf visuelle Aspekte von generativer KI legt, anstatt sie nur am Rande oder gar nicht zu betrachten. Dahingehend erweitert dieser Essay den Blickwinkel zu Fragen zur Produktion hinaus, um auch Aspekte der Präsentation, Interpretation durch das Publikum, Auswirkung auf das Publikum und interner Denkweisen in Redaktionen zu Richtlinien und Praxis zu erörtern, anstatt nur öffentlich zugängliche Richtlinien zu evaluieren.

Überlegungen zum Produktionsbereich

Mit Onlineprogrammen wie Midjourney, DALL·E und Nightcafé lässt sich generative visuelle KI preiswert und unkompliziert einsetzen. Nutzer*innen brauchen sich nur vorzustellen, welche Szene sie bildlich dargestellt haben möchten und sie durch Worte zu beschreiben, so dass der zugrundeliegende Algorithmus ein oder mehrere Ergebnis(se) erzeugen kann, die die KI passend für die Beschreibung findet. Dies nennt sich »Prompting« oder »Prompt-Gestaltung«; Prompts können einfache, einzelne Wörter (z. B. »Mädchen« oder »Restaurant«) oder längere Beschreibungen sein, die besondere Merkmale der Szene und des Materials zur Visualisierung detaillieren (z. B. »ein 12-jähriges Mädchen, das auf einem Hocker in einem leeren Restaurant in Berlin sitzt, filmtauglich, 85 mm Objektiv, f/1.8. Akzentbelichtung, globale Beleuchtung, –ar2:3«). In diesem zweiten Beispiel stellt die*der Nutzer*in detaillierter dar, was genau zu sehen sein soll (nämlich das soziale Geschlecht und spezifische Alter der Person an einem bestimmten Ort, gezeigt mit einer bestimmten Brennweite und einem bestimmtem Blendenwert). Sie*er haben auch einen visuellen Stil (»filmtauglich«), Lichtverhältnisse (»globale Beleuchtung«), und Abbildungsmaßstab (»2:3«) angegeben, der das Breite-zu-Höhe-Verhältnis des Bildrahmens festlegt.

Eventuelle Probleme ergeben sich jedoch aus der Frage, wie ein Algorithmus entwickelt wurde und welches vorhandene Quellenmaterial er nutzt, um Bilder zu generieren (Sun/Wei/Sun/Suh/Shen/Yang 2023). Im obigen Prompt haben wir zum Bespiel zwar das soziale Geschlecht und Alter der Person angegeben, jedoch nicht ihren ethnischen Hintergrund oder ihren Status als (nicht)-behinderte Person. Es wird der KI überlassen, diese Lücken zu füllen. Häufig werden dadurch Ergebnisse generiert, die schon bestehende Vorurteile und Stereotypen weiter verstärken (Thomas/Thomson 2023), inklusive solcher, die sich auf soziales Geschlecht, Alter, Ethnizität, Nichtbehinderung und Standort beziehen.

Da Programme wie Midjourney und DALL·E einfach und preiswert zugänglich sind, könnte ein Journalist oder eine Redakteurin (oder deren kostenbewusste Kolleg*innen in der Finanzabteilung) auf den Gedanken kommen, ob die zugehörige Redaktion nicht auch KI nutzen könnte, um Bilder herzustellen anstatt Mitarbeitende oder freischaffende Journalist*innen herauszuschicken, um eine Szene fotografieren. Redaktionen, die so denken, könnten ein Jahresabo für Text-zu-Bild-Generatoren wie Midjourney kaufen, das genauso viel kostet wie der Tagessatz einer freischaffenden Journalistin. Tatsächlich wird die Nutzung von KI, um Inhalte für Printjournalismus zu generieren, zunehmend zum Problem. Beispielsweise hat eine Studie zu CNET, einer Nachrichtenwebseite für Technik, festgestellt, dass über die Hälfte der Texte, die durch KI generiert wurden, Fehler beinhalteten (Sato/Roth 2023) und der Zeitungsverlag Gannett wurde weithin für die schwülstige Prosa seiner KI-generierten Sportberichte kritisiert (Wu 2023).

Zwischen März und Juli 2023 haben wir Bildredakteur*innen und Journalist*innen in der entsprechenden Position in Redaktionen in Australien und den USA zu der Frage interviewt, wie sie generative visuelle KI in ihren Redaktionen betrachten und nutzen. Wir versprachen unseren Teilnehmer*innen Anonymität, so dass wir die Namen ihrer Nachrichtenredaktionen nicht nennen können. Wir können jedoch sagen, dass es sich bei den acht Unternehmen in unserem Sample überwiegend um große Nachrichtenorganisationen (im Durchschnitt mit ca. 3,000 Mitarbeitenden) handelt, die in erster Linie ein überregionales oder internationales Publikum ansprechen anstatt eines regionalen oder lokalen Publikums. Unsere Auswahl gründet auf der Annahme, dass große Redaktionen mit dem größten Publikum höchstwahrscheinlich die meisten Ressourcen zur Verfügung haben und damit die Möglichkeit, Richtlinien zu generativer visueller KI zu entwickeln. Wir nahmen an, dass kleinere Redaktionen und solche mit weniger Ressourcen entweder gar keine Richtlinien bezüglich KI hatten oder die Richtlinien größerer Medienunternehmen oder die von Berufsorganisationen für Journalist*innen übernehmen oder für sich anpassen würden.

Die meisten Redakteur*innen, mit den wir sprachen, sagten, dass sie generative visuelle KI nur für das kreative Sammeln von Ideen oder für die Illustration von Artikeln, die sich direkt auf generative visuelle KI beziehen, nutzen würden. Einige Redakteur*innen unterschieden zwischen der Nutzung von generativer visueller KI für Nachrichten und für andere Artikel, die entweder im Feuilleton erschienen oder Meinungsbeiträge waren und für die Fotoillustrationen oder Konzeptkunst üblicher seien. Diese Redakteur*innen fanden den Gebrauch von generativer visueller KI für diese Aufgaben angebrachter als für Nachrichtenartikel. Die meisten Redakteur*innen sagten, sie hätten Bedenken bezüglich der Auswirkungen von generativer visueller KI auf die Arbeit herkömmlichen Bildredakteur*innen und deren Verdrängung durch KI. Die Teilnehmenden gaben an, dass sie sich in ihrer Branche dafür verantwortlich fühlten, weiter in das Handwerk des herkömmlichen visuellen Storytellings zu investieren und Bildredakteur*innen zu unterstützen, selbst wenn Kolleg*innen aus anderen Ressorts oder mit anderem Hintergrund den Unterschied zwischen KI-generierten und traditionellen Bildproduktionsmethoden und ihren Ergebnissen nicht zu schätzen wissen würden.

Eine weitere produktionsrelevante Überlegung, die die Redakteur*innen ansprachen, war das Urheber*innenrecht. Text-zu-Bild-Generatoren werden durch eine riesige Menge an Bilderserien trainiert, die oft dem Urheber*innenrecht unterstehen. Dies wirft Fragen dahingehend auf, inwiefern Dienstleister wie Midjourney das Recht an geistigem Eigentum von Fotograf*innen, Künstler*innen und anderen visuellen Kommunikator*innen verletzen, in dem sie von deren Bildern lernen, um ihre eigenen zu erstellen. Diese Fragestellung wird weiter dadurch verkompliziert, dass die meisten Text-zu-Bild-Generatoren verschleiern, wo ihre Trainingsdaten herstammen und wie die Algorithmen, die dem Generator unterliegen, genau funktionieren. Diese Fragestellung wird aktuell auch von Gerichten in verschiedenen Gerichtsbarkeiten verhandelt (Brittain 2023). Eine bemerkenswerte Ausnahme stellt Adobes Antwort auf generative visuelle KI, Firefly, dar. Adobe gibt an, dass sein Modell für Firefly nur durch Daten aus dem Adobe Bildarchiv oder öffentlich lizenzierte Inhalte oder Bildertrainiert wird, die gemeinfreiheitlich zugänglich sind. Das verringere das rechtliche Risiko, die daraus resultierenden Bilder kommerziell zu verwerten.

Überlegungen zum Präsentationsbereich

Journalist*innen und Redakteur*innen genießen mehr Freiheit, die Darstellung der verschiedenen Elemente auf ihren eigenen Webseiten individuell zu gestalten (obwohl die Journalist*innen, die wir interviewt haben, beklagen, dass dies oft ein zeitraubender, teurer und frustrierender Prozess ist). Verlage haben jedoch weniger relative Freiheiten, wenn sie Inhalte auf die Plattformen von sozialen Medien stellen. Während sie die Anzahl der Bilder pro Post und die dazugehörigen Bildunterschriften kontrollieren können, legt jedoch die Plattform die absolute Größe von Posts, die Farbe des Bilderrahmens und andere Merkmale der Nutzungsoberfläche fest, was zu einem relativ homogenen Seherlebnis führt (Sutcliffe 2016). Es gibt Fälle, in denen der Inhalt einer angesehenen Nachrichtenmarke neben dem Inhalt einer fremden Marke erscheint und beide Post relativ ähnlich bezüglich der Grundelemente, die genutzt werden, »aussehen.« Methoden zur Verifizierung und Statusangaben existieren auf einigen Plattformen, aber fehlen bei anderen oder stehen nur Nutzer*innen zur Verfügungen, die für Verifizierung bezahlen oder andere bestimmte Kriterien erfüllen (Brandtzaeg/Lüders/Spangenberg/Rath-Wiggins/Følstad 2016).

Die relative Einheitlichkeit in der Gestaltung von Social-Media-Beiträgen kann zu Transparenzproblemen führen, wenn KI-generierte Bilder benutzt werden und Redaktionen ihr Publikum darauf hinweisen möchten. Die Redakteur*innen, mit denen wir sprachen, gaben an, dass Verlage oft nur in der Bildbeschreibung eines Post auf diese Details aufmerksam machen könnten, in der Hoffnung, dass Nutzer*innen diese Kontextinformation lesen. Diese Bildbeschreibungen werden jedoch je nach Plattform oft nur verkürzt angezeigt und Nutzer*innen müssen erst auf eine »Erweitern« oder »Mehr«-Funktion klicken oder navigieren, um die volle Anzeige zu lesen. Das macht es schwieriger zu entscheiden, wo relevante Kontextinformationen zu den dem Bild zugrundeliegenden Produktionsbedingungen positioniert werden sollen. So geschehen im Fall des U.S.-amerikanischen Dokumentarfotographen Michael Christopher Brown, der für seine visuellen Reportagen in Publikationen wie dem National Geographic oder der New York Times bekannt ist. Er veröffentlichte im April 2023 eine Serie von Bildern, die via Midjourney kreiert wurden, auf Instagram (Terranova 2023). Er beschrieb das Bildmaterial als ein »post-fotografisches KI-Experiment in Illustration zu Berichterstattung« und aktualisierte später die Bildunterschrift mit dem Zusatz »DIESES BILDMATERIAL IST NICHT ECHT« gleich zu Beginn der Beschreibung, aber viele Nutzer*innen, die Kommentare unter seinen Post stellten, merkten an, dass sie die Bildunterschrift gar nicht gelesen hatten und sich anfangs über die Herkunft der Bilder getäuscht (gefühlt) hatten.

Zwar gibt es die Möglichkeit, synthetisch oder teilweise synthetisch erzeugte Inhalte mit Wasserzeichen zu kennzeichnen; es gibt jedoch bislang keine branchenübliche Kennzeichnung. Eine solche Kennzeichnung wäre zugleich mit dem Risiko verbunden, von skrupellosen Akteur*innen dazu missbraucht zu werden, nicht-synthetische Inhalte zu diskreditieren. Einige Plattformen fügen Kennzeichen, Aufschriften oder Hinweise zu Inhalten mit KI-generierten Elementen hinzu, falls Mitarbeiter*innen der Plattformen es für möglich halten, dass in Frage kommende Posts das Potenzial haben, Nutzer*innen in die Irre zu führen. Solch eine zusätzliche Kennzeichnung wird jedoch weder automatisch noch einheitlich angewendet.

Überlegungen zur Rezeption und zur Wirkung auf das Publikum

Eine der Hauptüberlegungen bezüglich der Interpretation und der Auswirkung auf das Publikum ist, ob das Publikum durch das Sehen von KI-generierten Inhalten getäuscht wird. Dieses Täuschungspotenzial sollte im Zusammenhang mit Aspekten von visueller Einordnungskompetenz, Sehgewohnheiten des Publikums und dessen typisches Verhalten sowie der Eignung von herkömmlichen Praktiken zur Faktenprüfung für KI-generierte visuelle Inhalte erörtert werden.

Visuelle und mediale Kompetenzen variieren stark innerhalb des Publikums und werden von Attributen wie Alter, Standort, Bildung, sozioökonomischem Status und Kompetenz beeinflusst (Notley/Chambers/Park/Dezuanni 2021). Die Redakteur*innen, mit denen wir sprachen, zeigten sich insgesamt pessimistisch bezüglich der Fähigkeiten des Publikums, Bilder, die von KI erzeugt wurden, zu erkennen und merkten an, dass solch eine Feststellung selbst für Bildexpert*innen schwierig sei. Die Schwierigkeit, ethisch fragwürdige Produktions- und Bearbeitungspraktiken zu erkennen, ist jedoch kein Alleinstellungsmerkmal für visuelle KI, da dies auch auf Fotographien und andere Arten herkömmlicher visuellen Medien zutrifft (Thomson et al. 2020).

In Bezug auf die Sehgewohnheiten des Publikums lässt sich festhalten, dass, obwohl es keine genauen Zahlen gibt, diese je nach untersuchtem Land variieren: Rezipient*innen in Ländern wie den USA. oder Deutschland tendieren dazu, Inhalte lieber auf sozialen Medien auf ihren mobilen Endgeräten als am Computer auf dem Schreibtisch anzuschauen (Broadband Search 2023). Dies hat Auswirkungen auf die Größe des Sichtfensters und wie die darin verschachtelten Inhalte auf sozialen Medien angezeigt werden. Redaktionen und Organisationen, die Fakten prüfen und Leitfäden zu »Wie erkenne ich ein KI-generiertes Bild« veröffentlichen, ermuntern Rezipient*innen dazu, nach Unregelmäßigkeiten an Augen oder Händen sowie anderen Unstimmigkeiten zu schauen, bei denen die KI der internen Bildlogik nicht folgen konnte (Devlin/Cheetham 2023). Wenn jedoch die relativ kurze Aufmerksamkeitsspanne von Nutzer*innen, die kleine Darstellung des Inhalts und die hohe Anzahl von Meldungen, die auf einmal hintereinander weg konsumiert wird (Medvedskaya 2022), betrachtet werden, erscheint es als zunehmend schwierig, solche Details beim beiläufigen Durchscrollen zu entdecken. Der schnelle Fortschritt in der KI-Technologie bedeutet auch, dass solche Unregelmäßigkeiten immer weniger auftreten werden.

Dass Rezipient*innen eventuell nur Überschriften oder Bilder sehen und einfach weiterscrollen, anstatt auf etwas zu klicken oder zu navigieren, verkompliziert auch den Umfang an Kontextinformationen, den Nutzer*innen in einer gewöhnlichen Nutzungssituation sehen und konsumieren können (Fletcher/Nielsen 2018). Plattformen fügen mitunter kontextuelle Hinweise zu Bildern mit Täuschungspotenzial hinzu, aber dieser Prozess findet nicht automatisch statt und steht der Herausforderung gegenüber, dem schieren Ausmaß von Informationen online sowie der Geschwindigkeit, mit der sie produziert werden, gerecht zu werden (Thomson/Angus/Dootson/Hurcome/Smith 2022). Dies sind zwei der Faktoren, die hauptsächlich die Arbeit derjenigen torpedieren, die gegen den Strom von Mis-/Desinformation ankämpfen.

Organisationen, die sich auf das Faktenprüfen spezialisiert haben, schlagen manchmal als Strategie zur Verifizierung eines Bildes vor, zu prüfen, ob es von einer vorgeblichen Szene mehrere Blickwinkel gibt oder diese von der Quelle angefordert werden können (Weikmann/Lecheler 2023). Solche Verfahren werden jedoch durch jüngste Fortschritte in generativer visueller KI unterlaufen. Ende Juni 2023 verkündete Midjourney eine neue und heiß diskutierte Eigenschaft, »Zoom out«, die es Nutzer*innen erlaubt, verschiedene Varianten desselben Objekts oder der derselben Szene oder Person von verschiedenen Brennweiten zu erzeugen. Dies kann zu einer Wahrnehmung von Echtheit führen, da vorherige Bildmanipulationen eher Einzelmaßnahmen waren anstatt Teil einer Serie an Kunstgriffen.

Über Bedenken zu algorithmischen Vorurteilen und der Repräsentation von Publika in KI-erzeugten Produktionen hinaus, lohnt es auch, die Wirkung von generischen Repräsentationen auf Nutzer*innen und wie sie diese und ihre Qualität wahrnehmen, zu betrachten. Wissenschaftler*innen wie Thurlow, Aiello und Portmann (2020) haben untersucht wie Bilder, die auf Vorrat gehalten werden (Stockfotographie), in Nachrichtenkontexten eingesetzt werden und wie sich diese auf das Publikum auswirken. Die Autor*innen argumentieren, dass solche allgemeinen Bilder ein engeres, bisweilen pessimistischeres und fast immer reduktionistisches Bild von Menschen, Orten und problematischen Thematiken zeichnet. Es lohnt sich zu betrachten, inwiefern KI-generierte Bilder eine ähnliche Funktion erfüllen, ob dies ein Alleinstellungsmerkmal der Stockfotographie ist, und inwieweit das Publikum Unterschiede zwischen generischen und spezifischeren Gattungen von Bildmaterial würdigt.

Schlussbetrachtung und weitere Schritte

Panikmache hat jede neue Welle aufeinanderfolgender Technologien begleitet, angefangen bei Fotografie und Bewegtbildern im 19. Jahrhundert bis hin zu Bildern von Flugdrohnen und virtueller Realität im 20. Jahrhundert (Thomson 2019). Dasselbe gilt für generative visuelle KI und verwandte Techniken, die in den 2020er-Jahren sehr viel zugänglicher geworden sind. Wir können dabei beträchtliche Risiken und Herausforderungen bezüglich dieser Technologie beobachten, aber auch über die kreativen Möglichkeiten und Potenziale nachdenken, die diese Technologie für die nächste Generation an Bildpraktiken bietet. Um Risiken einzuhegen und das kreative Potenzial auf verantwortungsvolle und ethische Weise zu lenken, sehen wir die dringende Notwendigkeit für Nachrichtenmedien, klare Leitfäden zu haben. Die Redakteur*innen führender Medienhäuser in Australien und den USA, mit denen wir sprachen, äußerten diesen Wunsch ebenfalls; sie waren sehr erpicht darauf, Leitlinien und Regelungen zu der Frage zu haben, wie sie generative visuelle KI verantwortungsvoll nutzen können. Während einige Redakteur*innen, mit denen wir sprachen, schon Prinzipen formulieren konnten, ob und wie sie oder ihre Mitarbeitenden generative visuelle KI nutzen, konnte keine der Redaktionen formale Richtlinien zur Nutzung dieser Technologie vorweisen. Bis Juni 2023 konnten wir nur ein einziges Medium finden – die auf Technologieberichterstattung spezialisierte Marke WIRED, – das eine öffentlich zugängliche Richtline dazu vorgelegt hat, wie Mitarbeitende generative KI (nicht) nutzen sollten. WIRED legt fest, dass Mitarbeitende keine KI nutzen sollen, um Artikel zu schreiben oder zu bearbeiten (außer ein Artikel berichtet über KI-Generatoren, dann wird dies offengelegt und Fehler werden kenntlich gemacht). WIRED erlaubt die Nutzung von KI um Überschriften zu schreiben, kurze Meldungen für soziale Medien zu generieren, als Inspirationsquelle für Ideen für Artikel und für Nachforschungen und Analysen. Für die Bildebene legt WIRED fest, dass die Redaktion keine »KI-generierten Bilder anstatt Stockfotographie« nutzen soll, allerdings kann sie KI nutzen, um Ideen zu entwickeln oder um KI-generierte Bilder oder Videos zu veröffentlichen, wenn die Generation der Bilder einen »signifikanten kreativen Beitrag der*des [beauftragten] Künstler*in« beinhaltet und »keine schon existierenden Werke eklatant imitiert oder im Urheber*innenrecht verletzt werden.« In diesem Fall muss zusätzlich entsprechend offengelegt werden, wie generative KI genutzt wurde. Der Guardian folgte darauf im Juli mit der Veröffentlichung seiner Leitlinien zur Nutzung von generativer KI (Ribbans 2023) und die Associated Press, wie weiter unten ausgeführt, folgte ebenso mit einer ihrer Richtlinie im August (Barrett 2023).

Es sollte erwähnt werden, dass eine verantwortungsvolle Nutzung von KI nicht allein die Verpflichtung von Journalist*innen und Redakteur*innen ist. Zu oft nehmen Wissenschaftler*innen und Kritiker*innen an, dass Redaktionsmitarbeiter*innen mehr »Steuerungskontrolle« (Murdock 1982) über Strategien und Einsatzmittel für ihre Arbeit haben, als dies tatsächlich der Fall ist. Dies wirft die Frage auf, ob Ethikcodes für das falsche Publikum geschrieben oder nicht sogar längst hinfällig sind (siehe, z. B. Adam/Craft/Cohen 2004; Borden 2000; Craft 2010; McManus 1997). Die oben erwähnten Beispiele zu CNET und Gannett sind beunruhigende Fälle von KI-Nutzung, die durch Entscheidungen auf höherer Ebene ausgelöst wurden. Deshalb gilt es, die ökonomischen Zusammenhänge von Nachrichtenproduktion sowie die Spannungen zwischen den demokratischen Idealen des Journalismus und den wirtschaftlichen Imperativen, die profitorientierte Eigentümer*innen antreiben, in Debatten zur Aneignung von Technologien in der Vordergrund zu stellen (Pickard 2019, 2020).

Insgesamt betrachtet wird sich generative visuelle KI sicher massiv innerhalb einer Zeitspanne von wenigen Monaten weiterentwickeln; die Industrie wird hinterherhängen, um aufzuholen und Handlungsempfehlungen zu geben. Associated Press zum Beispiel hat erst im August 2023 eine Leitlinie zur Nutzung von generativer KI vorgelegt, ungefähr ein Jahr nachdem Text-zu-Bild Generatoren wie Midjourney schon die offene Beta-Testphase begonnen hatten (Barrett 2023). Viele weitere Redaktionen ignorieren generative visuelle KI weiterhin rundheraus oder sind dabei, nach Handlungsempfehlungen zu suchen.

Über die damit zusammenhängenden verschiedenen Problematiken in Produktion, Präsentation, Auslegungen durch das Publikum und Auswirkung auf das Publikum zu diskutieren – und diese Debatten in die konkreten wirtschaftlichen Kontexte der aktuellen Nachrichtenlandschaft einzubetten – kann dabei helfen, einen Diskurs zur Entwicklung von angemessenen und ethischen Richtlinien zur Nutzung von generativer visueller KI in Redaktionen in Gang zu setzen oder voranzubringen.

Über die Autoren

Dr. T. J. Thomson ist Senior Lecturer in visueller Kommunikation und digitalen Medien an der RMIT University und Fellow im Rahmen eines dreijährigen Forschungsstipendiums des Australian Research Council. T. J.s Forschung ist durch einen Fokus auf visuelle Kommunikation miteinander verbunden. Er forscht überwiegend zu visuellen Aspekten von Nachrichten und Journalismus sowie zu Überlegungen und Prozessen, die diejenigen betreffen, die visuelle Nachrichten erstellen, redigieren und präsentieren. Er hat ein breites Forschungsinteresse an digitalen Medien, Journalistik und visueller Kultur und fokussiert seine Forschung häufig auf unterrepräsentierte Identitäten, Attribute und Umgebungen. T. J. forscht nicht nur zu visuellen Kommunikationsphänomenen, sondern engagiert sich auch dafür, den Zugang zu Forschungsergebnissen sowie deren Präsentation und Verständlichkeit sichtbarer, innovativer und qualitativ hochwertiger zu gestalten. Kontakt: contact@tjthomson.com.

Dr. Ryan J. Thomas ist Associate Professor of Journalism and Media Production und Director of Graduate Studies im Edward R. Murrow College of Communication an der Washington State University, USA. Sein Forschungsprogramm befasst sich mit der Intersektion von Ethik im Journalismus und Nachrichtensoziologie, mit besonderem Fokus auf Journalismus in Wandlungsprozessen. Kontakt: ryan_thomas@wsu.edu

Literatur

Adam, G. Stuart: Craft, Stephanie; Cohen, Elliott D (2004): Three essays on journalism and virtue. In: Journal of Mass Media Ethics, 19(3–4), S. 247-275. DOI: 10.1080/08900523.2004.9679691

Barrett, Amanda: Standards around generative AI. In: The Associated Press, 16. August 2023. https://blog.ap.org/standards-around-generative-ai (5. September 2023)

Borden, Sandra L. (2000): A model for evaluating journalist resistance to business constraints. In: Journal of Mass Media Ethics, 15(3), S. 149-166. DOI: 10.1207/S15327728JMME1503-2

Becker, Kim Björn (2023): New game, new rules: An investigation into editorial guidelines for dealing with artificial intelligence in the newsroom. Journalistik/Journalism Research, 6(2), S. 133-152. https://journalistik.online/en/paper-en/new-game-new-rules/

Brandtzaeg, Petter Bae; Lüders, Marika; Spangenberg, Jochen; Rath-Wiggins, Linda; Følstad, Asbjørn (2016): Emerging journalistic verification practices concerning social media. In: Journalism Practice, 10(3), S. 323-342. DOI: 10.1080/17512786.2015.1020331

Brittain, Blake: AI companies ask U.S. court to dismiss artists’ copyright lawsuit. In: Reuters, 19. April 2023. https://www.reuters.com/legal/ai-companies-ask-us-court-dismiss-artists-copyright-lawsuit-2023-04-19/ (5. September 2023)

Broadband Search (2023): Mobile vs. desktop Internet usage (Daten bis 2023). https://www.broadbandsearch.net/blog/mobile-desktop-internet-usage-statistics (5. September 2023)

Craft, Stephanie (2010): Press Freedom and Responsibility. In: Meyers, Christopher (Hrsg.): Journalism Ethics: A Philosophical Approach. Oxford: Oxford University Press, S. 39-51.

Cools, Hannes; Diakopoulos, Nicholas (2023): Towards Guidelines for Guidelines on the Use of Generative AI in Newsrooms. Medium. https://generative-ai-newsroom.com/towards-guidelines-for-guidelines-on-the-use-of-generative-ai-in-newsrooms-55b0c2c1d960

Devlin, Kayleen; Cheetham, Joshua: Fake Trump arrest photos: How to spot an AI-generated image. In: BBC, 24. März 2023. https://www.bbc.com/news/world-us-canada-65069316 (5. September 2023)

Di Placido, Dani: Why did »Balenciaga Pope« go viral? In: Forbes, 27. März 2023. https://www.forbes.com/sites/danidiplacido/2023/03/27/why-did-balenciaga-pope-go-viral/?sh=10ef5f124972 (5. September 2023)

Fletcher, Richard; Nielsen, Rasmus Kleis (2018): Are people incidentally exposed to news on social media? A comparative analysis. In: New Media & Society, 20(7), S. 2450-2468. DOI: 10.1177/1461444817724170

McManus, John (1997): Who’s responsible for journalism? In: Journal of Mass Media Ethics, 12(1), S. 5-17. DOI: 10.1207/s15327728jmme1201_1

Medvedskaya, Elena I. (2022): Features of the attention span in adult Internet users. In: RUDN Journal of Psychology & Pedagogics, 19(2), S. 304-319. DOI: 10.22363/2313-1683-2022-19-2-304-319

Murdock, Graham (1982): Large Corporations and the Control of the Communications Industries. In: Gurevitch, Michael; Bennett, Tony; Curran, James; Woollacott, Janet (Hrsg.): Culture, Society, and the Media. London: Methuen, S. 118-150.

Notley, Tanya; Chambers, Simon; Park, Sora; Dezuanni, Michael (2021): Adult Media Literacy in Australia: Attitudes, Experiences, and Needs. Sydney: Western Sydney University; Brisbane: Queensland University of Technology; Canberra, University of Canberra.

Pickard, Victor (2019): Digital Journalism and Regulation: Ownership and Control. In: Eldridge, Scott A.; Franklin, Bob (Hrsg.): The Routledge Handbook of Developments in Digital Journalism Studies. London: Routledge, S. 211-222.

Pickard, Victor (2020): Democracy Without Journalism? Confronting the Misinformation Society. New York: Oxford University Press.

Ribbans, Elisabeth: The Guardian’s editorial code has been updated – here’s what to expect. In: The Guardian, 27. Juli 2023. https://www.theguardian.com/commentisfree/2023/jul/27/guardian-observer-editorial-code-update-journalism (6. September 2023)

Sato, Mia; Roth, Emma: CNET found errors in more than half of its AI-written stories. In: The Verge, 25. Januar 2023. https://www.theverge.com/2023/1/25/23571082/cnet-ai-written-stories-errors-corrections-red-ventures (6. September 2023)

Stokel-Walker, Chris (2023): The problem with an unusually fashionable Pope. In: New Scientist, 257(3432), S. 13. DOI: 10.1016/S0262-4079(23)00555-9

Sun, Luhang; Wei, Mian; Sun, Yibing; Suh, Yoo Ji; Shen, Liwei; Yang, Sijia (2023): Smiling women pitching down: Auditing representational and presentational gender biases in image generative AI. In: arXiv:2305.10566. DOI: 10.48550/arXiv.2305.10566

Sutcliffe, Alistair (2016): Designing for User Experience and Engagement. In: O’Brien, Heather; Cairns, Paul (Hrsg.): Why Engagement Matters: Cross-Disciplinary Perspectives of User Engagement in Digital Media. Cham: Springer, S. 105-126.

Terranova, Amber: How AI imagery is shaking photojournalism. In: Blind Magazine, 26. April 2023. https://www.blind-magazine.com/stories/how-ai-imagery-is-shaking-photojournalism/ (5. September 2023)

Thomas, Ryan J.; Thomson, T. J. (2023): What does a journalist look like? Visualizing journalistic roles through AI. In: Digital Journalism. Online-Vorabveröffentlichung. DOI: 10.1080/21670811.2023.2229883

Thomson, T. J. (2019) To See and Be Seen: The Environments, Interactions, and Identities Behind News Images. London: Rowman & Littlefield.

Thomson, T. J.; Angus, Daniel; Dootson, Paula; Hurcombe, Edward; Smith, Adam (2020): Visual mis/disinformation in journalism and public communications: Current verification practices, challenges, and future opportunities. In: Journalism Practice, 16(5), S. 938-962. DOI: 10.1080/17512786.2020.1832139

Thurlow, Crispin; Aiello, Giorgia; Portmann, Lara (2020): Visualizing teens and technology: A social semiotic analysis of stock photography and news media imagery. In: New Media & Society, 22(3), S. 528-549. DOI: 10.1177/1461444819867318

Vincent, James: The swagged-out Pope is an AI fake – and an early glimpse of a new reality. In: The Verge, 27. März 2023. https://www.theverge.com/2023/3/27/23657927/ai-pope-image-fake-midjourney-computer-generated-aesthetic (6. September 2023)

Weikmann, Teresa; Lecheler, Sophie (2023): Cutting through the hype: Understanding the implications of deepfakes for the fact-checking actor-network. In: Digital Journalism. Online-Vorabveröffentlichung. DOI: 10.1080/21670811.2023.2194665

Wu, Daniel: Gannett halts AI-written sports recaps after readers mocked the stories. In: Washington Post, 31. August 2023. https://www.washingtonpost.com/nation/2023/08/31/gannett-ai-written-stories-high-school-sports/ (6. September 2023)


Über diesen Artikel

 

Copyright

Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.

Zitationsvorschlag

T. J. Thomson und Ryan J. Thomas: Generative visuelle KI in Redaktionen. Überlegungen zu Produktion, Präsentation, Auslegung durch das Publikum und Auswirkung auf das Publikum. In: Journalistik. Zeitschrift für Journalismusforschung, 3_4, 2023, 6. Jg., S. 347-359. DOI: 10.1453/2569-152X-3_42023-13612-de

ISSN

2569-152X

DOI

https://doi.org/10.1453/2569-152X-3_42023-13612-de

Erste Online-Veröffentlichung

Dezember 2023