Wenn Roboter Zeitung schreiben: Wird das Publikum KI-Journalismus vertrauen?

Generative künstliche Intelligenz (KI) wird die Arbeitsweisen in zahlreichen Feldern von Wirtschaft und Gesellschaft umwälzen. Auch die Arbeit und Produkte von Journalistinnen und Journalisten stehen vor solchen Veränderungen. Wie andere Wissensarbeitende profitieren sie von ChatGPT und Co. als nimmermüde Helferlein, Ideengeber oder Lektoren. Mit Blick auf die Aufgaben des Journalismus – Herstellung von Öffentlichkeit, Kritik und Kontrolle von Institutionen, insbesondere aber die Bereitstellung vertrauenswürdiger Informationen für die Meinungsbildung der Bürgerinnen und Bürger – stellt sich die spezifische Frage, wie das Nachrichtenpublikum reagiert, wenn journalistische Beiträge über aktuelle Themen explizit als Erzeugnisse generativer KI gekennzeichnet sind. Gelten Roboter als glaub- und vertrauenswürdige Urheber, die professionell arbeiten, belastbare Informationen bereitstellen und objektiv berichten? Während die meisten Medienhäuser KI-Innovationen positiv gegenüberstehen und Leitlinien zum Umgang damit erarbeitet haben, die vor allem die Transparenz nach außen betonen, ist bisher noch weitestgehend unklar, welchen Effekt der sichtbare Einsatz von generativer KI auf das Publikum hat.

Menschliche Journalistinnen und Journalisten und das misstrauische Publikum

Gesellschaftlich kontroverse und ideologisch aufgeladene Debatten (z. B. über den Klimawandel, die Umsetzung der Energiewende, Abtreibung, das Gendern von Texten o. ä.) sind dadurch gekennzeichnet, dass sich zwei oder mehrere Lager vergleichsweise unversöhnlich gegenüberstehen. Je stärker die Einstellungen zu einem Thema ausgeprägt sind und je wichtiger dies für die eigene Identität und eigene Werthaltungen ist, desto weniger sind Individuen in der Regel bereit, sich mit Angehörigen des „anderen Lagers“ oder deren konträren Meinungen auseinanderzusetzen oder gar ihre Einstellungen zu überdenken. Wenn Bürgerinnen und Bürger bereits eine (ausgeprägte) Meinung zu einem aktuellen Thema besitzen, neigen sie dazu, journalistische Berichte darüber als verzerrt zuungunsten des eigenen Meinungslagers wahrzunehmen – auch wenn sich diese Beiträge um Neutralität und zweiseitig ausgewogene Darstellungen bemühen. Dieser sogenannte Hostile Media Bias wurde vielfach nachgewiesen und ist bei Menschen mit extremen Ansichten besonders ausgeprägt. Er wirkt einer argumentativen Auseinandersetzung im öffentlichen Diskurs entgegen, weil Bürgerinnen und Bürger dazu neigen, der Ausgewogenheit von Berichten zu misstrauen.

KI als Journalist: Vertrauen in die Maschine ohne Eigeninteresse?

Wie aber werden Menschen über Medienberichte urteilen, deren Urheber sich als generative KI ausweisen? Mit dieser Thematik wird sich ein Projekt im Rahmen des bidt-Schwerpunktprogramms „Mensch und generative künstliche Intelligenz: Trust in Co-Creation“ befassen. Erste Studien in den USA haben interessante Erkenntnisse hervorgebracht: Demnach äußern Menschen merklich weniger Misstrauen bezüglich der Objektivität und Glaubwürdigkeit von Berichten, deren Verfasser als KI gekennzeichnet sind. Als plausible Ursache für dieses größere Vertrauen in die KI als in menschliche Journalistinnen oder Journalisten vermuten die Forschenden, dass viele Menschen annehmen, KI würde wie eine Maschine arbeiten – ohne Emotionen und Eigeninteressen, einer nüchternen, rationalen Logik folgend. Wenden Bürgerinnen und Bürger diese Machine Heuristic an, betrachten sie KI-Berichte als „unbelastet“ von politischer Gesinnung oder dem Ziel, das Publikum zu manipulieren. Im Resultat würde KI-Journalismus also mehr Glaubwürdigkeit und Vertrauen genießen als Journalismus von Menschen.

Forschungsschwerpunkt

Mensch und generative künstliche Intelligenz: Trust in Co-Creation


Forschung zu KI-Journalismus am bidt

Würde sich dieser Befund erhärten – und eben dazu wird in den kommenden Jahren am bidt weiter geforscht –, könnte dies interessante Implikationen für hitzige politische Kontroversen und die Sachlichkeit von Diskursen bedingen: Wenn KI-Journalismus in verschiedenen Meinungslagern als vertrauenswürdige Informationsquelle erlebt wird, sollte damit die Bereitschaft steigen, ausgewogene Darstellungen zu betrachten und damit auch Argumente der jeweiligen Gegenseite zu hören und zu bedenken. Möglicherweise könnten als neutral beurteilte KI-Reporter damit einen Beitrag zur Überwindung von Polarisierung und festgefahrenen politischen Auseinandersetzungen leisten.

Forschungsprojekt

Künstliche Intelligenz als vertrauenswürdige:r Journalist:in? Effekte KI-generierter Botschaften auf (skeptische) Bürger:innen (KI-JOURNALIST)


Für solchen Optimismus ist es angesichts der erst am Anfang stehenden Forschung noch zu früh. Die Erwartungen niedrig zu setzen, empfiehlt sich indes noch aus einem anderen Grund: Ein guter Teil des Misstrauens, das manche Menschen heutzutage gegenüber menschlichem Journalismus hegen, ist als Folge massiver und häufig unsachlicher Kritik an den Medien aus populistischen Kreisen entstanden. Solche Akteurinnen und Akteure haben ein strategisches Interesse, das Vertrauen in die Medien als Mittler im Prozess gesellschaftlicher Verständigung zu erschüttern. Es steht daher zu befürchten, dass sie ihre Agitation bald auch auf den KI-Journalismus ausdehnen werden. Insofern muss die Forschung auch am bidt beobachten, wie sich die Vertrauensurteile der Bevölkerung in den kommenden Jahren entwickeln werden – wenn nämlich KI einerseits häufiger in Nachrichten in Erscheinung tritt, andererseits damit auch selbst zum Gegenstand politischer Kontroversen und zum Ziel populistischer Angriffe auf Medien und Demokratie avancieren kann.

Dieser Beitrag ist im bidt Magazin erschienen.


Autorin

Prof. Dr. Hannah Schmid-Petri
Mitglied im bidt-Direktorium | Professorin für Wissenschaftskommunikation, Universität Passau


Zum Profil

Der Beitrag Wenn Roboter Zeitung schreiben: Wird das Publikum KI-Journalismus vertrauen? erschien zuerst auf bidt DE.