Kritik an Plattformen statt Lernkurve
Ein Beispiel liefert seine Betrachtung der aktuellen politischen Verschiebungen, die sich stark in digitalen Medien ausdrücken. „Ein sehr naheliegender, aber aus meiner Sicht falscher Schritt ist zu sagen: Die digitalen Medien waren es“, sagt Jungherr. Anzunehmen, dass soziale Plattformen mit ihren Algorithmen nur abgeschaltet werden müssten, damit die Menschen weniger rechts- noch linkspopulistisch wählen und angestammte Parteien Probleme loswerden, greife zu kurz.
Jungherr blickt auf die Mechanismen dahinter: auf neuere Parteien, die ihre Anhängerschaft geradezu auf Lautstärke in Onlinemedien trainieren, und andere, die das eben nicht machen. „Das ist für die etablierten Parteien natürlich eine schwierige Aufgabe – zu sagen: ‚Wie schaffen wir diesen Kulturwandel in unseren Organisationen?‘“ Das Lernen, online aktiv zu sein, Spitzenkandidatinnen und -kandidaten nach vorne zu bringen, die dann auch von der Basis im digitalen Raum getragen werden, ist nicht so leicht umzusetzen, wie Kritik an technischen Mechanismen und amerikanischen oder chinesischen Firmen zu üben.
Anspruch auf Gesamtschau
Auch wenn es um den Einsatz digitaler Werkzeuge, zum Beispiel im Wahlkampf, geht, zielt Jungherr auf umfassendes Verstehen. Es gebe Studien, die sich nur auf die Werkzeuge in politischen Kampagnen konzentrieren und untersuchen, wie welche digitalen Mittel genutzt werden. Problematisch dabei sei jedoch, dass Wirkungen überschätzt werden. Häufig würden die Wirkungen auch nur vermutet und gerade aktuell auch Ängste artikuliert. „Da unterschätzt man dann die bremsende Wirkung, die unsere Psychologie hat. Denn die ist eingebettet in breiteren Informationsumgebungen und unserem sozialen Umfeld“, so Jungherr.
Auf der anderen Seite gebe es Untersuchungen, die sich nur die Effektseite ansehen. Die Gefahr dabei sei, „dass man unterschätzt, wie stark digitale Medien zum Beispiel die Praxis der Politik verändern“. Denn messbare Effekte seien klein. Studien hätten große Schwierigkeiten, langfristige Wirkung empirisch abzubilden. „Vor allem sieht man dann nicht, wie die Praxis von Politik oder die Praxis von politischer Öffentlichkeit und Nachrichtennutzung sich tatsächlich geändert haben“, so Jungherr. Auch wenn sich die Veränderung nicht in messbare Effekte übersetzen lasse, würde das ja nicht heißen, dass es keine Veränderung gebe und alles ablaufe wie bisher. Sein Anspruch: diese Veränderungen trotzdem miteinbeziehen.
Für mich ist es immer wichtig zu versuchen, über unterschiedliche Publikationen und Projekte beide Perspektiven zu berücksichtigen, um damit in der Gesamtschau ein runderes Bild zu geben.
Prof. Dr. Andreas Jungherr
Zum Profil
„Sehr schlechte Elitendisziplin“
Auch bei der Frage, wie sich manche Inhalte sehr stark im Netz verbreiten können, verwahrt sich Jungherr gegen vorschnelle Zuschreibungen. „Ich finde es unglaublich wichtig, dass wir in der Debatte über die Rolle digitaler Medien heute nicht nur auf die Firmen schauen und sagen: ‚Das ist der Algorithmus‘, sondern auch anerkennen: Ein Großteil der kommunikativen Probleme, die wir bei der Verbreitung problematischer Inhalte sehen, entsteht, weil wir eine sehr schlechte Elitendisziplin haben, diese Inhalte nicht weiterzuverbreiten.“ Im Gegenteil stellt Jungherr sogar fest: Auch wenn heute angestammte Medien oder Politiker Inhalte aus der Öffentlichkeit nicht mehr in einer Gatekeeper-Funktion heraushalten könnten, seien sie für große Reichweiten doch als Knotenpunkte und Verstärker wichtig. Dies hätten Studien aus den USA gezeigt. Sie bestimmen also mit über den Grad der Sichtbarkeit von Inhalten.
Wir haben politische Eliten, die ganz bewusst unzuverlässige oder falsche Inhalte verstärken, wenn sie sich davon einen Nutzen versprechen – sie sind Teil des Problems.
Prof. Dr. Andreas Jungherr
Zum Profil
Zweifel an großflächiger gefährdender Wirkung von Desinformation
In Zeiten, in denen die Europäische Kommission Desinformation den Kampf angesagt hat, um demokratische Systeme zu schützen, laut Umfragen Fake News den Bürgerinnen und Bürgern großes Unbehagen bereiten und Faktenchecker sich um Aufklärung bemühen, bleibt Jungherr kritisch. „Nur weil es Desinformation gibt, hat sie nicht die ihr zugeschriebene gefährdende Wirkung“, sagt er. Gefährlich sei Desinformation dann, so definiert er, wenn sie Menschen in der Masse von Dingen überzeugen würde, die nicht nur nicht wahr, sondern auch gegen ihre selbstverstandenen Interessen sind. „Das heißt, ich muss jemanden überzeugen, gegen das eigene Interesse zu handeln. Und das ist sehr, sehr schwer.“ Wenn es einfach wäre, gäbe es zum Beispiel weniger Schwierigkeiten, breite Unterstützung zu gewinnen, um gegen den Klimawandel vorzugehen. „Mir ist wenig empirische Evidenz bekannt, die darauf hindeutet, dass Desinformation in der Masse diese überzeugende Wirkung entfalten kann.“
Auch mengenmäßig würde Desinformation in Wahlkämpfen oder politischer Kommunikation hinter einer größeren Menge an korrekter Information zurückstehen. Da bräuchte es Argumente, warum ausgerechnet die Desinformation, die weniger häufig und intensiv zu sehen ist, eine enorme Überzeugungswirkung haben soll. Zudem würden etliche Gruppen, die unzuverlässige Quellen sehen, ohnehin schon Überzeugungen in diese Richtung haben – „demokratietheoretisch nicht ideal“, aber es würde nicht die Meinung drehen.
Auch Information über Desinformation verunsichert
Damit ist der Befund nicht zu Ende. Jungherr dekliniert das Thema durch, bis er bei der psychologischen Wirkung und einer politisch schwerwiegenden Folge ist: dem Misstrauen ins System. Wenn Menschen in einem Informationsraum unzuverlässige Inhalte sehen, gewarnt werden vor Falschmeldungen und über ausländische Einflussnahme lesen, würden sie Vertrauen ins System und ihre eigene Urteilskraft verlieren.
Wir wissen aus empirischen Studien, dass Menschen, die über das Auftreten von Desinformation sensibilisiert werden, besser darin sind, Desinformation zu erkennen. Leider schätzen sie dann aber auch mit höherer Wahrscheinlichkeit korrekte Informationen als falsch ein. Das heißt: Wir erzeugen eine Haltung des allgemeinen Misstrauens.
Prof. Dr. Andreas Jungherr
Zum Profil
Wenn das Misstrauen gegenüber dem System zunimmt, Menschen sich aus Kommunikationskanälen zurückziehen, dann verlieren Politiker oder Behörden auch Möglichkeiten, die Menschen zum Beispiel in Notsituationen zu erreichen, warnt Jungherr. Damit werde die Gesellschaft womöglich stärker geschädigt und destabilisiert, als es durch Falschnachrichten mit begrenzter Reichweite und Überzeugungskraft der Fall wäre.
bidt-Forschungsprojekte zu KI
Die jüngste Entwicklung in der digitalen Transformation politischer Kommunikation ist der Einfluss von Künstlicher Intelligenz. Dazu forscht Jungherr am bidt in zwei Projekten – das eine zum Einsatz generativer KI im Wahlkampf, das andere zum Einfluss autoritärer Regime auf Sprachmodelle und darüber auf deren Nutzerinnen und Nutzer.
Das erstgenannte Projekt sei „fast klassisch“, indem es fragt, wie KI von Parteien und politischen Akteuren eingesetzt wird. „Was mich dabei sehr interessiert, ist, wie lernen denn eigentlich Parteien und politische Akteure über neue Technik und Kommunikationswege? Wie wird dieses Lernen innerhalb von Parteien weitergegeben? Wie geht also eine Organisation mit dem technischen Wandel um?“, so der bidt-Direktor.
Das zweite Projekt, das von Professor Florian Töpfl aus Passau geleitet wird, untersucht, ob es einen Unterschied macht, wenn ein KI-Modell aus einem autoritären Regime kommt. Erforscht werden Antworten auf Fragen wie: Reproduziert eine autoritäre KI Narrative, Werte oder Propaganda des Regimes? Und wenn ja, an welchem Punkt entsteht der Einfluss? Könnte es sein, dass die KI sogar korrekte Antworten generiert, diese dann aber durch einen zwischengeschalteten moderierenden Eingriff verändert oder gefiltert werden?
Über sein Engagement am bidt hinaus leitet Jungherr interdisziplinäre Forschungsprojekte an der Universität Bamberg. In einem Projekt, das im Horizont-Programm der EU läuft, wird untersucht, wie Menschen auf KI-gestützte Deliberationen reagieren. Eine Erkenntnis aus einer Studie von Anfang des Jahres: „Wir haben Menschen nach ihrer Teilnahmebereitschaft gefragt, wenn KI in deliberativen Formaten genutzt wird. Und da sehen wir leider, dass die Teilnahmebereitschaft sinkt – auch wenn sie nur moderativ eingesetzt wird und lediglich dafür sorgt, dass die Nutzer den richtigen Gesprächspartner bekommen.“ Ein Punkt, den Jungherr hervorhebt: KI-Skepsis zieht eine neue Trennlinie in die Bevölkerung ein. „Und das ist eine andere Spaltung als die soziodemografische und sozioökonomische“, so der Wissenschaftler.
Zu den bidt Forschungsprojekten
Generative Künstliche Intelligenz im Wahlkampf: Anwendungen, Präferenzen und Vertrauen (AI Wahlkampf)
Autoritäre KI: Wie große Sprachmodelle (LLMs) an Russlands Propaganda angepasst werden (AI-PROP)
Interdisziplinär mit Spezialgebiet Digitalisierung
Politik, politische Soziologie, politische Psychologie, Kommunikationswissenschaften und Big Data – das alles findet sich in Jungherrs beruflichen Stationen und Anstellungen an mehreren Universitäten in Deutschland und einer Gastprofessur in Zürich wieder. Dabei hat sich sein digitales Interesse schon im Studium gezeigt. Bereits während seiner Magisterarbeit hat er am Ende der Nullerjahre begonnen, mit Twitter-Analysen zu experimentieren. Auch damals ging es um das Thema digitaler Wahlkampf, das bis heute in seinen Arbeiten vertreten ist. Und wie könnte es weitergehen?
Es gebe schon etwas, dem er gerne intensiver nachgehen würde: „Was ich sehr, sehr spannend finde, ist die Frage, wieso wir als Gesellschaft bestimmte Risiken betonen und andere ignorieren“, sagt Jungherr im bidt-Gespräch. Digitale Medien, Digitalwirtschaft, KI – das alles werde in Deutschland sehr negativ diskutiert. „Aber gleichzeitig verlieren wir aus den Augen, dass auch Risiken entstehen, wenn wir uns Dingen verschließen.“ So seien zum Beispiel datenbasierte Geschäftsmodelle in Deutschland gar nicht erst groß geworden. „Und deshalb haben wir jetzt ein Folgeproblem mit KI.“ Es interessiere ihn zu verstehen, wieso Gesellschaften bestimmte Risiken, die dann auch teilweise übertrieben würden, derart in den Vordergrund rücken und andere Risiken, die sowohl mit dem Verlust von Wohlstand als auch von Zukunft verbunden sind, ausgeblendet werden. Eine sehr große Frage, wie er selbst sagt.
Weiterführende Links
Generative Künstliche Intelligenz im Wahlkampf: Anwendungen, Präferenzen und Vertrauen (AI Wahlkampf)
Autoritäre KI: Wie große Sprachmodelle (LLMs) an Russlands Propaganda angepasst werden (AI-PROP)
Der Beitrag Im Porträt: Andreas Jungherr erschien zuerst auf bidt DE.
