Wie lässt sich Vertrauen in generative KI so fassen, dass unterschiedliche Disziplinen anschlussfähig bleiben? Und welche gemeinsamen Forschungsfragen entstehen, wenn Projekte aus Kommunikationswissenschaft, Informatik, Rechtswissenschaft, Psychologie und Wirtschaftsinformatik aufeinander treffen? Im Mittelpunkt der Klausurtagung des bidt-Forschungsschwerpunkts „Generative KI: Trust in Co-Creation“ vom 16. und 17. März 2026 stand genau dieser interdisziplinäre Austausch. Alle zehn Projekte des Schwerpunkts kamen zusammen, um ihre Perspektiven auf Vertrauen in der Mensch-KI-Interaktion zu schärfen, ihre neuesten Ergebnisse und weiteren Planungen zu diskutieren und nächste Schritte gemeinsam weiterzuentwickeln. Der Forschungsschwerpunkt untersucht dabei aus unterschiedlichen disziplinären Blickwinkeln, unter welchen Bedingungen Menschen generativer KI und den daraus entstehenden Produkten vertrauen können – und wann nicht.
Begriffe schärfen, Perspektiven verbinden
Nach der Begrüßung durch die Forschungskoordinatorinnen Dr. Maria Staudte und Dr. Niina Zuber stand zunächst der projektübergreifend relevante Vertrauensbegriff im Zentrum. Ausgangspunkt war die Frage, was eigentlich gemeint ist, wenn in der Forschung von „Vertrauen“ gesprochen wird. In der Diskussion wurde deutlich, dass Vertrauen unterschiedlich verstanden wird: als mentaler Zustand, als relationale und normative Praxis, als existenziell-ontologische Orientierung oder als Vertrauen in Institutionen. Diese begriffliche Klärung bildet die Grundlage für eine gemeinsame Verständigung über Vertrauen in der Mensch-KI-Ko-Kreation. Sie knüpft an die bereits im Forschungsschwerpunkt geleistete Arbeit an einem gemeinsamen, disziplinübergreifend anschlussfähigen Vertrauensmodell an.
Vertrauen und Vertrauenswürdigkeit angemessen kalibrieren
Daran anschließend rückte die Frage der „Trust Calibration“ in den Fokus: Wann und wie viel Vertrauen in generative KI ist angemessen? Das „richtige“ Maß von Vertrauen in konkreten Kontexten ist dabei zentral: Übermäßiges Vertrauen kann riskant sein, weil es Menschen dazu verleiten kann, sich vorschnell auf Systeme und ihre Outputs zu verlassen. Zu wenig Vertrauen wiederum kann die sinnvolle Nutzung generativer KI erschweren oder verhindern. Vertrauen, so der Konsens, sollte daher in einem angemessenen Verhältnis zur tatsächlichen Vertrauenswürdigkeit eines Systems und den möglichen Risiken bei der Nutzung stehen. Die Tagung bot den Raum, diese Überlegung nicht nur theoretisch zu vertiefen, sondern auch an den sehr unterschiedlichen Forschungsgegenständen der Projekte zu spiegeln.
bidt-Forschungskoordinatorinnen Dr. Maria Staudte und Dr. Niina Zuber (v.l.n.r.).
Vielfältige Perspektiven auf Vertrauen in generative KI
Der Großteil der Klausurtagung war daher den Projektvorstellungen gewidmet. Alle zehn Projekte präsentierten ihren aktuellen Ergebnisstand, benannten nächste Meilensteine und diskutierten offene Fragen. Gerade in dieser Zusammenschau wurde die Breite des Forschungsschwerpunkts sichtbar: Die Projekte reichen von KI im Journalismus und im politischen Wettbewerb über Fragen des Hochschulrechts, der Programmcode-Ko-Kreation und der spezifikationsgetriebenen Softwareentwicklung bis hin zu selbstreguliertem Lernen, algorithmischen Verzerrungen, Gerechtigkeitsfragen im Rechtssystem, vertrauenswürdigen KI-Copiloten für datenbasierte Entscheidungen und generativer KI als Designwerkzeug. So wurde deutlich, dass Vertrauen in generative KI kein abstraktes Einzelthema ist, sondern sich je nach Anwendung, Nutzungssituation und institutionellem Rahmen anders konkretisiert.
Dass der Forschungsschwerpunkt den Austausch zwischen Disziplinen nicht nur programmatisch setzt, sondern praktisch organisiert, zeigte sich auch jenseits der Projektpräsentationen. In einem spielerisch angelegten „Interdisciplinary Game“ wurden die Teilnehmenden projektübergreifend neu gemischt und kamen über Disziplinen, Forschungsmethoden und persönliche Arbeitsweisen ins Gespräch.
Interdisciplinary Game.
Gemeinsame Perspektiven für die bidt Digital Transformation Research Conference
Zugleich richtete sich der Blick auf die erstmals stattfindende bidt Digital Transformation Research Conference am 19. und 20. November. Erste Ideen für mögliche gemeinsame Subsessions machten deutlich, wie sich Themen aus dem Forschungsschwerpunkt auch in die breitere Forschungsdebatte des bidt einbringen lassen.
Zur Konferenz
bidt Digital Transformation Research Conference 2026
Die Klausurtagung hat deutlich gemacht, was den Forschungsschwerpunkt auszeichnet: die enge Verzahnung unterschiedlicher disziplinärer Perspektiven bei einer gemeinsamen Fragestellung von hoher gesellschaftlicher Relevanz. Gerade im Austausch über Begriffe, Methoden und Anwendungskontexte wurde sichtbar, dass sich Vertrauen in generative KI nur dann angemessen erforschen lässt, wenn technische, soziale, rechtliche und normative Dimensionen zusammengedacht werden. Die Tagung bot dafür einen wichtigen Raum und setzte zugleich Impulse für die weitere Zusammenarbeit im Forschungsschwerpunkt.
Bildgalerie
Tag 1 der Klausurtagung im Nordflügel des bidt.
Forschungskoordinatorin Dr. Niina Zuber.
Interdisciplinary Game.
Interdisciplinary Game.
Interdisciplinary Game.
Interdisciplinary Game.
Tag 2 der Klausurtagung in der BAdW.
Weitere Informationen
Zum Forschungsschwerpunkt
Forschungsschwerpunkt Generative KI
Zur bidt Digital transformation research conference
bidt Digital Transformation Research Conference 2026
Der Beitrag Vertrauen kalibrieren, Perspektiven verbinden: Klausurtagung des Forschungsschwerpunkts „Generative KI: Trust in Co-Creation“ erschien zuerst auf bidt DE.
