Seit dem Aufschwung von ChatGPT im Jahr 2022 hat generative KI Einzug in zahlreiche Anwendungsbereiche gefunden: In Sekundenschnelle kann generative KI Text, Audio, Bild und Video generieren und möglicherweise unterschiedliche Anwendungsgebiete revolutionieren – seien es KI-generierte Nachrichten im Journalismus oder im politischen Wahlkampf, als Tutor für das Aneignen von Programmierkenntnissen oder als Designhilfe von 3D-Entwürfen. Eine globale Studie von Gillespie et al. (2025) zeigt: Trotz dieser Allgegenwärtigkeit herrscht eine erhebliche Ambivalenz gegenüber dem Einsatz von KI-Systemen. Auch wenn der Einsatz von KI seit 2022 gestiegen ist, ist das angegebene Vertrauen der Menschen in die KI gesunken. Doch wie definiert man Vertrauen in eine KI überhaupt?
Zwar beschäftigen sich viele Disziplinen mit dem Thema, doch fehlt bislang ein einheitliches Verständnis von Vertrauen in KI. Interdisziplinäre Kooperationen stehen daher vor der Herausforderung, unterschiedliche Verständnisse und methodische Zugänge zu überbrücken. Der Begriff Vertrauen wird häufig vereinfacht verwendet. Die Verwendung oder Akzeptanzrate von KI-Assistenten wird häufig als Vertrauen bezeichnet. Dieses Gleichsetzen von Vertrauen und Akzeptanz, das besonders in Disziplinen wie der Softwareentwicklung vorkommt, kann problematisch sein (Baltes et al. 2025), denn Nutzende können KI-generierte Inhalte akzeptieren und verwenden, obwohl sie der KI nicht vertrauen. Außerdem reicht Akzeptanz als Vertrauensmaß nicht aus, um festzustellen, ob das Vertrauen situationsgemäß angemessen war (Baltes et al. 2025).
Psychologische Vertrauensdefinition und Vertrauensmodelle
Aus psychologischer Sicht haben sich zwei Modelle zur Definition von Vertrauen etabliert:
Das Modell des zwischenmenschlichen Vertrauens von Mayer et al. (1995) definiert Vertrauen als die Bereitschaft des Vertrauensgebers (Trustor), sich gegenüber den Handlungen eines Vertrauensempfängers (Trustee) vulnerabel zu zeigen, basierend auf der Erwartung, dass dieser für den Vertrauensgeber wichtige Handlungen ausführen wird – unabhängig von der Möglichkeit, dass der Trustor diese kontrollieren kann. Drei Facetten der wahrgenommenen Vertrauenswürdigkeit bestimmen das Vertrauen des Trustors (hier: der Nutzenden von KI) in den Trustee (der KI):
- die wahrgenommene Kompetenz des Trustees in der relevanten Domäne
- das wahrgenommene Wohlwollen (positive Absichten) des Trustees gegenüber dem Trustor
- die wahrgenommene Integrität (Einhaltung ethischer Grundsätze) durch den Trustee.
Je höher Menschen die Vertrauenswürdigkeit von KI einschätzen, desto mehr vertrauen sie ihr. Das Vertrauen bestimmt daraufhin tatsächliches Vertrauensverhalten. Wichtig ist dabei, zu betonen, dass es sich um subjektive Zuschreibungen handelt: Die Vertrauensfacetten werden auf KI-Systeme angewandt, obwohl diese objektiv keine eigenen Absichten oder ethischen Grundsätze besitzen.
Lee und See (2004) passen das Modell an den Automatisierungskontext an und ergänzen es um zusätzliche Dimensionen, die über die wahrgenommene Vertrauenswürdigkeit hinausgehen und sich auf das Verhältnis von Vertrauen zu den realen Systemfähigkeiten beziehen:
- (Vertrauens-)Kalibrierung: umfasst, dass Nutzende ihr Vertrauen an die tatsächlichen Fähigkeiten eines Systems anpassen. Abweichungen führen zu einer Fehl- oder Nichtnutzung (Overtrust/Undertrust). Das Vertrauen kann z.B. durch Informationen über die KI und Erfahrungen mit ihr graduell angepasst werden.
- Auflösung bezeichnet, wie sensibel (proportional) Vertrauen auf Veränderungen in den Systemfähigkeiten reagiert.
- Spezifität betont die Kontextabhängigkeit von Vertrauen und verweist darauf, dass Vertrauen sich auf bestimmte Subsysteme oder spezifische Situationen beziehen kann
Diese Erweiterung ist im Bereich der Mensch-KI-Interaktion-Forschung relevant, da es nicht das Ziel ist, das Vertrauen von Nutzenden in KI-Anwendungen pauschal zu erhöhen, sondern automatisierte Systeme so zu gestalten, dass Fehlanwendungen reduziert und die Zusammenarbeit zwischen Mensch und System verbessert werden.
Vertrauen vs. Vertrauensverhalten
Während psychologische Forschung Vertrauen als eine Einstellung der Nutzenden gegenüber dem System definiert, beschreibt Vertrauensverhalten eine Handlung als Folge des Vertrauens. Im KI-Kontext zeigt sich Vertrauensverhalten beispielsweise als Akzeptanz und Verwendung von KI-generierten Inhalten. Diese sind jedoch kein zuverlässiger Indikator für echtes Vertrauen. Zahlreiche kontextuelle Faktoren können Einfluss nehmen: So kann ein hoher kognitiver Load durch komplexe Aufgaben oder Multitasking Nutzende dazu verleiten, schneller auf automatisierte Unterstützung zurückzugreifen. Auch die Neuheit eines KI-Tools und die Neugierde können zur Nutzung motivieren, ohne dass diesem vertraut wird. Die Gleichsetzung von Vertrauen mit Akzeptanz und der Verwendung KI-generierter Inhalte verkennt weitere Einflüsse auf das Vertrauensverhalten.
Diese Unterschiede verdeutlichen wir mit einem kurzen Praxisbeispiel. Stellen Sie sich vor, Sie werden kurzfristig gefragt, bis zum nächsten Tag ein Werbevideo für ein Produkt zu erstellen, das das Unternehmen, in dem Sie arbeiten, herstellt. Allerdings weisen Sie nur geringe Expertise im Erstellen von Werbevideos auf. Für die Erstellung des Videos nutzen Sie ein generatives KI-Tool, das Text in Sekundenschnelle in ein Video umwandelt. Am nächsten Morgen laden Sie das generierte Werbevideo unter Ihrem Namen auf der Website Ihres Unternehmens hoch.
Das Beispiel zeigt: Die Nutzung der KI spiegelt nicht zwingend Vertrauen wider, sondern kann durch situative Faktoren wie Zeitdruck oder fehlende Expertise motiviert sein. Idealerweise sollten Nutzende vor der Verwendung KI-generierter Inhalte evaluieren, ob sie das System als kompetent, sicher und vertrauenswürdig einschätzen. Dabei können relevante Eigenschaften berücksichtigt werden – etwa die Datenschutzpraktiken des Tools, vorhandene Erklärungen zur Generierung der Inhalte oder Optionen zur Überarbeitung des Outputs.
Vertrauensbegriff und Interdisziplinarität
Auch wenn eine gemeinsame Arbeitsdefinition von Vertrauen in KI für die gemeinsame interdisziplinäre Forschung relevant ist, kann Vertrauen in konkreten Forschungsprojekten unterschiedliche Rollen einnehmen. Eine starre Begriffsdefinition ist daher möglicherweise unpassend, um die Bandbreite der Projekte adäquat abzubilden. Um diese Unterschiede zu berücksichtigen und gleichzeitig Vergleichbarkeit zu schaffen, schlagen wir vor, dass Forschungsprojekte zu dem Thema Vertrauen in Mensch-KI-Interaktion Antworten auf die folgenden Fragen transparent machen:
- Funktion: Welche Funktion soll Vertrauen in KI in dem Studienkontext erfüllen? Soll Vertrauen z. B. zur Nutzung einer KI oder zur Akzeptanz des erstellten Outputs beitragen?
- Welche Attribute, die der KI auf der Individualebene zugeschrieben werden, spielen eine Rolle im Studienkontext? Wie ist die Einschätzung des Trustors bezogen auf die Kompetenz, das Wohlwollen oder die Integrität des KI-Systems? Hierbei handelt es sich um die Wahrnehmung der Nutzenden, die durch Messskalen erhoben wird. Welche Skalen konkret verwendet werden, ist dabei abhängig von der Funktion (1) und dem konkreten Studienkontext. In dem Zusammenhang sollte auch konkretisiert werden, ob sich das Vertrauen auf den Prozess, die Interaktion oder das Endprodukt bezieht.
- Welche Hinweisreize auf Objektebene der KI (des Trustees) werden für die Evaluation der wahrgenommenen Vertrauenswürdigkeit betrachtet? Damit sind beobachtbare Eigenschaften der KI gemeint, die als Signale die Wahrnehmung auf Individualebene (2) und das Vertrauensverhalten beeinflussen. Sie werden typischerweise in Experimenten variiert (z. B. der Einfluss von Interfacegestaltungen, Erklärungen oder Interaktionsmöglichkeiten auf die subjektive Wahrnehmung der KI).
Fazit
Dieser Beitrag schlägt ein übergreifendes Arbeitskonzept mit individualisierbaren Elementen für Vertrauen vor, das die disziplinübergreifende Forschung erleichtern soll und die Vielfalt an Perspektiven nutzbar macht. Dazu ist es wichtig, dass sich einzelne Projekte bewusst machen, an welcher Stelle Vertrauen in ihrem Projekt eine Rolle spielt, und dass für eine erfolgreiche Ko-Kreation zwischen Mensch und KI nicht allein Akzeptanz relevant ist, sondern ein der Situation adäquates Vertrauensverhalten für eine erfolgreiche Zusammenarbeit benötigt wird.
Forschungsschwerpunkt
Forschungsschwerpunkt Generative KI
Quellen
Baltes, S./Speith, T./Chiteri, B./Mohsenimofidi, S./Chakraborty, S./Buschek, D. (2025). Rethinking Trust in AI Assistants for Software Development: A Critical Review. arXiv preprint arXiv:2504.12461.
Gillespie, N./Lockey, S./Ward, T./Macdade, A./Hassed, G. (2025). Trust, attitudes and use of artificial intelligence: A global study 2025. The University of Melbourne and KPMG. DOI: 10.26188/28822919.
Lee, J. D./See, K. A. (2004). Trust in automation: Designing for appropriate reliance. In: Human factors 46(1), 50–80.
Mayer, R. C./Davis, J. H./Schoorman, F. D. (1995). An integrative model of organizational trust. In: Academy of management review 20(3), 709–734.
Die vom bidt veröffentlichten Blogbeiträge geben die Ansichten der Autorinnen und Autoren wieder; sie spiegeln nicht die Haltung des Instituts als Ganzes wider.
Der Beitrag Der Vertrauensbegriff in der interdisziplinären Forschung zur Mensch-KI-Interaktion erschien zuerst auf bidt DE.