ChatGPT in Schule und Hochschule – ein Wendepunkt für Lernen und Lehre?

Wie mit generativer KI im Bildungskontext umgehen? Verbote sind weder sinnvoll noch durchsetzbar. Eine Laissez-Faire-Haltung gegenüber generativer KI würde die Bildungsqualität mindern und – auf lange Sicht – gesellschaftlichen Schaden anrichten. In diesem Spannungsfeld entwickeln sich in Wissenschaft und Praxis neue Ideen, um den Herausforderungen zu begegnen.

Ein Gespräch über zukunftsweisende Lehr- und Lernmethoden mit generativer KI.

ChatGPT rüttelt an den Grundfesten des Bildungssystems – so lesen sich einige Medienberichte, seit das Sprachmodell zur öffentlichen Nutzung verfügbar ist. Haben Sie das kommen sehen?

Schmid: Ich muss sagen, selbst wir KI-Forschenden waren Ende 2022 baff über die Qualität von ChatGPT, als OpenAI damit an die Öffentlichkeit ging. Sehr schnell begann eine breite öffentliche Diskussion über die Auswirkungen im Bildungskontext. Das war bei kaum einem digitalen Werkzeug zuvor der Fall.

Heckmann: Auch im rechtlichen Kontext haben wir gesehen: Wow, da kommt was auf uns zu. Wir entwickelten noch im Wintersemester 2022/23 die ersten Lehrformate mit generativer KI und stürzten uns auch in der Forschung auf das Thema.

Wie stark haben sich Lernen, Lehren und Prüfen seit ChatGPT verändert?

Schmid: Man kann sowohl an Schulen als auch an Universitäten beobachten, dass Schülerinnen und Schüler sowie Studierende die neuen generativen KI-Tools zunehmend nutzen, etwa um Übungsaufgaben zu bearbeiten oder Aufsätze schreiben zu lassen. Lehrkräfte und Dozierende setzen die Technologie ebenfalls vermehrt ein, etwa zur Korrektur oder für die Aufgabenerstellung. Doch die Generierung von Inhalten mit Tools wie ChatGPT im Bildungskontext muss man fachdidaktisch und medienpädagogisch unterfüttern und begleiten. Beispielsweise sollten Strategien vermittelt werden, wie man den Wahrheitsgehalt und die Qualität von KI-generierten Inhalten bewertet. Ich freue mich, dass durch ChatGPT das Thema Bildung im Zeitalter der Digitalität endlich breit diskutiert wird. Dies ist seit zwei Jahrzehnten überfällig, seit dem Aufkommen von Suchmaschinen, Wikipedia und maschineller Übersetzung.

Der Impuls an manchen Hochschulen war ein Verbot von generativer KI. Warum kann das rechtlich nicht durchgesetzt werden?

Heckmann: Ein Verbot würde in verschiedene Grundrechte, wie Ausbildungsfreiheit und Chancengleichheit, eingreifen. Lernende dürfen technologische Innovationen nutzen, die ihren Lernprozess unterstützen. Außerdem lässt sich ein Verbot in der Praxis nicht durchsetzen, weil der Einsatz von KI, zum Beispiel in Hausarbeiten, nicht effektiv kontrolliert werden kann. Auch das Argument, generative KI würde die Grundsätze guter wissenschaftlicher Praxis verletzen, hat keinen Bestand. Es kann ja nach so kurzer Zeit keine etablierten Standards geben, wie mit KI in der akademischen Arbeit umzugehen ist.

Ein Verbot ist keine Lösung, aber ohne Regulierung wird es nicht gehen. Wie können rechtliche Rahmenbedingungen aussehen, die die handelnden Personen in der Praxis unterstützen?

Heckmann: Am Beispiel Hochschule sehen wir, dass das Recht die Realität des Studiums reflektieren muss. Dazu haben meine Kollegin Sarah Rachut und ich kürzlich einen Beitrag veröffentlicht. Studien- und Prüfungsordnungen sollten angepasst werden, sodass Lehrinhalte und Bewertungsmethoden den tatsächlichen beruflichen Anforderungen und Studienzielen entsprechen. Studierende sollen ihre Intelligenz sinnvoll einsetzen und gleichzeitig technologische Ressourcen effektiv nutzen können. Da sich Lernende vermehrt mit neuen Technologien auseinandersetzen, ist auch eine Anpassung des Workloads nötig. Für all das braucht es eine gesetzliche Grundlage, die nicht zuletzt klarstellt, dass die Integration technologischer Entwicklungen in die Hochschulbildung politisch unterstützt wird.

Generative KI bietet viele Chancen für Lehre und Lernen. Die breite Debatte über den Einsatz dieser und anderer Technologien im Bildungssystem ist längst überfällig.

Prof. Dr. Ute Schmid
Zum Profil

Das bidt reagiert mit dem neuen Forschungsschwerpunkt „Mensch und generative künstliche Intelligenz: Trust in Co-Creation“. Was bedeutet der Begriff Co-Creation?

Schmid: Co-Creation meint, dass Mensch und generatives KI-System gemeinsam Lösungen für spezifische Anforderungen entwickeln, sei es die Erstellung eines Textes, eines Bildes oder eines Programms. Das Ergebnis entsteht über einen zyklischen, interaktiven Prozess von Anfrage, Ausgabe und Anpassung.

Forschungsschwerpunkt

Mensch und generative künstliche Intelligenz: Trust in Co-Creation


Inwiefern spielt Vertrauen eine Rolle bei diesem interaktiven Prozess?

Schmid: Vertrauen hat zwei Facetten. Erstens geht es um das Vertrauen von Menschen in KI-Systeme. Vertrauen wird zugeschrieben oder aufgrund von spezifischen Erfahrungen auf- oder abgebaut, ähnlich wie bei der Interaktion zwischen Menschen. KI-Systeme müssen deshalb so gestaltet werden, dass Menschen ihnen nicht naiv vertrauen, sondern ihr Vertrauen kalibrieren. Zweitens geht es um Anforderungen an die Vertrauenswürdigkeit von KI-Systemen.

Heckmann: Dieses Vertrauen in KI wird durch den AI Act der EU gestärkt, der die Einsatzbedingungen regelt. Hersteller müssen zum Beispiel offenlegen, mit welchen Daten ihre Systeme trainiert wurden. Darüber hinaus fordert die Verordnung von Anbietern, die Grenzen und Unsicherheiten ihrer Produkte zu kommunizieren.

Angesichts dieser Entwicklung: Welche Kompetenzen werden jetzt für Lehrende und Lernende wichtig?

Schmid: Lehrkräfte und Lernende sollten ein grundlegendes Verständnis von zentralen Konzepten und Methoden der KI haben. Hier kann man sich am Dagstuhl-Dreieck orientieren, das von einer interdisziplinären Gruppe als Rahmenmodell entwickelt wurde: Die Vermittlung fachlich-methodischer Kompetenzen liefert die Grundlage für eine sichere, souveräne und effektive Nutzung digitaler Werkzeuge. Beides zusammen ermöglicht eine Auseinandersetzung mit den Auswirkungen auf das eigene Leben, die Gesellschaft und die Umwelt. Bildungsprozesse müssen also so gestaltet werden, dass Menschen digitale Werkzeuge sinnvoll nutzen können und gleichzeitig notwendige Kompetenzen, wie Prozentrechnen, sprachliche Kompetenzen oder Programmieren, nicht verloren gehen.

Welche Erfahrungen haben Sie bisher mit dem Einsatz von KI in der Lehre gemacht?

Heckmann: Ein Beispiel aus meiner Lehre ist das Seminar „Der Richter und sein Hacker“. Der Clou war, dass die Studierenden ihre Themen mithilfe von generativer KI erarbeitet haben. Dazu gehörte eine kritische Überprüfung und Dokumentation des gesamten Prozesses. Die Studierenden agierten als Qualitätsmanager.

Schmid: Ich beobachte, dass viele Studierende ChatGPT und andere generative Tools nutzen, um beispielsweise ihre Programmierhausaufgaben zu bearbeiten. Dies kann eine sinnvolle Unterstützung sein. Aber es kann auch dazu führen, dass grundlegende Kompetenzen nicht erworben werden.

ChatGPT ist ein wertvolles Werkzeug, weil es zum Beispiel Zeit sparen kann. Aber die Qualität des Outputs muss vom Menschen kommen.

Prof. Dr. Dirk Heckmann
Zum Profil

Sie beide leiten Teilprojekte am bidt innerhalb des neuen Forschungsschwerpunkts. Worauf zielen Ihre Projekte?

Schmid: Unser Projekt fokussiert auf die Co-Creation von Programmcode. Wir wollen erforschen, wie Studierende die nötigen Programmierkompetenzen erwerben, auch wenn sie ChatGPT nutzen. Zudem werden wir bestehende KI-Ansätze zur Codegenerierung weiterentwickeln, um die Qualität des generierten Codes zu erhöhen.

Heckmann: In unserem Projekt untersuchen wir die Evolution von Studium und Prüfungen im Kontext von Co-Creation. Zum Projekt gehört eine Roadshow, bei der ein Teammitglied durch Deutschland reist, um mit Universitäten und Ministerien in Dialog zu treten. Ziel ist es, ein exemplarisches Prüfungsverfahren zu entwickeln, welches das traditionelle Konzept der eigenständigen Leistung aufbricht. Wir werden natürlich auch so frech sein und generative KI für unsere Gutachten einsetzen, selbstverständlich unter Einhaltung aller Qualitätsstandards.

Herzlichen Dank für das Gespräch!

Dieser Beitrag ist im bidt Magazin erschienen.


bidt-Studie unterstreicht Herausforderungen für das Bildungssystem

Bessere Noten dank ChatGPT? 42 Prozent der Schülerinnen und Schüler und 45 Prozent der Studierenden jeweils ab 18 Jahren sind der Meinung, dass sie durch textbasierte generative KI bessere Noten erhalten hätten – ohne angemessene Leistung. Zugleich stimmt aber auch die Hälfte der Nutzenden im Rahmen von Schule oder Studium der Aussage zu, dass der Einsatz dieser Technologie zu einer Leistungssteigerung geführt hat. Wie eine Studie des bidt-Think Tank zeigt, haben bereits rund drei Viertel der erwachsenen Schülerinnen und Schüler (73 Prozent) sowie Studierenden (78 Prozent) generative KI verwendet.

Beim Risikobewusstsein besteht teilweise Nachholbedarf: Nicht mehr als 50 Prozent der betrachteten Schülerinnen und Schüler und 56 Prozent der Studierenden sind sich bewusst, dass erzeugte Ergebnisse faktisch falsch sein können. Umso wichtiger ist es, die Grenzen der Technologie aufzuzeigen und die digitalen Kompetenzen von Lernenden und Lehrenden zu fördern. Denn die Mehrheit der Befragten empfindet KI-Tools als hilfreich, jedoch fehlen oft klare Richtlinien oder kontrollierte Prüfungsformate. Für die bidt-Studie wurden 3.020 Internetnutzende in Deutschland repräsentativ befragt, darunter 252 Schülerinnen und Schüler sowie 981 Studierende ab 18 Jahren.

Studie

Verbreitung und Akzeptanz generativer KI an Schulen und Hochschulen


Der Beitrag ChatGPT in Schule und Hochschule – ein Wendepunkt für Lernen und Lehre? erschien zuerst auf bidt DE.