Künstliche Intelligenz in der Hochschullehre am Beispiel von ChatGPT
21.11.23
Wie beeinflusst künstliche Intelligenz (KI) das wissenschaftliche Arbeiten und Prüfen an Hochschulen? Welche Kompetenzen benötigen Studierende zukünftig? Mit praktischen Hinweisen und weiterführenden Inhalten finden Sie hier Antworten auf diese Fragen und Möglichkeiten zur kritischen Reflexion von Potenzialen und Grenzen.
Was ist textbasierte KI, was kann sie und was noch nicht?
Textbasierte künstliche Intelligenz (KI) ist eine innovative Technologie, mit deren Hilfe sprachlich hochwertige Texte schnell und effizient erstellt werden können. Wenn in einem Schreibprozess eine KI-basierte Software unterstützend wirkt, spricht man von KI-gestütztem Schreiben. Das Hauptziel besteht darin, vorhandene Texte effizienter zu bearbeiten oder automatisiert neue Textsequenzen zu generieren. Somit umfasst KI-gestütztes Schreiben sowohl die Zusammenfassung vorhandener Texte (KI-gestützte Textbearbeitung) als auch das Generieren von neuem Text (KI-gestützte Textgenerierung; Weßels & Gottschalk, 2023). Die generierten Texte werden eigens für entsprechende Anwender*innen erstellt und sind dadurch in ihren Formulierungen immer einzigartig. Es handelt sich folglich nicht um Kopien anderer bereits bestehender Texte oder Textteile, sondern um maßgeschneiderte Unikate.
Eine jüngere Version eines solchen KI-basierten Sprachmodells ist GPT4. Die Abkürzung GPT steht dabei für Generative Pre-trained Transformer. Das Modell wird als eines der fortschrittlichsten und leistungsfähigsten Sprachmodelle angesehen, da es in der Lage ist, verschiedene Sprachaufgaben wie Textgenerierung, Übersetzung, Programmieren, Zusammenfassung, Fragebeantwortung und mehr durchzuführen.
Was sind Sprachmodelle?
Die Technologie, die textbasierter KI zugrunde liegt, beruht auf Sprachmodellen, die in Form von neuronalen Netzen gespeichert sind. Diese Modelle verknüpfen semantische (inhaltliche) Bedeutungen und Assoziationen von Wörtern miteinander, indem sie eine statistische Wahrscheinlichkeitsfunktion benutzen, die auch den Kontext des Geschriebenen berücksichtigt. Die zentralen Ziele bestehen somit darin, sprachlich hochwertige Texte zu verfassen, die so authentisch wirken, als wären sie von Menschen verfasst worden. Die zentralen Funktionen, die textbasierte KI im Schreibprozess übernehmen kann, bestehen nach Salden, Lordick & Wiethoff (2023, S. 10-11) in
- Textgenerierung und -korrektur,
- Paraphrasieren und Umschreiben,
- Übersetzen,
- Ideengabe im Prozess des kreativen Schreibens,
- Literaturrecherche und
- der Bewertung von Texten
Eine bekannte Anwendung dieser textbasierten KI ist der ChatGPT, der von Open AI (u.a. Elon Musk und Microsoft) entwickelt wurde. Neben der Generierung von Texten ist es bei dieser Technologie ein wichtiges Ziel, im Dialog Fragen zu beantworten. Hierbei kommen Sprachmodelle mit ergänzender Dialogfunktion zum Einsatz, die in der Lage sind, Antworten auf Fragen in Form von Internet-Chats zu verfassen. Dabei wird angestrebt, den sprachlichen Charakter von menschlichen Antworten möglichst authentisch zu imitieren. Anhand von gestellten Fragen oder Arbeitsanweisungen kann das Sprachmodell den Dialog fortsetzen, Erklärungen liefern oder passende Textpassagen generieren. Ein für Laien verständliches Erklärvideo zur grundlegenden Funktionsweise von ChatGPT ist im verfügbar. Youtube-Kanal der deutschen Gesellschaft für Hochschuldidaktik (dghd)
Überprüfung der Faktenlage erforderlich
Bei der Verwendung des Chatbots ChatGPT ist zu beachten, dass er nicht darauf trainiert wurde, alle der oben genannten Funktionen textbasierter KI zu übernehmen. Beispielsweise sind die von ChatGPT ausgegebenen Antworten nicht zwingend auch inhaltlich korrekt. Der Grund dafür ist, dass das Ziel der KI einzig und allein darin besteht, einen möglichst sprachlich gut klingenden menschenähnlichen Text zu verfassen und diese in dialogähnlichen Chats fortzuführen. Dadurch, dass die Textgenerierung auf der Basis eines statistischen Wahrscheinlichkeitsmodells unzähliger Textverteilungen basiert, sind sie häufig, aber nicht automatisch und immer, sachlich und fachlich richtig.
Liegt ChatGPT beispielsweise keine ausreichende Textbasis vor, dann erfindet die KI mitunter Textpassagen, die zwar schlüssig zum vorigen Text passen, aber inhaltlich falsch sind – das sogenannte „Halluzinieren“. Dies liegt daran, dass das Ziel des Modells einzig und alleine darin besteht, einen vorgegebenen Text so fortzusetzen, dass die Fortsetzung möglichst schlüssig ist. Es geht also weder um das bestmögliche Beantworten einer Frage, noch um inhaltliche Genauigkeit und/oder Korrektheit und auch nicht darum, dass Fragen, die dem Chatbot gestellt werden, möglichst leicht und verständlich beantwortet werden. Somit liegt eine zentrale Herausforderung darin, im Umgang mit textbasierter KI richtige von falschen Informationen zu unterscheiden (Mohr et al., 2023). Hierin liegt zugleich ein wichtiges Lernziel, das KI-bezogene Kompetenzen betrifft.
Sensibilität hinsichtlich Bias und Verzerrungen
Ferner ist wichtig zu wissen, dass die Inhalte einer von einer KI erstellten Ausgabe wie Text oder anderen Informationen nur auf der Basis all derjenigen Texte generiert werden, mit denen die KI selbst trainiert wurde. Enthalten diese Verzerrungen (engl. bias), z.B. häufig aufkommende Stereotype gegenüber Geschlechtern, Ethnien oder Berufsgruppen, werden diese oft ungefiltert in den ausgegebenen Texten reproduziert (Mohr et al., 2023; Salden, Lordick & Wiethoff, 2023). Um ein Bewusstsein für dieses und ähnlich gelagerte Probleme bei der Anwendung der KI zu schaffen, gibt diese inzwischen teilweise entsprechende Warnungen aus. Beispielsweise wird bei der Frage nach Falschantworten, wie sie zur Entwicklung von Distraktoren für geschlossene Fragen benötigt werden, von ChatGPT inzwischen angegeben, dass das Modell nicht dazu gedacht ist, falsche Antworten zu geben. Dennoch erscheinen die meisten von ChatGPT geschriebenen Texte trotz dieser Einschränkungen – zumindest auf den ersten Blick – häufig qualitativ hochwertig und täuschend echt und die Warnungen können mit Hilfe der richtigen Eingabeaufforderungen ( ) umgangen werden, sodass ChatGPT dennoch die gewünschten Antworten generiert. siehe Abschnitt „KI-bezogene Kompetenzen für wissenschaftliches Arbeiten“ hier im Artikel
Wie verändert textbasierte KI das wissenschaftliche Arbeiten?
Die fortschreitende Entwicklung von künstlicher Intelligenz hat unmittelbare Auswirkungen auf das akademische Lehren, Lernen und Arbeiten. Obwohl einige Hochschulen den Einsatz von ChatGPT untersagt haben, werden entsprechende Verbote von vielen Expert*innen nicht als zielführend oder sogar als kontraproduktiv angesehen. Vor dem Hintergrund, dass entsprechende KI zukünftig vermutlich in vielen Anwendungen direkt verfügbar ist und beispielsweise in Textverarbeitungsprogramme und Suchmaschinen integriert werden soll, wird es kaum möglich sein, ihren Einsatz zu kontrollieren und/oder darauf zu verzichten. Daher betonen auch Expert*innen mit juristischem Hintergrund, wie wichtig es ist, sich im wissenschaftlichen Kontext mit entsprechenden neuen Technologien auseinanderzusetzen (Salden, Lordick & Wiethoff, 2023). Hochschulen und Lehrende sollten sich also mit diesem Thema beschäftigen, um definieren zu können, unter welchen Bedingungen und in welchem Umfang der Einsatz von KI-Tools sinnvoll und legitim ist. Dabei muss zwischen der Nutzung in Lehr-Lern-Settings und der Nutzung im Prüfungskontext unterschieden werden, für die unterschiedliche Anforderungen herrschen.
KI-bezogene Kompetenzen für wissenschaftliches Arbeiten
Obwohl textbasierte KI auf den ersten Blick häufig sowohl beeindruckt als auch empört, ist sie auf den zweiten Blick vor allen Dingen eines von vielen neuen Werkzeugen, die das (wissenschaftliche) Arbeiten unterstützen können, ähnlich wie es beispielsweise Computer und das Internet in der Vergangenheit getan haben. Hierdurch wird das wissenschaftliche Arbeiten an Hochschulen verändert, was idealerweise zugleich die kritische Reflexion der bisherigen wissenschaftlichen Praktiken zur Folge hat (Gimpel et al., 2023; Mohr et al., 2023). Zugleich entsteht durch die Nutzung von KI im wissenschaftlichen Arbeiten ein neues Kompetenzfeld, das sich zukünftig als Teil der Hochschulausbildung etablieren sollte (Hanke, 2023; Salden, Lordick & Wiethoff, 2023; Spannagel, 2023c). Dies ist besonders wichtig, da auch fachspezifische Entwicklungen vermutlich noch stärker an Bedeutsamkeit gewinnen werden: beispielsweise kann in der Architektur das KI-Tool CAD- Entwürfe von Gebäuden entwickeln. In vielen Fächern einsetzbar sind KI-Tools, die Bilder erstellen, z.B. http://www.hypar.io. Die Herausforderung liegt dabei in der Vermittlung neuer Kompetenzen. Besonders eignet sich der problemorientierte Ansatz, bei dem kritisches Denken und kreative Eigenleistungen der Studierenden eingefordert werden. Da hier die Ausbildung anwendungsbezogener Kompetenzen das zentrale Lernziel darstellt, rückt der Schreibprozess weiter in den Hintergrund. http://www.midjourney.com
Studierende können KI-Tools auf verschiedene Weisen nutzen, entweder um Lernen zu vermeiden, sich zu entlasten oder sogar, um bessere Ergebnisse zu erzielen. Buck und Limburg (2023) stellen entsprechende KI-Nutzung übersichtlich dar (s. Abbildung).
Entsprechend bestehen KI-bezogene Kompetenzen, die Studierende zukünftig erwerben sollten, nicht nur darin, das vielfältige Anwendungsspektrum zu kennen, sondern auch darin, das Bewusstsein für die Stärken und Schwächen der KI zu schärfen und ein kritisches Hinterfragen der Einsatzmöglichkeiten und Resultate anzuregen. Zum Reflektieren des wissenschaftlichen Arbeitens mit ChatGPT können nach Gimpel et al. (2023, S. 18f) folgende Empfehlungen für Studierende in die Lehre integriert, diskutiert und eingeübt werden:
- Beachten Sie gesetzliche und prüfungsrechtliche Vorgaben
- Reflektieren Sie über Ihre Lernziele
- Nutzen Sie ChatGPT als Schreibpartner*in
- Nutzen Sie ChatGPT als Lernpartner*in
- Setzen Sie sich mit ChatGPT iterativ und im Diskurs auseinander
- Fassen Sie Lernmaterial mit ChatGPT zusammen.
- Nutzen Sie ChatGPT zum Programmieren
- Achten Sie auf Risiken bei der Verwendung von ChatGPT
Ein bedeutendes Ziel, das sich unmittelbar auf die Qualität der von einer KI wie ChatGPT generierten Texte auswirkt, besteht darin, den Studierenden beizubringen, gute Arbeitsanweisungen (engl. „Prompts“) für die KI zu schreiben (Gimpel, 2023; Spannagel, 2023b). Dies liegt darin begründet, dass der Output stark davon abhängt, wie genau ein Prompt formuliert wird. Daher ist es auch – entgegen häufiger Befürchtungen von Lehrenden – nicht möglich, auf eine einzige Anfrage hin von ChatGPT ganze wissenschaftliche Arbeiten oder Hausarbeiten generieren zu lassen. Ein zielführendes Vorgehen bei der Texterstellung mit ChatGPT ist daher recht kleinschrittig und macht viele einzelne präzise Prompts erforderlich.
Dem Wissen um diese Einschränkungen von ChatGPT zufolge bestünde das korrekte Vorgehen beim KI-gestützten Verfassen einer schriftlichen Ausarbeitung darin, mit Hilfe konkreter Prompts abschnittsweise Text ausgeben zu lassen und die Qualität des Textes mit Hilfe der in ChatGPT integrierten Dialogfunktion zu überwachen und zu lenken. Dies rückt die Kompetenz der Nutzer*innen der KI in den Vordergrund, ebensolche Prompts zu erstellen, mit deren Hilfe ein hochwertiger Text entstehen kann, der auch die Kernideen der Nutzer*innen adäquat widerspiegelt. Möglicherweise stellen insbesondere diese Arbeitsanweisungen, welche die KI erst zum Schreiben bringen, einen wesentlichen Teil der geforderten Eigenleistung im Schreibprozess und beim wissenschaftlichen Arbeiten dar. In diesem Zusammenhang wird bereits der Begriff prompt engineering verwendet und das Erstellen der Prompts als Schlüsselkompetenz im Umgang mit KI eingeordnet (Salden, Lordick & Wiethoff, 2023).
KI-Nutzung in der wissenschaftlichen Bildung
Eine Befürchtung im Umgang mit KI-basierten Tools besteht darin, dass leistungsstarke Studierende diese besser und gewinnbringender für sich nutzen können als leistungsschwache Personen, die über weniger ausgeprägte Schreibkompetenz verfügen. Folglich ist es besonders wichtig, den Umgang mit diesen Tools zum Teil der wissenschaftlichen Ausbildung zu machen, damit sich die Heterogenität der Studierenden nicht im Sinne eines „digital devide“ (Salden, Lordick & Wiethoff, 2023, S. 15) weiter verschärft. Daher sollten Studierende gezielt über entsprechende KI-Tools informiert und ihnen die Möglichkeit zum Üben der Anwendung gegeben werden (Weßels, 2022). Dazu müssen entsprechende Lernziele im Umgang mit KI definiert werden. Hier einige Vorschläge für Lernziele für Studierende zum wissenschaftlichen Arbeiten mit KI. Die Studierenden können in Anlehnung an Salden, Lordick & Wiethoff (2023, S. 13):
- erklären, wie KI-gestützte Tools zum wissenschaftlichen Arbeiten funktionieren
- die Einsatzmöglichkeiten und Grenzen von KI für das wissenschaftliche Arbeiten beurteilen.
- KI im Schreibprozess zur Unterstützung bei der Textproduktion einsetzen
- zielführende Prompts für die KI schreiben
- die durch eine KI erstellten Ausgaben vor dem Hintergrund der Standards des wissenschaftlichen Arbeitens im eigenen Fach bewerten
- die rechtlichen Rahmenbedingungen beim wissenschaftlichen Arbeiten mit KI umsetzen
Neben ChatGPT gibt es weitere KI-Tools, die über die Funktionen von ChatGPT hinausgehen und das wissenschaftliche Arbeiten hervorragend unterstützen. Sie können beispielsweise bei der Literaturrecherche helfen, indem sie Zitationsnetzwerke aufzeigen. Hier nur einige Vorschläge ohne Anspruch auf Vollständigkeit (entnommen aus Weßels, 2022, und Spannagel, 2023b):
- kann Literatur zu einer Forschungsfrage suchen, Fragestellungen anpassen, Texte umschreiben und Zusammenfassungen erstellen Elicit.org
- unterstützt beim Verfassen englischsprachiger Texte. DeepL write
- erstellt Zusammenfassungen zu Fragestellungen und nennt entsprechende wissenschaftliche Quellen Perplexity.ai
- hilft via Chatfunktion bei der inhaltlichen Arbeit mit einem Paper ChatPDF
- gibt Zitationsnetzwerke aus ResearchRabbit.ai
Außerdem existieren Prompt Bibliotheken, die speziell auf das Unterrichten (Planung, Prüfungsfragen, Quizze) ausgerichtet sind. Hierzu zählen:
- – AI for Education GenAI Chatbot Prompt Library for Educators
- – TU München Prompt Bibliothek
- – KI-Campus Offener Prompt-Katalog
- – GitHub Prompts for Education
Alles in allem empfiehlt es sich, den Einsatz von und Umgang mit KI mit den Studierenden in Lehrveranstaltungen zu besprechen. Als Beispielvorlage für Regeln im Umgang mit diesen und anderen KI-Tools hat Spannagel (2023c) „ (wird in neuem Tab geöffnet)“ entwickelt, die online verfügbar sind und in Lehrveranstaltungen zur Anwendung gebracht und/oder als Diskussionsbasis genutzt werden können. Rules for Tools
Wie verändern sich die Kompetenzen, die Studierenden zukünftig benötigen werden?
Im Hochschulkontext wird Schreibkompetenz für die Bearbeitung unterschiedlicher Aufgabenstellungen und -typen benötigt. Hanke (2023) unterscheidet diesbezüglich vier Funktionen des Schreibens:
- Unterstützung des Lernens,
- Überprüfung von Wissen,
- Dokumentation von Arbeitsprozessen und
- wissenschaftliches Arbeiten.
Ihrer Einschätzung nach sind insbesondere die ersten beiden Funktionen durch die neuen KI-gestützten Technologien gefährdet, da Studierende Schreibaufgaben, die eigentlich zur Unterstützung kognitiver Aktivitäten gedacht waren, an die KI auslagern könnten und in schriftlichen Prüfungen, die der Wissensabfrage dienen, durch Einsatz der KI schummeln könnten. Diese Problemstellungen werden in den Abschnitten 4 (Prüfungen) und 5 (Didaktik) aufgriffen.
Über diese auf inhaltliche kognitive Ziele ausgerichteten Funktionen des Schreibens hinaus wird betont, dass das Schreiben in vielen Fächern ein integraler Bestandteil der fachlichen Sozialisation ist (Salden, Lordick und Wiethoff, 2023). Vermutlich ist es besonders häufig diese oft nicht explizit formulierte Funktion des Schreibens, die bei vielen Wissenschaftler*innen und Hochschullehrenden Widerstände gegen den Einsatz KI-gestützten Schreibens in der Hochschule hervorruft. Es besteht die Befürchtung, dass derjenige Teil der Fachlichkeit verloren geht, der mit entsprechenden als wertvolles Ziel eines Hochschulstudiums bewerteten Sozialisationsprozessen zusammenhängt.
ChatGPT und anspruchsvollen Schreibaufgaben
Insbesondere Schreibaufgaben, die der Unterstützung des Lernens durch den Schreibprozess dienen, indem sie eine tiefere Reflexion der Lerninhalte und echtes Verständnis von Konzepten und Zusammenhängen anregen, werden durch den Einsatz von KI vermutlich beeinträchtigt. Eine Lösungsmöglichkeit besteht darin, den Einsatz von KI bei diesen Aufgaben zu unterbinden. Eine weitere Lösungsmöglichkeit bestünde darin, dieses Problem direkt zu adressieren und das metakognitive Bewusstsein der Studierenden für ihre eigenen Lernprozesse im Umgang mit KI zu schärfen. Hierzu müssen die entsprechenden reflexiven Prozesse bezüglich
- der Funktionen des Schreibens für das eigene Lernen,
- die Rolle der KI im Schreibprozess und
- das kritische Prüfen und Durchdenken der Ausgaben der KI als Lernanlass genutzt werden, um eine Tiefenverarbeitung der Lerninhalte zu erreichen.
Damit verändert sich die Art der geistigen Eigenleistung bei dieser Art von Schreibprozessen weg vom Generieren hin zu reflexiv-bewertenden kognitiven Aktivitäten. Entsprechend müssen die Bewertungskriterien verändert werden. Erste Vorschläge dazu finden sich im von Lordick und Philipp (2023). Hochschullehrende sollten entscheiden, ob ein solches Verschieben der Akzentuierung der Lernziele gewünscht ist und in Abhängigkeit davon den Einsatz von KI bei Schreibaufgaben, die der Unterstützung des Lernens dienen, entweder unterbringen oder in die Lehre integrieren und entsprechende Kompetenzen befördern. Vortrag
Für Schreibaufgaben, die der Dokumentation von Arbeitsprozessen und dem wissenschaftlichen Arbeiten dienen, wird erwartet, dass diese zukünftig KI-unterstützt bearbeitet werden (vgl. Abschnitt oben „KI-bezogene Kompetenzen für wissenschaftliches Arbeiten“ ). Hierfür benötigen Studierende technik- und fachbezogene Kompetenzen im Umgang mit KI (Spannagel, 2023c). Insbesondere sind anspruchsvolle kognitive Kompetenzen erforderlich, um KI im Kontext des wissenschaftlichen Arbeitens effektiv anwenden zu können. Dabei gewinnen kritisches Denken und die Fähigkeit, Informationen zu prüfen und zu bewerten, an Bedeutung (Friedrich & Tobor, 2023; Weinmann-Sandig, 2023). Folglich wird in ChatGPT ein Lerntool für entsprechende Schlüsselkompetenzen gesehen, die auch als „Digital Literacy“, „Data Literacy“ oder „AI Literacy“ bezeichnet werden (Mohr et al., 2023, S. 7).
Häufig wird in diesem Zusammenhang die Frage gestellt, ob und inwieweit die Studierenden noch Fachwissen benötigen. Häufig wird argumentiert, dass es wichtig bleibt, Fachwissen zu erwerben und darauf aufzubauen, um die von einer KI generierte Antworten bewerten zu können und eigene Ideen abzuleiten. Dies sei insbesondere deswegen, da beispielsweise ChatGPT im Moment (noch) nicht zitiert und daher unklar und nicht nachvollziehbar ist, auf welcher Basis der Text entstanden ist. Nur auf einer fundierten Wissensbasis könne eine KI kritisch und reflektiert zum wissenschaftlichen Arbeiten und Schreiben genutzt werden, denn für die resultierenden Texte tragen wiederum Menschen und nicht die KI die Verantwortung.
Ein direkt resultierendes Problem ist jedoch die Motivation der Studierenden für das Lernen von Basiskompetenzen, die zukünftig durch KI übernommen werden, insbesondere die Motivation für das wissenschaftliche Schreiben. Dies stellt eine Herausforderung dar, die auf der didaktischen Ebene (vgl. Abschnitt 5) angegangen werden sollte (Spannagel, 2023b, 2023c; Hanke, 2023; Weßels, 2022).
Wie verändert ChatGPT textbasierte KI das Prüfen an Hochschulen?
Mit üblicher Plagiatssoftware sind KI-generierte Texte nicht erkennbar, da kein Text ein zweites Mal generiert wird. Entsprechend geht die zentrale Befürchtung dahin, dass die Studierenden mit Hilfe von KI wie ChatGPT im Studium schummeln. Neben dem vielleicht geringeren Problem, dass Studierende ganze Haus- und Abschlussarbeiten von KI verfassen lassen (siehe oben), besteht besonders die Gefahr von Strukturplagiaten, die entstehen, wenn Texte unter Beibehaltung der Struktur des Textes verfremdet und umgeschrieben werden.
Prüfungsformate, die direkt betroffen sind, sind insbesondere Haus- und Abschlussarbeiten wie Berichte, Protokolle, Essays, Hausaufgaben in Schriftform oder auch (Open-Book-)Klausuren (Salden, Lordick & Wiethoff, 2023; Spannagel, 2023a). Zudem ist die Sprachlehre deutlich betroffen, da Tätigkeiten wie das Übersetzen oder das Ausformulieren von Texten an KI abgegeben werden können, die Kern der Ausbildung sind (Salden, Lordick & Wiethoff, 2023). In der aktuellen Diskussion (Stand: Juni 2023) kristallisieren sich derzeit vier unterschiedliche Lösungsansätze für diese Herausforderungen heraus.
Lösungsansatz 1: Prüfungen ohne KI-Hilfsmittel für Wissen, Verständnis und Anwendung
Die Übersicht von Hanke (2023) zum Überprüfen kognitiver Prozesse in einer Welt mit ChatGPT verdeutlicht, dass die Prozesse des Verstehens und Anwendens schriftlich nur ohne KI-Einsatz abgeprüft werden können. Sind diese kognitiven Fähigkeiten Gegenstand der Prüfung, dann muss die Prüfung ohne Hilfsmittel erfolgen und der Einsatz von textgenerativer KI darf in den zugehörigen Prüfungssituationen nicht erlaubt werden. Nur so kann geprüft werden, ob die Studierenden in der Lage sind, die geforderten kognitiven Prozesse mit dem gewünschten Ergebnis zu erbringen. Entsprechend des Constructive Alignment müssen die Studierenden auf diese Prüfungsszenarien in der Lehre vorbereitet werden, indem sie ihre Kompetenzen ohne KI erwerben. Hierzu empfiehlt es sich, die entsprechenden Aufgaben in der Lehrveranstaltung ohne KI-Assistenz zu üben (Spannagel, 2023a).
Lösungsansatz 2: Andere Prüfungsformate für anspruchsvollere kognitive Lernziele einsetzen
Hanke (2023) zeigt in ihrer Übersicht zudem deutlich auf, dass mit zunehmend anspruchsvollen kognitiven Kompetenzen auch die Notwendigkeit steigt, schriftliche Prüfungsformate (z.B. Haus- und Abschlussarbeiten), die ohne Aufsicht geschrieben werden, durch andere Prüfungsformen wie mündliche oder praktische Aufgaben zu ergänzen. Möglicherweise könnte auch eine Kombination aus schriftlichen und mündlichen Prüfungen je nach Anforderungsniveau der Aufgaben erfolgen (Mohr et al., 2023; Spannagel, 2023a). Die Debatte um ChatGPT verdeutlicht somit das bereits bestehende und an sich von KI gänzlich unabhängige Problem, dass bei der Auswahl von Prüfungsformen nicht immer die Grundprinzipien des Constructive Alignment, sondern auch andere (z.B. ökonomische) Faktoren eine Rolle spielen, obwohl Lehre und Prüfungen grundsätzlich mit den Lernzielen in Einklang gebracht werden sollten (vgl. auch Gimpel et al., 2023, S. 28-29f). In diesem Sinne wird die Diskussion um eine veränderte bzw. neue Prüfungskultur wiederholt angestoßen (Mohr et al., 2023).
Lösungsansatz 3: Zur Unterstützung des Lernens formative Prüfungsformen wählen
Grundsätzlich lohnt sich die Auseinandersetzung mit der Frage, welches Ziel mit der Verwendung von Hausarbeiten als Prüfungsform eigentlich verfolgt wird (Hanke, 2023). Soll damit der Lernprozess unterstützt und/oder die Schreibkompetenz überprüft werden? Besonders eine Vermischung von Hausarbeiten als Lernprozess und Prüfungsprodukt sollte hinterfragt werden (Handke, 2023; vgl. auch Salden, Lordick & Wiethoff, 2023, zur Unterscheidung von formativen und summativen Lern- und Prüfungsaufgaben).
Liegt das Lernziel darin, das Lernen und den Erwerb von Schreibkompetenz zu fördern, sollten Prüfungen stärker auf die (Prozess-)Qualität statt auf eine hohe Prüfungsdichte und Wissensabfragen ausgerichtet sein (Friedrich & Tobor, 2023). Ein möglicher Lösungsansatz besteht darin, dass Lehrende Einblicke in den Erstellungsprozess wissenschaftlicher Arbeiten erhalten und der begleitete Schreibprozess stärker in den Fokus genommen wird (Gimpel, 2023; Spannagel, 2023a; Weßels, 2022). Dies kann über formative Prüfungen wie beispielsweise Portfolioarbeit erreicht werden, in denen Studierende ihre Arbeit dokumentieren und auch begründen, z.B. welche Überarbeitungsschritte sie vorgenommen haben, welche Prompts sie genutzt haben oder welches Feedback (von Lehrenden, Mitstudierenden oder der KI) sie eingearbeitet haben. Entsprechend müssen die Bewertungskriterien angepasst werden und solche Kriterien, die den Eigenanteil der Studierenden ausmachen, gegenüber formalen und stilistischen Kriterien anders gewichtet werden (Salden, Lordick & Wiethoff, 2023). Unter anderem könnte die Verteidigung der Arbeit stärker als bisher in die Note hineinzählen. Dies könnte bedeuten, dass Betreuungsschlüssel angepasst werden müssen, sodass Lehrenden ausreichend Kapazitäten für eine gute Betreuung der Lernprozesse zur Verfügung stehen.
Lösungsansatz 4: KI-Kompetenzen (mit)prüfen
Wenn Kompetenzen im Umgang mit KI zum Prüfungsgegenstand werden sollen, können geeignete Aufgaben mit Hilfe von KI gelöst werden, falls man die entsprechenden Kompetenzen mitprüfen möchte. Hierzu müssen insbesondere die Arbeitsanweisungen für die Studierenden überarbeitet werden, damit deutlich wird, worin die geforderten Kompetenzen liegen (Spannagel, 2023a; Salden, Lordick & Wiethoff, 2023). Zusätzlich müssen für entsprechende kompetenzorientiere Prüfungen auch entsprechende kompetenzorientierte Bewertungsraster entwickelt werden. Beispielsweise besagt ein Rechtsgutachten von Hoeren (2023), dass eine KI rechtlich nicht als Urheber eines Textes gelten kann. Personen, die einen Text mit Hilfe der KI geschrieben haben, können jedoch Urheber*innen sein, sofern sie eine ausreichend hohe Eigenleistung erbracht haben. Entsprechend liegt eine zentrale Frage beim KI-gestützten Schreiben darin, worin die Eigenleistung der Studierenden besteht, welchen Umfang sie haben muss und wie dieser Umfang bestimmt werden kann. Zur Dokumentation der Eigenleistung besteht eine Möglichkeit darin, die Konversation mit ChatGPT, die zum Erstellen einer Ausarbeitung geführt hat, über ein Browser-Plugin, z.B. , abspeichern und bei Abgabe der Arbeit mit einreichen zu lassen (Gimpel et al., 2023). Eine weitere Überlegung besteht darin, eine vollständige Liste der Prompts, die genutzt wurden, mit einreichen zu lassen (Gimpel et al., 2023). In beiden Fällen wird der Umfang der KI-Nutzung transparent und einer Prüfung und Bewertung zugänglich gemacht. https://gptsave.xyz
Neue Bewertungskriterien entwickeln
Daraus leitet sich ab, dass (neue) Bewertungskriterien für die studentische Eigenleistung entwickelt werden müssen. Diese lassen sich direkt aus den Anforderungen ableiten, die Studierende beim sach- und fachgerechten wissenschaftlichen Arbeiten mit KI bewältigen müssen, um erfolgreich qualitativ hochwertige Texte zu erstellen. Beispiele für Bewertungskriterien beim Einsatz von ChatGPT (oder anderen KI-Tools) könnten sein:
- Qualität und Einzigartigkeit der gewählten Forschungsfrage
- Passung der ausgewählten Forschungsfrage auf das zugeteilte Thema
- Kohärenz der Präsentation
- Abstimmung von Fragestellung, Theorie, Methoden und Ergebnissen aufeinander
- Einzigartige Eigenleistungen, die über das Zusammenfassen von Literatur hinausgehen (z.B. theoretische, empirische oder technische Inhalte, Analysen eigener Daten, Messreihen)
- Einbezug persönlicher Reflexion, z.B. Lernprotokoll oder eigene Stellungnahmen (nach Gimpel et al., 2023)
Zitieren und Dokumentieren in wissenschaftlichen Arbeiten
Zu beachten ist beim Einsatz von KI in Prüfungen zudem, dass Studierende laut Rechtsgutachten (Hoeren, 2023) in der Regel die Verwendung von KI-Tools in wissenschaftlichen Arbeiten angeben müssen, um nicht gegen die Kennzeichnungspflicht von Hilfsmitteln zu verstoßen. Diese Kennzeichnungspflicht ergibt sich nicht nur aus den Prüfungsordnungen und anderen Vorschriften einer Hochschule, sondern auch aus den Nutzungsbedingungen der Software. Wird Output von KI-Tools in wissenschaftlichen Arbeiten verwendet, muss dieser zitiert werden. (wird in neuem Tab geöffnet) wurden u.a. an der Universität Basel entwickelt. Lehrende sollten Studierenden transparente Anleitungen geben, wann und wie sie KI-Output verwenden dürfen und zitieren müssen. Lehrende können von Studierenden auch fordern, die Nutzung von KI-Tools zu dokumentieren, wenn sie für andere Funktionen genutzt werden, z.B. als Inspirationsquelle, für Übersetzungen oder zur sprachlichen Überarbeitung (Glathe, Hansen, Mörth, Riedel, 2023). Vorschläge zur Zitierweise
Gegebenenfalls müssen auch Prüfungsordnungen überarbeitet und angepasst werden, indem festgelegt wird, in welchem Umfang in unter welchen Bedingungen KI zum Erstellen von prüfungsrelevanten Leistungen eingesetzt werden, darf. Wo keine spezifischen Vorgaben in Prüfungsordnungen vorhanden sind, haben individuelle Lehrende aufgrund der Freiheit der Lehre (Art. 5 Abs. 3 Grundgesetz) das Recht, Studierenden Hilfsmittel zu erlauben oder zu verbieten.