UMGANG MIT KI-MODELLEN IN STUDIUM UND LEHRE
Handlungsempfehlung für Lehrende
Vor dem Hintergrund der seit 2023 gemachten Erfahrungen mit KI-Modellen in Studium und Lehre bestärkt die Universität ihre Empfehlung, diese weitestgehend in die Lehre zu integrieren und die Nutzung durch Lehrende und Studierende zu fördern.
Allgemeine Einschätzung
ChatGPT ist eine besonders populäre Version eines KI-basierten Chatbots. Der Dienst ist unter https://chat.openai.com/chat verfügbar. Technisch steht hinter ChatGPT ein Large Language Model (LLM), von denen inzwischen eine große Anzahl verfügbar ist. Für den Hochschulkontext ist besonders bedeutsam, dass diese Modelle im Frage-Antwort-Modus Texte in qualitativ hochwertiger Art und Weise generieren können. Dies gilt auch für die Generierung von Quelltexten für Programme. Die im Folgenden dargestellten Empfehlungen gelten daher explizit sowohl für klassische Texte als auch für Programmtexte.
Wir nutzen zunächst ChatGPT hier als Beispiel für die sich rasch entwickelnde Gruppe von (Text- und Bild-)KI-Modellen, die zunehmend Grundlage vieler unterschiedlicher Programme und Services sind. Man kann ChatGPT z. B. wie folgt fragen, sich selbst vorzustellen:
Was ist ChatGPT, allgemeinverständlich erklärt?
ChatGPT ist ein KI-gestütztes Textsystem, das von OpenAI entwickelt wurde. "KI" steht für Künstliche Intelligenz, also Computerprogramme, die menschliche Fähigkeiten, wie das Verstehen und Verarbeiten von Sprache, besitzen. ChatGPT steht für "Conversational Generative Pre-trained Transformer" und ist ein Modell, das darauf spezialisiert ist, menschenähnliche Unterhaltungen zu generieren.
Das Modell wurde mithilfe von maschinellem Lernen und große Mengen an Text aus dem Internet trainiert. Dabei hat es gelernt, Muster in der Sprache zu erkennen, um auf Benutzeranfragen passende Antworten zu generieren. ChatGPT kann eine Vielzahl von Themen und Aufgaben bewältigen, wie zum Beispiel Fragen beantworten, texte übersetzen, Vorschläge machen oder kreative Geschichten erzählen.
Die Fähigkeiten aktueller KI-Chatbots sind so mächtig, dass sie viele Fragen aus typischen Bachelor-Prüfungen auf dem Leistungsstand durchschnittlicher Studierender „beantworten” können. Die von KI-Chatbots generierten Texte sind denen von Menschen geschriebenen so ähnlich, dass der Einsatz kaum durch automatisierte Identifizierung z. B. mittels Plagiatssoftware erkannt werden kann. Auch für Leser*innen ist schon heute eine Unterscheidung schwer und wird in absehbarer Zeit vermutlich nahezu unmöglich sein. LLMs werden deshalb das Lernen und Lehren verändern. Die Verfügbarkeit von KI-Werkzeugen hat zudem Auswirkungen darauf, welche Kompetenzen im späteren Berufsleben benötigt werden..
LLMs bieten allerdings keine Garantie dafür, dass die vom System generierten Texte stimmen. Im Gegenteil, das System wurde auch auf Falschinformationen trainiert und verbreitet diese weiter. So wird auch völlig Falsches und frei Erfundenes überzeugend präsentiert wie dieses Beispiel zeigt: **
Warum heißt der "Blaue Turm" in Göttingen Blauer Turm
Der Blaue Turm in Göttingen ist so genannt, weil er eine blaue Fassade hat. Die Farbe der Fassade wurde im 18. Jahrhundert aufgetragen, als der Turm renoviert wurde. Der Turm ist ein bedeutendes historische Gebäude in Göttingen und gehört zu den bekanntesten Sehenswürdigkeiten der Stadt. Er befindet sich in der Nähe des Alten Rathauses und diente früher als Wehrturm der Stadtmauer. heute beherbergt er das Museum für Kunst und Kulturgeschichte.
Im akademischen Kontext zusätzlich relevant ist, dass LLMs nicht nur Fakten, sondern auch Quellen „erfinden” und in gleicher Form wie existierende Quellen präsentieren. Es können also aufgelistete Literaturstellen mit sämtlichen Quellenangaben wie Initialen der Autor*innen, Zeitschrift, Jahrgang, Seitenzahlen etc. frei erfunden sein. Es liegt daher in der besonderen Verantwortung der Nutzenden, wie die von LLMs generierten Texte verwendet werden.
Die Leistungsfähigkeit von KI-Sprachmodellen nimmt rasch zu und das umfangreiche Feedback zu diesen KI-Modellen wird diesen Prozess weiter unterstützen. Im Moment ist noch nicht klar, wie weit die Möglichkeiten dieser Systeme reichen werden. Eine Strategie zum Umgang mit KI-gestützten Systemen darf daher nicht auf bestehenden Lücken des gegenwärtigen Systems bauen, sondern muss dazu eine grundsätzliche Position beziehen. Die im Zuge des Umgangs mit Wikipedia zu beobachtende Entwicklung hat zudem gezeigt, dass eine Nutzung solcher Systeme weder verhindert noch verboten werden kann oder sollte. Im Gegenteil, die Universität Göttingen versteht die KI-Modelle als Werkzeuge, die benutzt werden und für deren intelligente Nutzung Studierende und Lehrende Kompetenzen erwerben müssen. Voraussetzung dafür ist ein transparenter Umgang: Alle Beteiligten müssen offenlegen, in welchem Umfang LLMs genutzt wurden.
Handlungsempfehlungen
Die nachfolgenden Handlungsempfehlungen können aufgrund der rasanten Weiterentwicklung nur vorläufiger Natur sein. Sprach-KI-Modelle werden über kurz oder lang in vielen gesellschaftlichen Bereichen von großem Einfluss sein, weshalb es für uns als Universität unabdingbar ist, uns mit Chancen und Risiken wiederholt auseinanderzusetzen.
Lehre
Ein intelligenter Einsatz von KI-Systemen bietet Chancen, aber auch einige Risiken für die universitäre Lehre. Wesentliches Ziel beim Umgang mit KI-Systemen sollte der Erwerb von Kompetenzen der Anwender*innen sein. Hierzu gehören z. B..
- ein Verständnis davon, wie KI-Systeme im Allgemeinen funktionieren, welche gesellschaftlichen Bias in den Trainingsdaten enthalten sind/sein können und durch KI reproduziert werden und wie dem in Forschung und Lehre begegnet werden kann,
- zu wissen, welche KI-Modelle in welchen Zusammenhängen verwendet werden können,
- die Kompetenz zur Beurteilung der relevanten Aspekte des Datenschutzes, der Persönlichkeitsrechte und des Urheberrechts bei der KI-Nutzung und ein Verständnis für den Unterschied der Nutzung von selbst gehosteten Modellen der GWDG (z. B. chat-ai.academiccloud.de) und externen Modellen (z. B. ChatGPT von OpenAI),
- das Erkennen der Zusammenhänge zwischen der Formulierung einer Frage und der Antwort von KI-Modellen und daraus abgeleitet die Kompetenz, eine Frage im Hinblick auf die gewünschte Detailtiefe einer Antwort zu optimieren,
- die Kompetenz zum Erkennen von Grenzen, Relevanz und Implikationen (Werte) der Antworten, die KI-Systeme auf Fragestellungen geben.
Der Aufbau einer Kompetenz für den kritischen und verantwortungsvollen Umgang mit KI-Systemen muss ein integraler Teil der Lehre an unserer Universität werden. Kompetenzorientierung ist seit langem ein für die Hochschullehre wichtiger Aspekt, der beim Umgang mit KI-Systemen besondere Beachtung verlangt.
Diesem Ziel dienen die folgenden Empfehlungen für den Umgang mit KI-Modellen in der Lehre:
- Konsequente Transparenzkultur: Die Nutzung von ChatGPT sollte von Lehrenden und Studierenden offen kommuniziert werden.
- Integration von KI-Modellen in die Lehre: KI-Modelle können je nach Fach auf sehr unterschiedliche Weise in den Lehr- und Lernprozess eingebaut werden. Unterschiedliche Ansätze hierfür können durch Good-Practice-Beispiele über Fachbereichsgrenzen hinweg ausgetauscht werden.
- In Fächern, in denen die Produktion eigener Texte, Bilder oder Musik wesentliches Ziel ist, sollten die KI-Systeme als zukunftsorientiertes Werkzeug in den Entstehungsprozess aktiv integriert und dialogisch begleitet werden. Eine Abkehr vom schriftlichen Arbeiten ist nicht sinnvoll.
- Wenn die Erstellung eigener Texte etc. mehr Medium als wesentliches Lernziel ist, kann die Unterstützung durch KI bei der Textgenerierung Raum schaffen, damit Studierende sich verstärkt auf andere Lernziele wie die Bewertungskompetenz oder Reflexion fokussieren können.
- Die vorhandenen KI-Systeme haben zudem die Selbstverantwortung der Lernenden für ihren eigenen Erfolg merklich erhöht. Dies kann zum Beispiel dadurch unterstützt werden, dass Lehrende Möglichkeiten zur regelmäßigen freiwilligen Lernstandskontrolle (ohne KI) schaffen.
- Auch wenn die Verwendung von KI generell gefördert wird, kann es aus didaktischen Gründen manchmal sinnvoll sein, differenziertere Ansätze zu verfolgen. Die Studierenden brauchen auf jeden Fall Klarheit, welche Regeln für die Verwendung von KI in den Veranstaltungen gelten. Dies muss in allen Veranstaltungen zu Beginn des Semesters mit den Teilnehmenden einer Veranstaltung besprochen werden.
- Die GWDG bietet für alle Mitglieder der Universität (Studierende und Lehrende) ein Portfolio von KI-Dienstleistungen, z. B. einen eigenen Chatbot (ChatAI). Dieser Chatbot bietet sowohl Zugang zu KI-Modellen, die von der GWDG selbst gehostet werden, als auch zu externen Modellen z. B. von OpenAI (ChatGPT). Diese Angebote sollen den Studierenden aller Fachrichtungen zu Beginn des Semesters vorgestellt und erläutert werden.
Prüfungen
Bei Prüfungen, die ohne Aufsicht abgelegt werden (z. B. Hausarbeiten, Essays), haben Studierende Zugriff auf KI‑Textmodelle. Die Nutzung zu verbieten, ist nicht nur wegen der fehlenden Kontrollmöglichkeit nicht ratsam. Es wäre auch nicht zielführend, da eine sinnvolle Nutzung solcher Werkzeuge sowohl in der vorangegangenen schulischen Ausbildung Bestandteil ist als auch für das spätere Berufsleben wichtig sein wird und der fachgerechte Umgang im Sinne der guten wissenschaftlichen Praxis (gwP) deshalb auch Teil der Prüfung sein sollte. Gleichzeitig muss sichergestellt werden, dass es sich um eine eigenständig erbrachte Prüfungsleistung handelt. Grundsätzlich sollte für jede Veranstaltung bzw. jedes Modul eine kritische Analyse der Prüfungsformen durchgeführt werden.
Vor diesem Hintergrund werden folgende Empfehlungen gegeben:
- In Prüfungen unter Aufsicht (z. B. Klausuren und mündlichen Prüfungen) ist der Einsatz von KI‑Werkzeugen nicht zulässig, außer er wird explizit erlaubt. Eine Nutzung in Toilettenpausen o. Ä. wäre ein Täuschungsversuch. In einigen Fällen kann es sinnvoll sein, statt Texten, die zu Hause verfasst werden, z. B. den E‑Prüfungsraum für die Prüfungen zu nutzen, bei denen innerhalb einer bestimmten Zeitvorgabe ein Text geliefert werden soll.
-
In Prüfungen ohne Aufsicht sollte Folgendes gelten:
- KI‑Modelle sollten in Prüfungen ohne Aufsicht grundsätzlich ein zulässiges Hilfsmittel sein, auch weil nicht kontrolliert werden kann, ob eine Nichtnutzung eingehalten wurde.
- Die Zulässigkeit von KI‑Modellen als Hilfsmittel endet da, wo Teile der abgegebenen Leistung von einem KI‑Modell stammen und nicht als solche transparent gemacht werden.
- Der Einsatz von KI‑Werkzeugen muss transparent erfolgen. Im Regelfall sollen Studierende, ergänzend zur Prüfungsarbeit, anhand von Leitfragen (siehe Anhang 2) erklären, in welcher Art und Weise KI‑Werkzeuge für die Erstellung der Prüfungsleistung genutzt wurden.
- Als alternatives oder ergänzendes Verfahren für die Deklaration der KI‑Nutzung wird die Einführung eines Methodenteils empfohlen, wie es in einigen Fächern Praxis ist. Hier werden alle relevanten Hilfsmittel, die bei der Erstellung der Arbeit genutzt wurden, erklärt.
- Wenn KI‑Kompetenzen nicht direkte Prüfungsinhalte sind, soll eine transparente Nutzung von KI‑Modellen weder positive noch negative Auswirkungen auf die Bewertung der Prüfungsleistung haben.
- Prüfende sollten Prüfungsformate und Fragestellungen so anpassen, dass die Eigenständigkeit einer Prüfungsleistung auch bei KI‑Nutzung nachvollzogen werden kann. Bei geeigneten Prüfungsformen können die Prüfenden entscheiden, auf eine Deklarationspflicht zu verzichten.
- Zu Beginn des Semesters sollen in den Veranstaltungen die jeweils konkreten Anforderungen und Rahmenbedingungen der KI‑Nutzung mit den Studierenden diskutiert werden. Hierbei soll auch die Eigenverantwortung der Studierenden im Sinne der guten wissenschaftlichen Praxis in Bezug auf die Nutzung von KI‑Modellen reflektiert werden.
- Die Art und Weise der eigenständigen Leistung ändert sich bei Nutzung von KI‑Modellen. Beispielsweise können auf Basis der in der Veranstaltung erworbenen Kompetenzen Textpassagen im Frage‑Antwort‑Dialog mit einem LLM entwickelt, bewertet und mit Quellen verknüpft werden. Es spricht nicht per se gegen eine eigenständige Leistung, wenn auf diese Weise entwickelte Textbausteine nach erfolgter Verknüpfung mit den zuvor identifizierten Quellen in das als Prüfungsleistung abgelieferte Ergebnis übernommen werden.
Alle Studienkommissionen/Studiendekan*innen sollten sich gemeinsam mit den Lehrenden und Studierenden mit den hier skizzierten Empfehlungen zu KI‑Modellen und den Auswirkungen auf Lehre und Prüfungen beschäftigen und vor dem konkreten Hintergrund des jeweiligen Faches ggf. präzisieren. Ein besonderes Augenmerk soll dabei auch auf den Prüfungsformaten und auf der Gestaltung von Prüfungen liegen.
Curriculare Weiterentwicklungen
Neben der Integration von KI‑Systemen in die einzelnen Lehrveranstaltungen ist es sinnvoll, diese Entwicklungen auch curricular aufzugreifen. Dabei wird eine Verbesserung folgender Kompetenzen als wichtig angesehen:
- Medien‑ und IT‑Kompetenzen
- Sprach‑ und Textkompetenzen
- Beurteilungs‑, Bewertungs‑ und Reflexionskompetenzen
- Methodenkompetenz (wissenschaftliches Arbeiten) und Praktiken guter wissenschaftlicher Praxis
Weiteres Vorgehen
Als Fortschreibung der hier vorliegenden Empfehlungen werden auf dieser Basis konkretisierte Empfehlungen für Lehrende zum „Einsatz von KI‑Tools in der Lehre“ und „KI‑sensible Prüfungsformate“ sowie Empfehlungen für Studierende angestrebt. Auch diese können aber nur einen Zwischenstand beschreiben und werden ihren vorläufigen Charakter behalten.
Insgesamt zielen die Empfehlungen darauf ab, Wege zu finden, um KI‑Modelle in akademischen Kontexten zu integrieren. Gleichzeitig soll sichergestellt werden, dass KI‑Systeme verantwortungsbewusst und mit Blick auf die ihnen innewohnenden Potenziale eingesetzt werden.
Anhang 1: Checkliste für Lehrende
Diese Vorlage dient als Leitfaden für die Transparenz von KI-Nutzung bei selbstständig bearbeiteten schriftlichen Prüfungsarbeiten und insbesondere auch Abschlussarbeiten. Anhand der Antworten zu den folgenden Leitfragen soll deutlich gemacht werden, in welcher Art und Weise KI-Werkzeuge bei der Erstellung der Arbeit eingesetzt wurden.
In einer erweiterten Anlage werden zu jeder Frage einige Beispiele genannt. Diese Beispiele dienen ausschließlich als Orientierungshilfe bei der Formulierung der Antworten und decken weder alle Möglichkeiten ab noch stellen sie eine Empfehlung für bestimmte Nutzungen von KI dar. Die genannten Fragen sollen dabei nicht schematisch abgearbeitet werden, sondern bieten einen Rahmen für eine Reflexion der Studierenden über ihre KI-Nutzung bei der Erstellung der Prüfungsarbeit. Nur Fragen, die auf die jeweilige Arbeit anwendbar sind, sollen beantwortet werden.
Zu beachten ist vornehmlich auch, dass es in verschiedenen Fächern bzw. Studiengängen spezifische Vorgaben für die KI-Nutzung und deren Deklaration geben kann. Während in einigen Fächern die Deklaration z. B. ausschließlich als Antworten auf diese Fragen in einem Zusatzdokument zur Arbeit erfolgen kann, ist es in anderen Fächern üblich, im Methodenteil der Arbeit spezifische Angaben zu machen. Über die genauen Anforderungen informieren die Lehrenden in den Veranstaltungen.
- Wie wurde KI bei der Ideenfindung verwendet?
- Wie wurde KI bei der Arbeit mit Literatur und Quellen verwendet?
- Wie wurde KI im Prozess des wissenschaftlichen Schreibens verwendet?
- Wie wurde KI in der Methodik und insbesondere bei der Erhebung und Auswertung von Daten verwendet?
- Wie wurde KI bei sonstigen Tätigkeiten verwendet?
Anhang 2: Leitfragen zur Transparenz der KI-Nutzung bei Prüfungen
Die als externe Anlage bereitgestellte Checkliste dient der Begleitung und Anpassung von Lehrveranstaltungen im Kontext von Künstlicher Intelligenz. Dabei befindet sich auch die Prüfungsgestaltung und -durchführung im Fokus. Die Checkliste wird als Arbeitsdokument bereitgestellt.
Fußnote
** Das oben verwandte Abfragebeispiel zum Blauen Turm ist aus dem Jahr 2023 mit einer alten Version von ChatGPT zeigt aber sehr anschaulich, dass falsche oder keine Trainingsdaten zu falschen Aussagen führen können. Obwohl die LLMs beständig dazulernen, bleibt dieses Prinzip aber gleich.