Wir dokumentieren im Folgenden einen Grundlagentext zu ChatGPT von den Autor:innen Mohr/Reinmann/Blüthmann/Lübcke/Kreinsen, der im Januar 2023 unter CC-Lizenz (CC BY-SA 4.0) auf den Seiten des HUL publiziert wurde.

Abstract

Der folgende Grundlagentext beschreibt das Sprachmodell ChatGPT im Kontext der Hochschullehre. ChatGPT kann als digitales Tool für verschiedene Anwendungen, wie z.B. Textanalyse oder die Automatisierung von Schreibaufgaben, eingesetzt werden. Damit kann ChatGPT zu einem Werkzeug mit weitreichenden Einflüssen auf die universitäre Lehre werden. Zunächst erfolgt eine kurze Vorstellung von ChatGPT, indem dessen Funktionsweise und Entstehung kurz umrissen werden. Daran anknüpfend werden sowohl Chancen als auch Risiken dargestellt, welche die Software im Kontext der Hochschullehre bietet. Abschließend werden Möglichkeiten aufgezeigt, wie ChatGPT in der Lehre eingesetzt werden kann.

Einordnung von ChatGPT

Allgemeine Informationen

ChatGPT ist ein textbasierter Chatbot, der mit Menschen interagieren kann. Die Abkürzung GPT steht für „Generative Pre-trained Transformer“. Es handelt sich bei ChatGPT um ein künstliches neuronales Netz, das darauf trainiert ist, möglichst natürliche Sprache zu produzieren. Dabei ist es ein generisches und sehr allgemeines Werkzeug, das auf Breite und weniger auf Tiefe setzt und auf einem sog. „autoregressiven“ Sprachmodell beruht: Dieses Modell setzt Deep Learning (eine Methode des maschinellen Lernens) ein, um menschenähnliche Texte zu erzeugen. Die ausgegebenen Antworten basieren auf einer randomisierten Auswahl von Wörtern und Silben, die wahrscheinlichkeitsbasiert aneinandergekettet werden. ChatGPT ist also keine Logik-Maschine1Döbeli Honegger, B. (2023). ChatGPT & Schule, URL https://mia.phsz.ch/MIA/ChatGPT [abgerufen am 15.01.2023]. Im Grunde genommen handelt es sich bei ChatGPT um einen „stochastischen Papagei“2Bender, E.M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, NY, USA, 610–623. URL https://doi.org/10.1145/3442188.3445922.

Die Entwicklung von ChatGPT erfolgt anhand großer Mengen von menschlich generierten Texten, Beispieldialogen und durch Feedback von menschlichen „Artificial Intelligence Trainer:innen“ („Reinforcement Learning from Human Feedback“) sowie durch „verstärkendes Lernen”, eine Methode des maschinellen Lernens, bei der das System selbstständig eine Strategie erlernt, um erhaltene Belohnungen zu maximieren („Proximal Policy Optimization“)3OpenAI (2022). ChatGPT: Optimizing Language Models for Dialogue, URL https://openai.com/blog/chatgpt/ [abgerufen am 12.01.2023].

Die Interaktion findet im Dialog-Format statt, wobei sich die User:innen auch auf vorherige Eingaben („Prompts“) und Ergebnisse beziehen können. Der Dialog kann wie bei einem normalen Gespräch zwischen zwei menschlichen Gesprächspartner:innen fortgesetzt werden. Es können bei der Eingabe z.B. auch Vorgaben gemacht werden wie
▪ „Schreibe aus der Perspektive einer Bachelor-Studentin.“
▪ „Bitte baue APA-Zitate und eine Literaturliste in den Text ein.“
▪ „Bitte optimiere diesen Text: [Text einfügen].“
▪ „… in nicht mehr als 3 Absätzen.“
▪ „Formuliere bitte in einfacher Sprache.“
▪ „Nutze dabei die folgenden Begriffe: …“
▪ „Verfasse dies bitte als …“

Beispieldialog aus ChatGPT:

Beispieldialog aus ChatGPT

Hintergrund

ChatGPT ist aktuell als „Free Research Preview“ veröffentlicht und somit kein fertiges „Endprodukt“. Es ist im Browser derzeit kostenlos nutzbar (Info-Webseite, Testumgebung).

Bei der Nutzung werden viele Daten der User:innen gesammelt, die in die Weiterentwicklung einfließen4 Privacy Policy OpenAI, URL https://openai.com/privacy/ [abgerufen am 12.01.2023], Terms of use, URL https://openai.com/terms/ [abgerufen am 12.01.2023]. Einige dieser Daten können auch durch eine Löschung des Accounts nicht wieder gelöscht werden. Vorrangig wurden englischsprachige Texte als Trainingsdaten verwendet; daher wird derzeit (noch) häufig darauf verwiesen, dass ChatGPT auf Englisch besser funktioniere5Wikipedia-Artikel zu ChatGPT, URL https://de.wikipedia.org/wiki/ChatGPT [abgerufen am 17.01.2023]. Zudem wurde für das Training von ChatGPT bislang ein Korpus an Textdaten bis 2021 genutzt. Folglich ist die Datengrundlage, auf die ChatGPT für Antworten zurückgreift, begrenzt und nicht aktuell; es erfolgt keine Recherche im Internet. Da die Ausgabe der Antworten auf Basis von Wahrscheinlichkeitsberechnungen und nicht auf Basis von echtem Wissen erfolgt, können durchaus auch falsche Antworten ausgegeben werden.

Es ist nicht klar, mit welchen Texten das Training stattfindet, ob ChatGPT auf wissenschaftliche Artikel zurückgreift und falls ja, auf welches Datenkorpus. Bislang ist juristisch noch ungeklärt, ob geistiges Eigentum zum Training von KI überhaupt verwendet werden darf. Gerade die Frage des Datenkorpus ist im wissenschaftlichen Bereich jedoch wichtig, um einschätzen zu können, ob aktuelle und relevante Artikel sowie Fachbücher miteinfließen.

OpenAI arbeitet aktuell an WebGPT. Ziel ist es, die faktische Genauigkeit des Sprachmodells durch Websuchen weiter zu fördern6Hilton, J., Balaji, S., Nakano, R., & Schulman, R. (2021). WebGPT: Improving the Factual Accuracy of Language Models through Web Browsing, URL https://openai.com/blog/webgpt/ [abgerufen am 12.01.2023]. Auf diese Weise können zusätzlich zu den Trainingsdaten auch aktuell im Internet frei verfügbare Informationen bei der Generierung von Antworten genutzt werden7Auch das dürfte zunächst vorläufig sein; denkbar ist grundsätzlich, dass auch nicht frei verfügbare Informationen integrierbar werden; vgl. White, B. (2023). The Fundamental Right to Education and Science: Constitutional Law vs Copyright Law, URL https://libereurope.eu/article/the-fundamental-right-to-education-and-science-constitutionallaw-v-copyright-law/ [abgerufen am 17.01.2023].

ChatGPT gehört zum Non-Profit-Mutterunternehmen OpenAI Inc., das eine gewinnorientierte Tochtergesellschaft OpenAI LP hat. Die Gemeinnützigkeit ist umstritten, da OpenAI immer wieder auf neue Finanzierungsrunden angewiesen ist8 Vgl. bspw. den Artikel in „DIE ZEIT“: Buchter, H. (2023). OpenAI: Der Geldgenerator. DIE ZEIT, URL https://www.zeit.de/digital/2023-01/openai-kuenstliche-intelligenz-unternehmen-chatgpt[abgerufen am 15.01.2023]. Zentrale Geldgeber der Organisation sind Elon Musk und Microsoft, weitere Unterstützer sind Reid Hoffman (Mitbegründer von LinkedIn), Peter Thiel (Mitbegründer von PayPal), Greg Brockman (ehemaliger Chefentwickler von Stripe), Jessica Livingston (Gründungspartnerin von Y Combinator), Amazon Web Services und InfoSys. Vorsitzender ist Sam Altman (Präsident von Y Combinator)9 Wikipedia-Artikel zu OpenAI, URL https://de.wikipedia.org/wiki/OpenAI [abgerufen am 12.01.2023]. Die Exklusivrechte am Quellcode hat sich Microsoft gesichert10Krieg, T. (2022). ChatGPT: Microsoft sichert sich Exklusivrechte, URL https://www.lynxbroker.de/boerse/boersekurse/aktien/microsoft-aktie/microsoftanalyse/?a=3355991428&utm_source=finanznachrichten.de&utm_medium=referral&utm_campaign=Finanznachr ichten_RSS_Feedchatgpt-microsoft-sichert-sich-exklusivrechte [abgerufen am 12.01.2023]. Laut Presseberichten plant Microsoft einen Einsatz von ChatGPT im Rahmen der Suchmaschine Bing und der Office Suite Microsoft 36511Donath, A. (2023). ChatGPT soll offenbar Teil von Microsoft Office werden, URL https://www.golem.de/news/kuenstliche-intelligenz-chat-gpt-soll-offenbar-teil-von-microsoft-office-werden2301-171045.html [abgerufen am 12.01.2023]; McLaughlin, K., & Holmes, A. (2023). Ghost Writer: Microsoft Looks to Add OpenAI’s Chatbot Technology to Word, Email, URL https://www.theinformation.com/articles/ghost-writermicrosoft-looks-to-add-openais-chatbot-technology-to-word-email [abgerufen am 12.01.2023].

Chancen und Risiken

Ebenso wie andere neue digitale Werkzeuge bringt ChatGPT sowohl Chancen als auch Risiken mit sich. Indem ChatGPT Künstliche Intelligenz (KI) niedrigschwellig zugänglich macht, sind allerdings im Vergleich zur bisherigen Entwicklung des Digitalen qualitative Sprünge zu erwarten, deren Folgen derzeit nicht sicher eingeschätzt werden können. Trotzdem wird im Folgenden versucht, die aktuell diskutierten Chancen und Risiken zusammenfassend aufzuführen. Dies ist relativ zu verstehen: Was jeweils eine Chance und was eher ein Risiko ist, lässt sich absolut kaum darstellen, da es am Ende auf die jeweils bestehende Wertebasis, Zielsetzung und den konkreten Kontext ankommt, welche Bewertung sinnvoll und verantwortbar ist. Dies ist entsprechend zu berücksichtigen.

Chancen

Entwicklung von Digital Literacy / Data Literacy / AI Literacy: Über einen reflektierten Umgang mit ChatGPT kann man generell üben und erfahren, wie KI funktioniert, welche Folgen deren Einsatz hat und wie sie speziell die Arbeit mit und an Texten verändert. Konkret lässt sich erlernen, den Zweck der Erfassung und Verarbeitung von Daten sowie deren Herkunft, Zusammensetzung und Qualität (auch im Hinblick auf mögliche Bias, s.u.) kritisch zu hinterfragen.

Reflexion wissenschaftlicher Praktiken: Im Abgleich damit, wie die KI arbeitet, kann man die eigene wissenschaftliche Praxis besser demonstrieren – wo sie sich von der KI unterscheidet und wo es Ähnlichkeiten gibt (bspw. Literaturrecherche und Wissensbasis, die wissenschaftliche Funktion von Texten und den Prozess der Textproduktion).

Unterstützung bei Programmieraufgaben: ChatGPT kann einfachen Programmiercode auf Anfrage hin generieren und Fehler in einem bestehenden Code finden.

Arbeitserleichterung bei standardisierten Schreibaufgaben: ChatGPT zeigt sich in der Lage, brauchbare Vorschläge für Inhalte von Standard-Korrespondenz zu machen sowie erste Entwürfe im Rahmen standardisierter Textsorten zu generieren, mit denen man weiterarbeiten oder die man optimieren kann.

Überwindung von Anfangsbarrieren beim Schreiben: ChatGPT kann zum „Sparrings-Partner“ werden, indem er den Einstieg in ein Thema oder eine Aufgabe mit ersten Textvorschlägen erleichtert.

Förderung von Kreativität: ChatGPT kann die Funktion einer Kreativitätstechnik übernehmen, indem man auch unerwartete oder falsche Antworten konstruktiv nutzt, um z.B. ausgetretene Denkpfade zu verlassen oder eigene Denkprozesse anzuregen.

Generierung von Textbeispielen, -zusammenfassungen und -formaten: ChatGPT kann schnell (a) Vorschläge für Textbeispiele erzeugen, wenn man solche benötigt, (b) längere Texte zusammenfassen (was im Anschluss zu überprüfen ist) und (c) von bestehenden Texten oder gemachten Vorgaben Vorschläge für spezielle Formate (z.B. Pressemitteilungen, Blogbeiträge) erstellen.

Texte optimieren und an verschiedene Bedarfe anpassen: Bei bestehenden Texten kann ChatGPT anhand von vorgegebenen Kriterien Vorschläge machen, wie der Text optimiert werden kann. Welche Qualität die Vorschläge haben, sollte allerdings vorab geprüft werden. Zudem können unterschiedliche Versionen eines Textes (z.B. für verschiedene Ziele oder Zielgruppen) generiert werden.

Risiken

Risiken mit Blick auf Datenschutz und Nutzung

Sammlung von Nutzungsdaten: Für die Anmeldung bei ChatGPT werden E-Mail-Adresse und Mobilnummer (alternativ: Google- oder Microsoft-Konto) abgefragt. Außerdem nutzt ChatGPT Daten, die von User:innen eingegeben werden, um die Antworten zu formulieren. Es ist dabei jedoch unklar, wie genau die Rückmeldungen der User:innen in die Datengrundlage von ChatGPT einfließen.

Risiken durch die Art der Programmierung

Fehlerhafte und verzerrte Antworten: Antworten von ChatGPT (insbesondere auf ihm unbekannte Fragen) können falsch sein; dies gilt ggf. auch für Programmiercode, Zitate, Quellenangaben, Literaturlisten. Die ausgegebenen Antworten sind kein Faktenwissen, entsprechend nicht zwingend fehlerfrei sowie möglicherweise einseitig verzerrt.

Bias-Gefahr und Training durch Eingaben: Sowohl die Auswahl des Datenkorpus als auch die für die Datengrundlage genutzte Sprache (Englisch) können zu einem Bias bei den Antworten führen. Und auch wenn das Sprachmodell von ChatGPT darauf trainiert ist, unangemessene Antworten zu unterbinden, können diese nicht zur Gänze ausgeschlossen werden. Negative Beispiele für Chatbots, die bereits nach sehr kurzer Zeit wieder deaktiviert werden mussten, da sie von den Nutzer:innen zur Erzeugung rassistischer und frauenfeindlicher Aussagen trainiert werden konnten und Verschwörungstheorien verbreitet haben, waren Tay von Microsoft (2016)12Metz, R. (2016). Why Microsoft Accidentally Unleashed a Neo-Nazi Sexbot, URL https://www.technologyreview.com/2016/03/24/161424/why-microsoft-accidentally-unleashed-a-neo-nazi-sexbot/ [abgerufen am 19.01.2023] und (aktuell) BlenderBot3 von Meta (2022)13Ajao, E. (2022). Lessons enterprises can learn from Meta BlenderBot 3, URL https://www.techtarget.com/searchenterpriseai/news/252523745/Lessons-enterprises-can-learn-from-Meta-BlenderBot-3 [abgerufen am 19.01.2023].

Erschwerte Einschätzung der Ergebnisse: Es ist schwierig, die ausgegebenen Informationen und Quellen zu bewerten, weil im Vergleich etwa zu klassischen Suchmaschinen nur ein Ergebnis generiert wird und die Quelle des Ergebnisses intransparent bleibt. Darüber hinaus wird es immer herausfordernder, von ChatGPT generierte Texte von solchen zu unterscheiden, die Menschen geschrieben haben; damit sind auch Fehlinformationen, ausgedachte Zitate etc. schwerer zu erkennen.

Unbezahlte Mitarbeit und künftiges Preismodell: Eine Nutzung von ChatGPT ist ein unbezahlter Beitrag zur Weiterentwicklung eines Werkzeuges, für dessen kommerzielle Nutzung bereits Pläne durch Microsoft entwickelt wurden. Ob es parallel dazu weiter eine freie Nutzung geben wird, ist noch unklar.

Umgang im Kontext Wissenschaft

Fehlende Berücksichtigung aktueller und wissenschaftlicher Quellen: Zumindest derzeit ist die Datengrundlage von ChatGPT nicht aktuell, sodass wichtige Informationen fehlen können. Erkenntnisse aus wissenschaftlichen Studien, die nicht frei zugänglich sind, können ebenfalls nicht berücksichtigt werden.

Fehlinformationen: ChatGPT generiert nicht nur Texte, sondern bietet auch Erklärungen für wissenschaftliche Zusammenhänge an. Neben falschen, zufällig generierten Zitaten oder Quellen sind dabei auch Fehlinformationen möglich (Beispiele gibt es bereits14Vgl. Schlingensiepen, J. (2023). Wer hat Angst vor ChatGPT? URL https://www.jmwiarda.de/2023/01/10/wer-hat-angst-vor-chatgpt/ [abgerufen am 12.01.2023]). Das erhöht die Gefahr von Fehlkonzepten bei Studierenden, insbesondere wenn es um Differenzierungen (versus schnell auffindbare allgemeine, Informationen) geht15Wenzlaff, K. & Spaeth, S. (2022). Smarter than humans? Validating how OpenAI’s ChatGPT model explains crowdfunding, alternative finance and community finance, (WiSo-HH Working Paper Series Nr. 75). Hamburg. Universität Hamburg, Fakultät für Wirtschafts- und Sozialwissenschaften, WiSo-Forschungslabor, Hamburg..

Ungeklärte Urheberschaft: Es ist aktuell unklar, wie in Publikationen von ChatGPT erstellte Texte „zitiert“ werden und welche Kennzeichnungen erfolgen sollten. Dies gilt insbesondere, wenn ChatGPT z.B. „nur“ zum Finden einer besseren Formulierung eines vorher selbst geschriebenen Absatzes genutzt wird. Unklarheit herrscht, inwieweit geistiges Eigentum verletzt werden könnte, wenn ChatGPT vorhandene Dokumente nutzt, die urheberrechtlich geschützt sind, auch wenn Inhalte nicht wörtlich übernommen werden.

Unreflektierte und missbräuchliche Nutzung: Es besteht die Gefahr, dass Studierende (ggf. auch Wissenschaftler:innen) ChatGPT unreflektiert nutzen, Aufgaben zur Texterstellung und -rezeption an die KI delegieren und damit wichtige akademische Kompetenzen nicht mehr selbst entwickeln. Zudem könnte ChatGPT eingesetzt werden, um bei Prüfungsleistungen wie Hausarbeiten oder Take-Home-Exams zu täuschen. Aktuell ist dies allerdings nur für kleine Textformate mit eher Essaycharakter möglich, da die Zitationen und Quellenangaben (noch) häufig falsch sind. Diese sind jedoch so gut, dass sie als studentische Arbeit positiv bewertet werden würden16Heikkilä, M. (2022). Wie man KI-generierte Texte erkennen kann, URL https://www.heise.de/hintergrund/Wieman-KI-generierte-Texte-erkennen-kann-7434812.html [abgerufen am 17.01.2023].

Einsatzmöglichkeiten im Kontext Lehre

Es gibt bereits Bildungs- und Forschungskontexte, in denen man ChatGPT verbietet. Textgeneratoren basierend auf KI-Sprachmodellen wie ChatGPT werden jedoch nicht mehr verschwinden, weshalb es angebracht erscheint, deren Funktionsweise zu kennen und zu lernen, damit verantwortungsvoll umzugehen (Stichwort Digital/Data/AI Literacy). Konkrete Empfehlungen für Einsatzmöglichkeiten von ChatGPT im Kontext Lehre können zum jetzigen Zeitpunkt nur vorläufiger Natur sein und sind eher als Impulse für reflektiertes Ausprobieren und als Einladung zum Diskurs über die Gestaltung von Lehre in Zeiten von leistungsfähigen KI-Sprachmodellen zu verstehen. Bei allen ersten Ideen gilt es, darauf zu achten, niemanden zum Einsatz von ChatGPT zu verpflichten und keine sensiblen oder vertraulichen Informationen zu verarbeiten.

ChatGPT als Arbeitshilfe für Lehrende

Mit der Formulierung „Arbeitshilfe“ soll zum Ausdruck gebracht werden, dass aufgrund der oben genannten Risiken eine unhinterfragte und kritisch nicht geprüfte Nutzung von ChatGPT-Ergebnissen und damit eine vollständige Automatisierung der unten genannten beispielhaften Prozesse selbstverständlich nicht zu empfehlen ist. Das Experimentieren mit ChatGPT als Arbeitshilfe hat allerdings das Potenzial, für die Grenzen und Möglichkeiten dieses Tools zu sensibilisieren.

Sich Anregungen für die Gestaltung der eigenen Lehre geben lassen, z.B. Vorschläge für die Erstellung von Quiz-Fragen; Ideen für die Erstellung von Argumenten für eine Pro-Contra-Diskussion; Impulse für Rollenspielszenarien auf der Basis vorgegebener Texte.

Individualisiertes Material erstellen, z.B. Vorschläge für Aufgabenstellungen für Studierende, die auf deren Leistungsniveau und Interessen abgestimmt sind (in diesem Fall sollte man prüfen, wie ChatGPT die Aufgaben bearbeiten würde).

Bestehende Inhalte für neue Material-Formate nutzen, z.B. Skripte für Podcasts oder Erklärvideos für Studierende; Fälle oder Beispiele zur Nutzung in Vorlesungen.

Instruktionen, Übersichten und Ähnliches optimieren, z.B. Formulierung von Lehr-Lernzielen; Anleitungen für die Bearbeitung von Aufgaben.

Standardisierte Textsorten erstellen, z.B. Veranstaltungsbeschreibungen zur Orientierung für Studierende; Nachrichten an Studierende etwa zur Erinnerung an Abgabetermine; Anleitungen zum Verfassen schriftlicher Arbeiten.

Beispiel-Chat für die Erstellung eines ersten Entwurfs einer Anleitung zu Hausarbeiten:

ChatGPT Beispiel: Wie erstelle ich eine Hausarbeit?

ChatGPT als Element in der Gestaltung von Lehrveranstaltungen

ChatGPT als Element in der Gestaltung von Lehrveranstaltungen ist so gemeint, dass ausschließlich die Lehrperson den Chatbot als Bestandteil ihres Lehrkonzepts einsetzt. Diese Nutzungsform beschränkt die Datenschutzproblematik auf die Daten der Lehrperson.

Wir empfehlen, als Lehrperson die Nutzung von ChatGPT transparent zu machen und damit gleichzeitig die Chance zu eröffnen, das KI-System und seine Potenziale und Risiken zum Thema zu machen und auf diesem Wege (unter anderem) die Entwicklung von Digital/Data/AI Literacy bei den Studierenden zu fördern.

Die unten stehenden kurzen Impulse werden von uns sukzessive zu sogenannten Fallvignetten ausgearbeitet, in denen ein entsprechendes didaktisches Szenario ausführlicher dargestellt und reflektiert wird.

Texte kritisch hinterfragen: Studierende bekommen verschiedene, von Menschen und von ChatGPT geschriebene Texte und erhalten beispielsweise die Aufgabe, „Fake News“ zu identifizieren.

Diskussionen führen: Die Lehrperson fragt ChatGPT, was gegen (oder für) ein von Studierenden genanntes Argument spricht. Die Studierenden sollen dann in der Diskussion auf das Ergebnis von ChatGPT eingehen.

Zusammenfassungen vergleichen: Studierende schreiben eine eigene Zusammenfassung zu einem Text. In Kleingruppen vergleichen sie ihre Zusammenfassungen mit einer von ChatGPT erstellten Zusammenfassung und reflektieren die Unterschiede.

Textformate und Schreibstile vergleichen: Die Lehrperson erstellt mit ChatGPT mehrere Versionen eines Textes: wissenschaftlicher Artikel, Blogpost, Dialog, Text in leicht verständlicher Sprache etc. Die Studierenden vergleichen die verschiedenen Textformate und Schreibstile.

Kriterien entwickeln: Die Lehrperson erstellt mit ChatGPT ein Beispiel für einen wissenschaftlichen Text oder Programmiercode. Studierende erarbeiten zunächst, was am Beispiel gut gelöst ist und was wie optimiert werden kann; daraus leiten sie Kriterien für einen gelungenen wissenschaftlichen Text bzw. einen guten Programmiercode ab.

ChatGPT im Kontext von Prüfungen

Betrugsgefahr. ChatGPT wird derzeit intensiv im Hinblick auf die Gefahr diskutiert, in Prüfungen zu täuschen. Gängige Plagiatsprüfungssoftware erkennt Texte, die ChatGPT erstellt, noch nicht als Plagiat, da sie „frei“ formuliert werden und mit hoher Wahrscheinlichkeit nicht zu 100 % identisch mit bestehenden Texten sind. Vielerorts wird daher diskutiert, auf klassische Hausarbeiten, aber auch Take-Home-Exams, die im Zuge der Pandemie vielfach eingesetzt sind, gänzlich zu verzichten oder sie nur etwa in Kombination mit einer mündlichen Verteidigung umzusetzen17Reinmann, G. (2023). ChatGTP – Wettrüsten oder Wertewandel?, URL https://gabi-reinmann.de/?p=7534 [abgerufen am 16.01.2023].

Erkennungsmöglichkeiten. Auch wenn Plagiatserkennungssoftware mit ChatGPT geschriebene Hausarbeiten nicht erkennt, gibt es einige Merkmale, die ChatGPT-Texte haben: Zitate sind oft falsch; APA-Angaben sind oft fehlerhaft; Literaturlisten enthalten Literatur, die nicht existiert; die Texte wirken bisweilen „perfekter“ und „einheitlicher“ als menschlich geschriebene Texte18Heikkilä, M. (2022). How to spot AI-generated text, URL https://www.technologyreview.com/2022/12/19/1065596/how-to-spot-ai-generated-text/ [abgerufen am 13.01.2023]. Zudem beschreiben die Texte nur begrenzt Limitationen und Widersprüche, wie es sonst in einer Hausarbeit üblich ist. Es gibt Entwicklungen für Software, die dabei unterstützen kann, KI-generierte Texte von menschlich geschriebenen zu unterscheiden. Ein Beispiel hierfür ist GPTZero19GPTZero, URL https://gptzero.me/ [abgerufen am 13.01.2023] Krempl, S. (2023). GPTZero: App soll von KI wie ChatGPT geschriebene Texte erkennen können, URL https://www.heise.de/news/GPTZero-App-soll-von-KI-wie-ChatGPT-geschriebene-Texte-erkennen-koennen-7452141.html [abgerufen am 13.01.2023]. OpenAI selbst arbeitet an Möglichkeiten, generierte Texte mit Wasserzeichen zu versehen, mit denen nachgewiesen werden kann, dass ein Text von ChatGPT stammt20 Heikkilä, M. (2022). How to spot AI-generated text, URL https://www.technologyreview.com/2022/12/19/1065596/how-to-spot-ai-generated-text/ [abgerufen am 13.01.2023].

Legitime Nutzung. Während die Sachlage ziemlich klar erscheint, dass ein durch ChatGPT erstellter Text als Betrug zu werten ist, entstehen allerdings neue Fragen für den Fall, dass ChatGPT als Arbeitshilfe eingesetzt worden ist. In diesem Sinne reiht sich ChatGPT künftig vermutlich ein in andere Hilfsmittel wie Suchmaschinen, Thesaurus, automatische Rechtschreibprüfungen, Übersetzungstools etc. Denkbar wäre hier für die Zukunft, dass Studierende alle genutzten Hilfen in Art und Umfang am Ende einer eingereichten Arbeit benennen müssen.

Andere Prüfungsformate. Empfohlen wird derzeit vor allem, andere Prüfungsformate einzusetzen als Hausarbeiten oder andere (ohne Kontrolle verfasste) schriftliche Arbeiten, wie z.B. mündliche und praktische Prüfungen. Möglich erscheinen auch Aufgaben zur schriftlichen Bearbeitung, bei denen ChatGPT nur begrenzt helfen kann, z.B. Lerntagebücher mit Selbstreflexion, Aufgaben in Verbindung mit realen Gegenständen oder Situationen, die Produktion von Grafiken, Audios oder Videos.

Langfristig andere Prüfungskultur. ChatGPT könnte ein Anlass sein, die Prüfungskultur an Hochschulen generell zu hinterfragen und zu ändern. Im Idealfall entwickelt sich an unseren Hochschulen eine Lehr- und Prüfungskultur, in der Studierende auf Täuschung via ChatGPT von sich aus verzichten, z.B. weil sie den Nutzen eigenen Lernens und eigener Leistungen erkennen, sich des Werts wissenschaftlicher Integrität bewusst sind sowie auf Prüfungssituationen treffen, in denen sie weitgehend angstfrei agieren können und nicht den Eindruck haben, „sicherheitshalber“ schummeln zu müssen. Weitere Möglichkeiten für eine langfristig bessere Prüfungskultur wären, die Anzahl summativer Prüfungen (mit Rechtsfolgen) deutlich zu reduzieren, um dafür anspruchsvollere Prüfungen durchführen zu können; mehr formatives Assessment umzusetzen, um Studierende darin zu unterstützen, besser zu werden, sowie ein Leistungsklima zu schaffen, das die Persönlichkeitsbildung mitdenkt.

ChatGPT als Lern- und Arbeitsmittel für Studierende?

Die Nutzung von ChatGPT durch Studierende in der Lehre mit einem eigenen Account ist aufgrund der Datenschutzprobleme prinzipiell nicht zu empfehlen. Faktisch fällt damit die Chance weg, den Umgang mit KI im Kontext der Hochschullehre in einer Form zu erfahren und zu erproben, die eine Lehrperson steuern und verantworten kann. Für dieses Dilemma steht noch keine Lösung zur Verfügung. Daher können wir auch keine Empfehlungen für den Einsatz von ChatGPT als Lern- und Arbeitsmittel für Studierende geben. Zu rechnen ist allerdings damit, dass Studierende von sich aus ChatGPT nutzen – im besten Fall ähnlich wie oben als Arbeitsmittel für Lehrende empfohlen, im schlechtesten Fall, um Leistungen an ChatGPT zu delegieren und dann entsprechende Fähigkeiten und Fertigkeiten selbst nicht (mehr) entwickeln.

Man kann daher im Bedarfsfall Studierende dazu ermutigen, ChatGPT selbstverantwortlich kennen und verstehen zu lernen, dabei die eigene Digital/Data/AI Literacy auszubilden und ein ethisches Bewusstsein zu entwickeln, was den Einsatz dieser KI betrifft21 Wichtig wäre es in diesem Kontext, die Studierenden für die Datenschutzproblematik zu sensibilisieren. Denkbar wäre hier auch, dass die Studierenden einen von der Lehrperson erstellten Account im UHH-Netz mit einen Browser im Privacy Modus nutzen. Wichtig wäre es in diesem Kontext, die Studierenden für die Datenschutzproblematik zu sensibilisieren. Denkbar wäre hier auch, dass die Studierenden einen von der Lehrperson erstellten Account im UHH-Netz mit einen Browser im Privacy Modus nutzen.. Es dürfte in jedem Fall besser sein, das Thema anzusprechen und dafür als Lehrperson auch ansprechbar zu sein, als ausschließlich Verbote zu formulieren oder die bestehenden Chancen und Risken zu ignorieren. Man kann sich in diesem Fall an den Empfehlungen für Lehrpersonen orientieren.