
Der vorliegende Beitrag behandelt die Frage, welche Rolle ChatGPT bei der Aufsatzbewertung spielen kann. Anhand verschiedener Textausgaben von GPT3.5 und 4 wird im Einzelnen überprüft, wie stark der Bezug zwischen maschinell generierter ‚Notenbegründung‘ und zu bewertendem Aufsatz ist. Insbesondere wird getestet, ob der Chatbot Fehler verschiedener Art (sprachlich-stilistische, logische, sachlich-referentielle) identifizieren und kategorial unterscheiden kann. Die Untersuchung dient dazu, Folgendes herauszufinden: Kann ChatGPT unter Umständen eine Notenbegründung „leistungsgleich ersetzen“ (Janich) oder zumindest dabei helfen, eine solche Begründung zu formulieren? Die dahintersteckende größere Frage, die sich auch auf andere Textsorten und Sprachspiele (im Sinne Wittgensteins) übertragen ließe, lautet: Reicht die massenhafte syntaktische Exemplifikation von Wörtern in realen Kotexten, mit der ChatGPT trainiert wird, unter Umständen (irgendwann) aus, um die mangelnde Referentialität auszugleichen?
Urteilskraft, ChatGPT, Essaybewertung, Intelligible Texturen, Referentialität, Fehlererkennung
Urteilskraft, ChatGPT, Essaybewertung, Intelligible Texturen, Referentialität, Fehlererkennung
| selected citations These citations are derived from selected sources. This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | 1 | |
| popularity This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network. | Average | |
| influence This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | Average | |
| impulse This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network. | Average |
