Warum die meisten hochschulischen KI-Richtlinien Unsinn sind und welche sinnvolle Option verbleibt

Viele Hochschulen und Universitäten haben in den letzten Monaten angepasste Richtlinien zum „Einsatz von KI-gestützten Werkzeugen in Zusammenhang mit Studien- und Prüfungsleistungen“ oder Anpassungen der „Eigenständigkeitserklärung“ beim Verfassen von Abschlussarbeiten veröffentlicht, die teilweise auch recht umfänglich sind. Die beiden verlinkten Beispiele stehen dabei exemplarisch für viele weitere ähnlich Dokumente. Oft orientieren sich diese am Diskussionspapier Nr. 26 „KI-induzierte Transformation an Hochschulen“ des Hochschulforums Digitalisierung vom November 2023, in dem folgende drei Optionen vorgeschlagen werden:

  1. Erlaubnis zur Nutzung KI-generierten Outputs ohne Kennzeichnungspflicht,
  2. mit Kennzeichnungspflicht oder
  3. Verbot generativer KI.

In diesem Artikel möchte ich kurz diskutieren, warum ich persönlich nur die erste Option „Erlaubnis zur Nutzung KI-generierten Outputs ohne Kennzeichnungspflicht“ für sinnvoll und die anderen Optionen bei näherer Betrachtung für eher hinderlich halte.

Ein Verbot (Option 3) ist großer Quatsch.

Fangen wir mal mit der dritten Option „Verbot generativer KI“ an. Ein solches Verbot mag natürlich für gewisse Arbeiten sinnvoll klingen, insbesondere wenn es darum geht, dass Studierende wirklich selbst den Text verfassen und es auch mehr um den Prozess des eigenen Schreibens denn um den niedergeschriebenen Inhalt geht. In jeden Fall ist eine in diesem Fall unerlaubte Nutzung textgenerierender KI in Haus- und Abschlussarbeiten nicht nachweisbar bzw. nachprüfbar, zumindest nicht rechtssicher (so zumindest meine Vermutung als rechtlicher Laie). Außerdem ist von Seiten der Studierenden eine relativ einfache Verschleierung der unerlaubten Nutzung möglich, zumindest bei Hausarbeiten an eigenen digitalen Endgeräten.

Es stellt sich außerdem die Frage, welche Konsequenzen für den/die Student*in bei einem Verdacht auf unerlaubte Nutzung entstehen, insbesondere in Anbetracht des sehr fraglichen Nachweises, der so wie die KI-erstellten Texte selbst nur auf einer gewissen Wahrscheinlichkeit beruht. Textgeneratoren sind nun mal darauf trainiert, möglichst menschlich klingende Texte zu erzeugen. Ein begründeter Verdacht entsteht vermutlich nur, wenn Texte sehr schnell entstehen, im Vergleich zu vorherigen Texten stark in der Qualität (nach oben) abweichen, für den Kontext unpassende Wörter enthalten oder von der inhaltlichen Logik her grob falsch sind.

Außerdem stellt sich bei der dritten Option die berechtigte Frage, mit welchen Argumenten ein Verbot der Nutzung begründet wird? Die alte Wir-müssen-alle-Kopfrechnen-lernen-Logik im Sinne von „Man hat später auch nicht immer einen Taschenrechner parat und muss deshalb auch mal kompliziertere Grundrechenoperationen im Kopf bzw. schriftlich ‚von Hand‘ lösen können.“ lässt sich in Anbetracht der ubiquitären Verfügbarkeit digitaler Endgeräte mit einer leistungsfähigen Internetverbindung und der ständigen Verfügbarkeit verschiedenen KI-Werkzeuge sicher schwer nutzen. Vielmehr geht es ja um die souveräne und mündige Anwendung von KI-Werkzeugen, die sich auch nur durch eine praxisnahe Nutzung trainieren und als Kompetenz entwickeln lässt.

Fazit: Da ein sicherer Nachweis praktisch nicht möglich ist, lässt sich ein Nutzungsverbot auch nur schwer durchsetzen.

Eine Kennzeichnungspflicht (Option 2) ist auch Quatsch.

Eine erlaubte Nutzung von KI-Werkzeugen mit gleichzeitiger „Kennzeichnungspflicht zur Nutzung KI-generierten Outputs“ entsprechend der Option 2 klingt auf den ersten Blick wie ein guter Kompromiss, denn Studierende dürfen solche Werkzeuge nutzen, müssen das aber geeignet angeben. Oft ist z.B. von einer „Übersicht verwendeter Hilfsmittel“ die Rede, in der sämtliche KI-generierten Textpassagen einzeln aufgeführt und mit den jeweils formulierten Eingaben (Prompts) und den verwendeten IT-Anwendung mit ihrem Produktnamen benannt werden sollen. Auch ein expliziter schriftlicher Ausschluss der Nutzung gewisser KI-Schreibwerkzeuge durch den/die Prüfer*in ist möglich.

Bei genauerer Betrachtung ist auch diese Option nicht zielführend, denn eine fehlende Kennzeichnung und damit unerlaubte Nutzung ist genau wie bei Option 3 nicht nachweisbar, die Kennzeichnung damit aus Lehrendensicht praktisch wertlos. Weiterhin kann und wird eine Kennzeichnung und Dokumentation der Prompts sehr aufwendig und sehr umfangreich sein. Hat man denn als Lehrperson und Prüfer*in nach Abgabe der Arbeit die entsprechende Zeit und ein umfängliches Interesse, diese Prompts und deren Ausgaben im Detail nachzuvollziehen? Dazu kommt die Schwierigkeit, dass gleiche Prompts aufgrund der Statistik bei der Texterzeugung unterschiedliche Ausgaben erzeugen können, insbesondere bei anderen und sich schnell ändernden GPT-Versionen, was eine Nachvollziehbarkeit enorm erschwert.

Darüberhinaus stellt sich die ganz konkrete Frage, wie ein KI-erzeugter Text formell gekennzeichnet werden soll, z.B. durch eine andere Schriftart oder andere Schriftgröße, einen anderen Schriftstil wie Kursiv- oder Fettdruck, oder eine gewissene Einrückung entsprechender Absätze. Auch ist fraglich, ab welcher Wortanzahl eine Kennzeichnung notwendig ist? Interessant wäre natürlich, wenn Studierende zum Schreiben ihrer Arbeit ein Schreibprogramm nutzen, das die komplette Historie des Dokumentes speichert (wie in Google Docs oder einem Etherpad), oder ein Dokumentsatzsystem wie LaTeX verwenden, bei dem sich die zeitlichen Änderungen der Dokumentquelltexte über eine Versionskontrolle wie Subversion oder Git dokumentieren und verfolgen lassen. Auch das ist aus Sicht der Lehrperson sehr aufwendig in der Kontrolle, würde bei einem begründeten Verdacht der unerlaubten Nutzung aber zumindest eine gewisse Diagose im Sinne eines „Oh, da ist aber sehr viel sehr wohlklingender Text in sehr kurzen Zeit durch Einfügen aus einer anderen Quelle entstanden“. erlauben. Auch das können Studierende natürlich (zeitlich aufwendig) verschleiern, indem sie KI-Ausgaben händisch abtippen statt diese einfach zu kopieren oder als IT-Studierende (natürlich mit KI-Hilfe) ein entsprechendes Programm schreiben, welches das für sie erledigt.

Fazit: Diese zweite Option macht potentiell sehr viel Aufwand (insbesondere bei sehr gewissenhaften Studierenden), bringt gleichzeitig aber wenig Nutzen. Sie schafft eine zweifelhafte Transparenz und belastet auch die Lehrpersonen bzw. Prüfungen mit nicht unerheblicher Mehrarbeit. Den Prozess der Erstellung einer Arbeit zu dokumentieren (und neben dem Ergebnis eventuell mit in den Bewertungsprozess einzubeziehen) ist dabei trotzdem sicher sehr sinnvoll. Die Frage ist aber, wie detailliert das geschehen muss (sekündliche vs. minütliche vs. stündliche vs. tägliche Änderungen) und wie man das geeignet technisch umsetzen kann (z.B. durch ein Versionskontrollsystem).

Verbleibt noch die Option 1 – Erlaubnis zur KI-Nutzung ohne Kennzeichnungspflicht

Dementsprechend bleibt nur die erste Option übrig. Eine entsprechende Eigenständigkeitserklärung der Studierenden könnte dann lauten:

Hiermit versichere ich, die vorliegende Arbeit selbstständig und unter Verwendung der angegebenen Literatur erstellt zu haben. Mir ist bewusst, dass auch bei der Nutzung von maschinellen Textgeneratoren nur ich allein für die wissenschaftliche Qualität und fachliche Korrektheit der Arbeit verantwortlich bin.

Mehr braucht es meines Erachtens nicht. Diese ganzen Optionen lenken dagegen von der eigentlichen Problematik ab. KI-Werkzeuge existieren und werden von den Studierenden selbstverständlich genutzt werden.

Problematik des Begriffs „Hilfsmittel

In vielen Eigenständigkeitserklärungen findet sich auch der Begriff der verwendeten Hilfsmittel oder erlaubten Hilfsmittel, die eventuell mit angegeben werden sollen. Dazu stellen sich folgende Fragen der Abgrenzung:

  • Was ist ein Hilfsmittel und was ist kein Hilfsmittel?
  • Ist ein gedruckter Duden ein Hilfsmittel?
  • Ist eine automatische Rechtschreib- oder Grammatikkorrektur ein Hilfsmittel?
  • Ist ein Thesaurus ein Hilfsmittel?
  • Ist ein Korrekturlesen durch dritte Personen (Kommiliton*innen, Freund*innen, Familienmitglieder, Kolleg*innen, etc.) ein Hilfsmittel?
  • Ist eine maschinelle Übersetzung ein Hilfsmittel?
  • Ist die Nutzung textgenerierender KI ein Hilfsmittel?
  • Welche dieser Hilfsmittel würde man angeben, welche nicht?

Fazit: Der Begriff „Hilfsmittel“ ist ohne detaillierte Definition sehr schwammig und deshalb eher ungünstig.

Problematik der „ausschließlichen Nutzung der angegebenen Literatur

In vielen Eigenständigkeitserklärungen wird die Formulierung der „ausschließlichen Nutzung der angegebenen Literatur“ oder der „Nutzung keiner anderen als der angegebenen Quellen“ verwendet. Auch hier stellen sich einige Fragen, was mit dieser „ausschließlichen Verwendung“ konkret gemeint ist?

  • Dürfte man dann keine anderen, zusätzlichen Literaturquellen nutzen, deren Nutzungsumfang möglicherweise sehr gering ist? Ab wie vielen Wörtern bzw. Sätzen muss bzw. sollte eine Literaturquelle angegeben werden?
  • Was ist mit Literaturquellen, die zum Allgemeinwissen bzw. zum fachspezifischen Grundlagenwissen gehören? Wo fängt dieses an und wo hört es auf?
  • Wie kann aus Sicht des/der Prüfer*in ein Nachweis der Nutzung weiterer, nicht angebener Literaturquellen erfolgen?
  • Was passiert, wenn man als Student*in weitere Quellen im Literaturverzeichnis angibt, die man aber gar nicht wirklich inhaltlich genutzt hat?

Fazit: Auch die „ausschließliche Nutzung von angegebenen Literaturquellen“ ist fragwürdig, da genutzte Literaturquellen im Umfang und der Relevanz der Nutzung sehr unterschiedlich sind. Sinnvoller wäre deshalb eventuell, die „Angabe aller relevanten Literaturquellen“ zu fordern.

3 Kommentare zu „Warum die meisten hochschulischen KI-Richtlinien Unsinn sind und welche sinnvolle Option verbleibt“

  1. Hallo Mathias, gibt es nicht schon eine passende Regel – die des Zitierens? „Ich weiß, dass ich nichts weiß.“ [Chat-GPT Version X.Y] – fertig.

    Ich denke das Nachweisthema erledigt sich mit der Zeit. ChatGPT 5 wird vermutlich beantworten können, ob ein Text von ChatGPT 3.5 stammte. Oder anders gesagt, es reicht doch die Androhung der Aberkennung des Akademischen Grades bei späterem Nachweis durch voranschreiten der Erkennungssoftware (vergleichbar mit Plagiatsfällen, die Jahre nach der Promotion ans Licht gekommen sind).

    Ich sehe bei der Verwendung von ChatGPT als Quelle ansonsten ähnliche Vorteile und Nachteile wie bei Wikipedia.

    Gruß, Paul

    Like

    1. Ich wäre da skeptischer. KI-Textgeneratoren sind darauf ausgelegt, Texte zu erzeugen, die ziemlich exakt so klingen, wie wenn Menschen sie geschrieben hätten. Der Nachweis einer unerlaubten oder nicht gekennzeichneten Nutzung ist ungleich schwieriger als bei klassischen Plagiaten im Sinne einer wörtlichen Kopie oder einer sinngemäßen exakten Übernahme einer längeren Argumentation und gelingt sicher nur bei längeren Abschnitten im Vergleich zu anderen Texten des angeblich gleichen menschlichen Autors.

      Like

      1. Sicher, GPTZero oder das Turnitin ChatGPT Screening sind sicher noch nicht das gelbe vom Ei, aber das war GPT 1 sicher auch nicht.

        Ich stelle mir da ein Szenario vor, dass man mit GPT 5 oder 6 ein Reverse Prompt Engineering betreibt, die generierten Prompts dann in ein zum Erstellungszeitpunkt des Textes verfügbares Modell eingibt (aktuell GPT 3.5 oder 4) und das ganze dann auf der dann verfügbaren schnelleren Hardware tausendfach mit unterschiedlichen Abschnitten…

        Ich würde sogar soweit gehen: ich sehe es genauso unwahrscheinlich, dass heute generierte Texte in ein paar Jahren nicht erkennbar sind, wie Passwörter und Verschlüsselungen von heute in ein paar Jahren geknackt sind.
        Ob das ganze vor Gericht Bestand haben kann, ist natürlich eine andere Frage… aber das Rechtssystem wird in Anbetracht von Deepfakes etc. vermutlich schwerwiegendere Probleme haben als Plagiate.

        Like

Hinterlasse einen Kommentar