KI in Studium und Lehre

Informationen, Termine und rechtliche Aspekte

Das Titelbild zeigt die Hände einer Person auf der Tastatur eines Notebooks. Das Titelbild zeigt die Hände einer Person auf der Tastatur eines Notebooks. Das Titelbild zeigt die Hände einer Person auf der Tastatur eines Notebooks. © Christin Hume / unsplash.com

Der Einsatz von KI-Sprachmodellen stellt in der wissenschaftlichen Praxis wie auch in Studium und Lehre sowohl Anreiz als auch Herausforderung dar, denn das Ziel ist ein sinnvoller, didaktisch gerechtfertigter und rechtssicherer Umgang.

Mit Weiterbildungsveranstaltungen, Austauschformaten und Online-Materialien bietet die Leibniz Universität Hannover eine praxisnahe Orientierung sowohl für die Lehre als auch Studien- und Prüfungsleistungen.

Stellungnahme

Einsatz von Künstlicher Intelligenz in Lehre und Prüfungen an der LUH – Stellungnahme der Vizepräsidentin für Bildung
Use of Artificial Intelligence in teaching and examinations at LUH – Statement of the Vice President for Education

Tipps & Termine

Dialog Künstlliche Intelligenz – Einsatz beim Lehren und Lernen

Di, 09.04.2024

Präsenzveranstaltung auf dem Tag der Lehre der LUH

Künstliche Intelligenz in der Lehre – Einführung und Perspektiven

Di, 18.06.2024

Präsenzveranstaltung im Rahmen des Weiterbildungsangebots der LUH

KI-gestütztes wissenschaftliches Schreiben – Erfahrungen von Studierenden

Fr, 05.07.2024

Online-Veranstaltung im Rahmen von Lehre am Mittag der LUH

Video-Selbstlernkurs "ChatGPT und künstliche Intelligenz in der Hochschullehre"
Kurse der TIB zum wissenschaftlichen Arbeiten mit KI (für Lehrende auch als In-House-Seminar buchbar)
Tipps zum Selbststöbern: Einführungen, Selbstlernkurse und Prompt-Design der Lernplattform "KI-Campus"
Tipps zum Einsatz von KI im Studium der Goethe Universität Frankfurt

Rechtliche Aspekte

Beim Einsatz von KI-unterstützten Tools, die auf Sprachmodellen basieren, ergeben sich rechtliche Fragen. Derartige Tools können u. a. Bilder, Grafiken oder Texte generieren, übersetzen oder bearbeiten. Zum Erproben und für den reflektierten Einsatz von textgenerierenden KI-Tools in der Lehre und im Rahmen von Studien- oder Prüfungsleistungen an der Leibniz Universität Hannover sind hier Anregungen und Hinweise in Bezug auf rechtliche Aspekte zusammengestellt. (Stand: September 2023)

Hinweis

Die im Folgenden gestellten Fragen und kurzen Antworten sind weder allumfassend noch rechtsverbindlich. Häufig verweisen die Antworten auf Quellen, die ausführlicher auf die Frage eingehen. Im konkreten Einzelfall ist eine rechtliche Prüfung anzuraten.

Handreichung zum Download: "Textgenerierende KI – Rechtliche Aspekte beim Einsatz an der LUH"

Handreichung/FAQ

Einleitung

  • Wie ist KI definiert und wieso geht es hier vor allem um Sprachmodelle?

    Große Sprachmodelle (Large Language Models) sind eine Form der künstlichen Intelligenz, die die menschliche Intelligenz in Form von Sprachproduktion nachahmen kann. Sie verwenden statistische Modelle, um große Datenmengen zu analysieren sowie Muster und Verbindungen zwischen Wörtern und Sätzen zu erkennen.

    Sprachmodelle wie ChatGPT werden mit großen Textmengen trainiert und sind in der Lage, mit Fragenstellenden zu interagieren, Fragen zu beantworten und längere Texte zu schreiben. Die EU-Kommission (2018, S. 1) definierte künstliche Intelligenz folgendermaßen:

    „Künstliche Intelligenz (KI) bezeichnet Systeme mit einem „intelligenten“ Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen.“
    EU-Kommission

    Diese Handreichung beschränkt sich aus praktischen Gründen auf KI in sogenannten Sprachmodellen, die Texte generieren können. Denn laut der EU-Kommission (ebd. S. 1) können „KI-basierte Systeme [...] rein softwaregestützt in einer virtuellen Umgebung arbeiten (z. B. Sprachassistenten, Bildanalysesoftware, Suchmaschinen, Sprach- und Gesichtserkennungssysteme), aber auch in Hardware-Systeme eingebettet sein (z. B. moderne Roboter, autonome Pkw, Drohnen oder Anwendungen des „Internet der Dinge“). KI nutzen wir täglich, um z. B. Texte zu übersetzen, Untertitel in Videos zu erzeugen oder unerwünschte E-Mails zu blockieren.“

  • Wie sollten Lehrende gegenüber Studierenden mit KI-Anwendungen umgehen?
    • Es ist zu erwarten, dass textgenerierende KI-Anwendungen in naher Zukunft eine immer größere Rolle in der wissenschaftlichen Arbeit spielen werden; daher sollten für das Fach und die Aufgabenstellung relevante Werkzeuge auch im Rahmen des Studiums präsentiert und der Umgang mit ihnen geübt werden.
       
    • Als Lehrende führen Sie Studierende in die Regeln guter wissenschaftlicher Praxis ein.
       
    • Studierende sollen Eigenständigkeitserklärung des Instituts in der aktuellen Fassung verwenden (Salden & Leschke, 2023, S. 32 f.).
       
    • Insbesondere bei der Betreuung wissenschaftlicher Arbeiten ist es wichtig, Studierenden schon zu Beginn der Arbeit ganz klar deutlich zu machen, in welcher Form und wie detailliert die Nutzung von Hilfsmitteln dokumentiert werden soll und ob es ggfs. Whitelists von Anwendungen gibt, die nicht gesondert zu dokumentieren sind (z. B. MS Office bis Version X).
  • Was ist bei der Benutzung von textgenerierenden KI-Anwendungen zu beachten?
    • Wer sich registriert, ist mit seiner oder ihrer Mailadresse eindeutig identifizierbar. Diese personenbezogenen Daten sollten daher nur dann bereitgestellt werden, wenn dies ausdrücklich bewusst und freiwillig passiert.
       
    • Es sollten weder personenbezogene Daten noch Inhalte, die der Geheimhaltungspflicht unterliegen, eingegeben werden.
  • Eignet sich ein Sprachmodell als Recherche-Instrument?

    Sprachmodelle sind keine Wissensdatenbanken und funktionieren auch nicht wie Suchmaschinen, d. h. es wird nicht anhand von Stichwörtern oder ganzen Fragen nach möglichen Quellen im Internet gesucht. Vielmehr leitet die KI aus dem Textmaterial Bedeutungszusammenhänge zwischen den Wörtern ab, die zu einer grammatisch (morphologisch, syntaktisch und semantisch) korrekten Sprachausgabe führen und den Eindruck vermitteln, dass menschliche Kommunikation stattfindet.

    Am Beispiel von ChatGPT sollen hier einige der derzeitigen Einschränkungen aufgezeigt werden, die bei der Verwendung von Sprachmodellen für wissenschaftliche Arbeiten zu beachten sind:

    • Wissensstand: Die Trainingsdaten des Modells enden im Moment im Januar 2022, so dass keine aktuellen Informationen recherchiert werden können. Dieser Aspekt der zeitlich beschränkten Trainingsdaten ist auch für andere LLM relevant. Ausnahmen sind Systeme, welche auch Zugriff auf das Internet haben und von dort Suchergebnisse mit in ihre Antworten einbeziehen können, wie z. B. Microsoft Bing.
       
    • Quellenangaben: Die Antworten des Chatbots enthalten oft keine, falsche oder nicht-existente Quellenangaben. Angegebene Quellen sind zu überprüfen, auch wenn sie plausibel erscheinen (angegebene doi, real vorhandene Zeitschriftentitel etc.).
       
    • Halluzinationen: Die KI arbeitet nicht faktentreu, sondern stellt Antworten nach Wahrscheinlichkeiten zusammen. Da sie nicht Wissen wiedergibt, kann sie auch nicht antworten, etwas nicht zu wissen. Von einem realen Verständnis von Zusammenhängen kann nicht ausgegangen werden. Stattdessen werden Texte generiert, indem sie Daten, die sie während des Trainings gelernt hat, neu kombiniert. Diese faktisch häufig falschen Antworten werden als Halluzination bezeichnet.

    Es ist daher wichtig, dass alle Informationen, die von Sprachmodellen geliefert werden, sorgfältig überprüft und durch verlässliche Quellen belegt werden, bevor sie in wissenschaftlichen Arbeiten verwendet werden. Sprachmodelle können menschliche Kommunikation imitieren, sie können aber keine Expertise ersetzen (Rouse, 2023 und Wikipedia, 2023).

  • Welche Rechte betrifft der Einsatz von KI?

    Es geht um folgende Rechtsbereiche, die in Abschnitt 2 detaillierter behandelt werden.
     

    Europarecht

    Bereits in Kraft ist die Datenschutzgrundverordnung (DSGVO) und in Vorbereitung sind weitere Regelungen wie der Artificial Intelligence Act (AIA).

    Betrifft vor allem Fragen des Datenschutzes, z. B.: Birgt die Verwendung von KI, insbesondere die „Einspeisung“ personenbezogener Daten, die Gefahr der Verletzung datenschutzrechtlicher Vorschriften?
     

    Rechte mit Verfassungsrang: Persönlichkeitsrechte und Wissenschaftsfreiheit

    Betrifft vor allem die Verletzung von Grundrechten, z. B. folgende Frage: Könnte durch die Einschränkung oder das Verbot der Verwendung KI-generierter Texte die Freiheit von Wissenschaft, Forschung und Lehre in unzulässiger Weise beschränkt werden?
     

    Urheberrechtsgesetz

    Betrifft z. B. folgende Frage: Könnten Urheberrechte bei der Verwendung KI-generierter Texte verletzt werden bzw. besteht die Möglichkeit eines (unbeabsichtigten) Plagiats bei der Verwendung?
     

    Prüfungsordnungen der LUH sowie Ordnung der LUH zur Sicherung guter wissenschaftlicher Praxis

    Betrifft z. B. die folgenden Fragen: Verstößt die unmarkierte Übernahme von KI-generierten Texten gegen die Regeln der guten wissenschaftlichen Praxis? Welche Vorgaben sollten in den Prüfungsordnungen geregelt werden?

Rechtliche Aspekte beim Einsatz von KI in der Lehre

  • Europarecht & DSGVO

    Welche Bruchlinien ergeben sich zur Datenschutzgrundverordnung (DSGVO)?

    Oder anders gefragt: Wie gehen die Diensteanbieter wie OpenAI mit den eingegebenen Daten um? Und inwieweit entspricht die Datenverarbeitung den Regelungen der DSGVO?

    Aus datenschutzrechtlicher Sicht sind noch etliche Fragen beim Einsatz von textgenerierender KI ungeklärt. Aufgrund der mangelnden Transparenz bezüglich der Datenverarbeitung zu nicht genau definierten Zwecken der Diensteanbieter wie OpenAI haben Landesdatenschutzbeauftragte ein umfassendes Prüfverfahren gegen diesen Anbieter eingeleitet und um Beantwortung der Fragen gebeten. So lange dieses Prüfverfahren noch läuft und die Fragen nicht beantwortet wurden, fällt es schwer, eine abschließende Einschätzung abzugeben.

  • Persönlichkeitsrechte und Wissenschaftsfreiheit

    Warum ist die Nutzung für Studierende freiwillig?

    Letztendlich muss sich jede Person, die einen solchen Dienst nutzt (insbesondere die kostenlose Version), darüber bewusst sein, dass sämtliche Daten, die dem Dienstleister zur Verfügung gestellt werden, für eigene Geschäftszwecke genutzt werden können. Dies kann auch die (persönlichen) Anmeldedaten betreffen.

    Wenn die Dienste im Rahmen von Vorlesungen/Lehrveranstaltungen (verpflichtend) genutzt werden müssen, wäre eine Registrierung mit personenbezogenen Echtdaten kritisch zu sehen. Dabei ist es unerheblich, ob es sich um dienstliche oder private Kontaktdaten handelt.
     

    Worauf ist bei Verschwiegenheitsklauseln & Firmengeheimnissen zu achten?

    Auch innerhalb der Wissenschaftsfreiheit gibt es Grenzen, wenn im Rahmen von Kooperationen mit Firmen oder dritten Institutionen eine Geheimhaltung von Forschungsdaten und/oder –erkenntnissen vereinbart wurde. Solchen Verschwiegenheitsklauseln läuft zuwider, wenn entsprechende Informationen als Prompt eingegeben werden.

  • Urheberrechtsgesetz

    Wer ist Urheber, wenn mit einem KI-Tool Texte generiert werden?

    • Texte von ChatGPT sind neu generiert und gemeinfrei (Salden & Leschke, 2023, S. 26).
       
    • Das Urheberrecht für generierte Texte kann bei denjenigen liegen, die den Prompt generieren – sofern eine ausreichend hohe schöpferische Gestaltung vorliegt (Salden & Leschke, 2023, S. 25 f.).
       
    • Es ist aber zu beachten, dass dabei möglicherweise unbeabsichtigt Texte plagiiert werden, wenn ChatGPT Textfolgen aus den zugrunde liegenden Quellen 1:1 reproduziert, was vor allem bei sehr spezifischen Wortfolgen passieren kann. Dies betrifft auch urheberrechtlich geschützte Texte, was etwa eine Spiegel-Kolumne thematisiert hat (Stöcker, 2023).


    Wer verfügt über das Copyright an eingegebenen oder erzeugten Daten?

    • Das Urheberrecht ist an eine schöpferisch-kreative Leistung von Menschen gebunden. Daher behalten Nutzende das Urheberrecht an den eingegebenen Prompts. Davon unberührt sind Schwierigkeiten, die sich aus der Intransparenz vieler Sprachmodelle zur Weiternutzung von Prompts als Trainingsdaten ergeben.
       
    • Es ist von Nutzenden zu prüfen, ob eingegebene Daten wie Prompts oder Texte von den KI-Anbietern für eigene Zwecke verwendet werden dürfen.


    Wie sollten KI-generierte Texte zitiert bzw. gekennzeichnet werden?

    • „Inwiefern Texte, die durch die Nutzung eines KI-Tools entstanden sind, im akademischen Kontext entsprechend gekennzeichnet werden müssen, hängt davon ab, ob andernfalls ein Täuschungsversuch der Prüflinge oder ein wissenschaftliches Fehlverhalten zu bejahen ist. An dieser Stelle sind die Prüfungsordnungen, Satzungen oder andere Rahmenvorschriften der Hochschulen zu beachten.“ (Salden & Leschke, 2023, S. 29)
       
    • „Auch die Lizenz- oder Nutzungsbedingungen der jeweiligen Software können an dieser Stelle relevant sein. Sofern diese vorschreiben, dass auf die Verwendung der KI-generierten Texte hingewiesen werden muss, sind die Nutzer:innen dazu verpflichtet, den Bedingungen nachzukommen.“ (Salden & Leschke, 2023, S. 29)
       
    • „Wie eine solche Kennzeichnung erfolgen muss, hängt regelmäßig vom Einzelfall ab. In diesem Zusammenhang kommt es maßgeblich darauf an, dass für Dritte erkennbar ist, welche Textteile in welchem Ausmaß von einer KI generiert wurden. Wurden die Texte wortwörtlich übernommen, so empfiehlt es sich, die Stelle ähnlich wie ein „klassisches“ Zitat zu behandeln. Wurde das KI-Programm hingegen als Inspirationsquelle oder Gedankenanstoß verwendet, könnte eine Hilfsmittelangabe zu Beginn oder am Ende genügen.“ (Salden & Leschke, 2023, S. 29)


    Greifen Begriffe wie Plagiat und Ghostwriting, wenn Inhalte mit KI-Anwendungen erzeugt werden?

    Können mithilfe von inhaltsgenerierenden KI-Anwendungen erzeugte Texte Plagiate sein?

    Die Sphären von Urheberrecht, wissenschaftlich guter Praxis und Prüfungsordnungen sind nicht deckungsgleich (Salden & Leschke, 2023, S. 34). Plagiate können nur schwer bei der Rechtslage definiert werden und schon gar nicht sicher identifiziert werden.

    Der Begriff des Ghostwriting greift ebenso schwierig, da zumindest die Prompts selbst generiert werden (Salden & Leschke, 2023, S. 35).

  • Prüfungsordnung & gute wissenschaftliche Praxis

    Welcher Zusammenhang besteht zwischen textgenerierenden KI-Tools und wissenschaftlichem Fehlverhalten?

    Wie ist mit dem Verdacht umzugehen, dass ein Text von einem Sprachmodell stammt und in seiner Darbietung einem wissenschaftlichem Fehlverhalten entspricht? Texte, die von Sprachmodellen generiert werden, lassen sich nicht sicher als Plagiat erkennen.

    • „Im Rahmen der üblichen Regeln guter wissenschaftlicher Praxis wird ein Verstoß regelmäßig wie folgt definiert: „Wissenschaftliches Fehlverhalten liegt vor, wenn in einem wissenschaftserheblichen Zusammenhang bewusst oder grob fahrlässig Falschangaben gemacht werden, geistiges Eigentum anderer verletzt oder sonstwie deren Forschungstätigkeit beeinträchtigt wird.“ (HRK)“ (Salden & Leschke, 2023, S. 31)
      • Hier beziehen sich die Autoren auf die „Empfehlung zum Umgang mit wissenschaftlichem Fehlverhalten in den Hochschulen“ („HRK-Empfehlung“ 1998, S. 3) sowie die „Verfahrensordnung bei Verdacht auf wissenschaftliches Fehlverhalten“ („MPG-Verfahrensordnung“ 1997, geändert 2000, S. 4).
         
    • „Unter einer Falschangabe ist (…) das Verfälschen oder Erfinden von Daten zu verstehen, nicht hingegen das Unterlassen der Angabe, dass der Text von einer KI generiert wurde.“ (Salden & Leschke, 2023, S. 31)
       
    • „die unmarkierte Übernahme von KI-generierten Texten von ChatGPT [verstößt] dennoch gegen die Regeln guter wissenschaftlicher Praxis“ (Salden & Leschke, 2023, S. 31), denn es soll für Dritte nachvollziehbar angegeben werden, „welcher Inhalt den eigenen Gedanken entspringt und welche Sätze fremden Quellen entnommen wurden“ (Salden & Leschke, 2023, S. 31)
       
    • „Denkbar ist auch, dass entsprechende Regelwerke eine bestimmte Art und Weise des Einsatzes von KI-Tools mit wissenschaftlichem Verhalten für vereinbar erklären, beispielsweise, wenn ein signifikantes Maß an geistiger Eigenleistung in die Arbeit mit dem Tool eingeflossen ist.“ (Salden & Leschke, 2023, S. 32)


    Was lässt sich daraus für die Zusammenarbeit von Studierenden, Lehrenden und Fachbereichen ableiten?

    • Studierende sollten darauf hingewiesen werden, dass die Verwendung inhaltsgenerierender KI-Anwendungen ohne Kennzeichnung gegen gute wissenschaftliche Praxis verstößt.
       
    • Studierende sollten darauf hingewiesen werden, dass dies im normalen wissenschaftlichen Diskurs schnell deutlich wird und zu einer dauerhaften Schädigung der eigenen Berufschancen und der eigenen Reputation als Wissenschaftler*in führt.
       
    • Lehrende und Fachbereiche sollten darauf hingewiesen werden, dass den Studierenden ein angemessenes und transparentes System zur Dokumentation der Verwendung inhaltsgenerierender KI-Anwendungen zur Verfügung gestellt wird, damit diese rechtssicher angewendet werden können.
       
    • Lehrende und Fachbereiche sollten darauf hingewiesen werden, dass der Nachweis der Verwendung inhaltsgenerierender KI-Anwendungen ohne Kennzeichnung schwierig ist und ein Verdacht gut begründet werden muss.
       
    • Wenn Studierende insbesondere bei Abschlussarbeiten angemessen betreut werden, ist sichergestellt, dass nicht nur eine Abschlussarbeit produziert wurde, sondern auch das notwendige Wissen und erforderliche Kompetenzen erworben wurden.
       
    • Die Nutzung einer Plagiatssoftware an der Leibniz Universität ist im Rundschreiben 26/2021 geregelt. Siehe hierzu auch https://www.luis.uni-hannover.de/de/services/anwendungen/applikations-hosting/plagiatsuche


    Welche Rechte haben die Studierenden, wenn sie selbstverfasste textliche Ausarbeitungen als Studien- oder Prüfungsleistung abgeben?

    • Von Studierenden erstellte „Prüfungsleistungen sind zumeist urheberrechtlich geschützt. In dem Moment, in dem die prüfende Person die Prüfungsarbeit in die KI-Software kopiert, findet eine Vervielfältigung statt.“ (Salden & Leschke, 2023, S. 37)
       
    • „Die meisten Prüfungsordnungen schreiben für die Bewertung von Prüfungsleistungen vor, dass die „Bewertung durch jeden Prüfer/jede Prüferin (Einzelbewertung) [...] vorzunehmen und schriftlich zu begründen“ ist.“ (Salden & Leschke, 2023, S 36)
       
    • „Die Bewertung muss dabei mit einer Eigenleistung verbunden sein.“ (Salden & Leschke, 2023, S. 36)

    Der Anspruch auf eine nicht-automatisierte Bewertung (i. d. R. abgeleitet aus den Prüfungsordnungen „Bewertung erfolgt durch Prüfer*in“) erlaubt, die eigene Bewertung formulieren zu lassen, indem Stichworte als Prompt eingegeben werden. Name und Matrikelnummer dürfen nicht enthalten sein (Datenschutz). Es versteht sich von selbst, dass der ausgegebene Text zu prüfen ist, ob die Aussage der eigenen Bewertung entspricht.

Quellen


Kontakt & Austausch

Fragen zum Einsatz von KI in der Lehre können im "Forum: Lehre" in Stud.IP gestellt werden. Dort ist ein Forum für den Austausch eingerichtet.
Team Hochschuldidaktik
Team Hochschuldidaktik
Team Mediendidaktik
Team Mediendidaktik