Einführung in LUHKI
Online-Infoveranstaltung des LUIS
Der Einsatz von KI-Sprachmodellen stellt in der wissenschaftlichen Praxis wie auch in Studium und Lehre sowohl Anreiz als auch Herausforderung dar, denn das Ziel ist ein sinnvoller, didaktisch gerechtfertigter und rechtssicherer Umgang.
Mit Weiterbildungsveranstaltungen, Austauschformaten und Online-Materialien bietet die Leibniz Universität Hannover eine praxisnahe Orientierung sowohl für die Lehre als auch Studien- und Prüfungsleistungen.
Einführung in LUHKI
Online-Infoveranstaltung des LUIS
Tag der Künstlichen Intelligenz 2024
Veranstaltung des Instituts für KI der LUH
LUHKI in der Lehre
Online-Infoveranstaltung des LUIS
Beim Einsatz von KI-unterstützten Tools, die auf Sprachmodellen basieren, ergeben sich rechtliche Fragen. Derartige Tools können u. a. Bilder, Grafiken oder Texte generieren, übersetzen oder bearbeiten. Zum Erproben und für den reflektierten Einsatz von textgenerierenden KI-Tools in der Lehre und im Rahmen von Studien- oder Prüfungsleistungen an der Leibniz Universität Hannover sind hier Anregungen und Hinweise in Bezug auf rechtliche Aspekte zusammengestellt. (Stand: September 2023)
Die im Folgenden gestellten Fragen und kurzen Antworten sind weder allumfassend noch rechtsverbindlich. Häufig verweisen die Antworten auf Quellen, die ausführlicher auf die Frage eingehen. Im konkreten Einzelfall ist eine rechtliche Prüfung anzuraten.
Große Sprachmodelle (Large Language Models) sind eine Form der künstlichen Intelligenz, die die menschliche Intelligenz in Form von Sprachproduktion nachahmen kann. Sie verwenden statistische Modelle, um große Datenmengen zu analysieren sowie Muster und Verbindungen zwischen Wörtern und Sätzen zu erkennen.
Sprachmodelle wie ChatGPT werden mit großen Textmengen trainiert und sind in der Lage, mit Fragenstellenden zu interagieren, Fragen zu beantworten und längere Texte zu schreiben. Die EU-Kommission (2018, S. 1) definierte künstliche Intelligenz folgendermaßen:
Diese Handreichung beschränkt sich aus praktischen Gründen auf KI in sogenannten Sprachmodellen, die Texte generieren können. Denn laut der EU-Kommission (ebd. S. 1) können „KI-basierte Systeme [...] rein softwaregestützt in einer virtuellen Umgebung arbeiten (z. B. Sprachassistenten, Bildanalysesoftware, Suchmaschinen, Sprach- und Gesichtserkennungssysteme), aber auch in Hardware-Systeme eingebettet sein (z. B. moderne Roboter, autonome Pkw, Drohnen oder Anwendungen des „Internet der Dinge“). KI nutzen wir täglich, um z. B. Texte zu übersetzen, Untertitel in Videos zu erzeugen oder unerwünschte E-Mails zu blockieren.“
Sprachmodelle sind keine Wissensdatenbanken und funktionieren auch nicht wie Suchmaschinen, d. h. es wird nicht anhand von Stichwörtern oder ganzen Fragen nach möglichen Quellen im Internet gesucht. Vielmehr leitet die KI aus dem Textmaterial Bedeutungszusammenhänge zwischen den Wörtern ab, die zu einer grammatisch (morphologisch, syntaktisch und semantisch) korrekten Sprachausgabe führen und den Eindruck vermitteln, dass menschliche Kommunikation stattfindet.
Am Beispiel von ChatGPT sollen hier einige der derzeitigen Einschränkungen aufgezeigt werden, die bei der Verwendung von Sprachmodellen für wissenschaftliche Arbeiten zu beachten sind:
Es ist daher wichtig, dass alle Informationen, die von Sprachmodellen geliefert werden, sorgfältig überprüft und durch verlässliche Quellen belegt werden, bevor sie in wissenschaftlichen Arbeiten verwendet werden. Sprachmodelle können menschliche Kommunikation imitieren, sie können aber keine Expertise ersetzen (Rouse, 2023 und Wikipedia, 2023).
Es geht um folgende Rechtsbereiche, die in Abschnitt 2 detaillierter behandelt werden.
Europarecht
Bereits in Kraft ist die Datenschutzgrundverordnung (DSGVO) und in Vorbereitung sind weitere Regelungen wie der Artificial Intelligence Act (AIA).
Betrifft vor allem Fragen des Datenschutzes, z. B.: Birgt die Verwendung von KI, insbesondere die „Einspeisung“ personenbezogener Daten, die Gefahr der Verletzung datenschutzrechtlicher Vorschriften?
Rechte mit Verfassungsrang: Persönlichkeitsrechte und Wissenschaftsfreiheit
Betrifft vor allem die Verletzung von Grundrechten, z. B. folgende Frage: Könnte durch die Einschränkung oder das Verbot der Verwendung KI-generierter Texte die Freiheit von Wissenschaft, Forschung und Lehre in unzulässiger Weise beschränkt werden?
Urheberrechtsgesetz
Betrifft z. B. folgende Frage: Könnten Urheberrechte bei der Verwendung KI-generierter Texte verletzt werden bzw. besteht die Möglichkeit eines (unbeabsichtigten) Plagiats bei der Verwendung?
Prüfungsordnungen der LUH sowie Ordnung der LUH zur Sicherung guter wissenschaftlicher Praxis
Betrifft z. B. die folgenden Fragen: Verstößt die unmarkierte Übernahme von KI-generierten Texten gegen die Regeln der guten wissenschaftlichen Praxis? Welche Vorgaben sollten in den Prüfungsordnungen geregelt werden?
Welche Bruchlinien ergeben sich zur Datenschutzgrundverordnung (DSGVO)?
Oder anders gefragt: Wie gehen die Diensteanbieter wie OpenAI mit den eingegebenen Daten um? Und inwieweit entspricht die Datenverarbeitung den Regelungen der DSGVO?
Aus datenschutzrechtlicher Sicht sind noch etliche Fragen beim Einsatz von textgenerierender KI ungeklärt. Aufgrund der mangelnden Transparenz bezüglich der Datenverarbeitung zu nicht genau definierten Zwecken der Diensteanbieter wie OpenAI haben Landesdatenschutzbeauftragte ein umfassendes Prüfverfahren gegen diesen Anbieter eingeleitet und um Beantwortung der Fragen gebeten. So lange dieses Prüfverfahren noch läuft und die Fragen nicht beantwortet wurden, fällt es schwer, eine abschließende Einschätzung abzugeben.
Warum ist die Nutzung für Studierende freiwillig?
Letztendlich muss sich jede Person, die einen solchen Dienst nutzt (insbesondere die kostenlose Version), darüber bewusst sein, dass sämtliche Daten, die dem Dienstleister zur Verfügung gestellt werden, für eigene Geschäftszwecke genutzt werden können. Dies kann auch die (persönlichen) Anmeldedaten betreffen.
Wenn die Dienste im Rahmen von Vorlesungen/Lehrveranstaltungen (verpflichtend) genutzt werden müssen, wäre eine Registrierung mit personenbezogenen Echtdaten kritisch zu sehen. Dabei ist es unerheblich, ob es sich um dienstliche oder private Kontaktdaten handelt.
Worauf ist bei Verschwiegenheitsklauseln & Firmengeheimnissen zu achten?
Auch innerhalb der Wissenschaftsfreiheit gibt es Grenzen, wenn im Rahmen von Kooperationen mit Firmen oder dritten Institutionen eine Geheimhaltung von Forschungsdaten und/oder –erkenntnissen vereinbart wurde. Solchen Verschwiegenheitsklauseln läuft zuwider, wenn entsprechende Informationen als Prompt eingegeben werden.
Wer ist Urheber, wenn mit einem KI-Tool Texte generiert werden?
Wer verfügt über das Copyright an eingegebenen oder erzeugten Daten?
Wie sollten KI-generierte Texte zitiert bzw. gekennzeichnet werden?
Greifen Begriffe wie Plagiat und Ghostwriting, wenn Inhalte mit KI-Anwendungen erzeugt werden?
Können mithilfe von inhaltsgenerierenden KI-Anwendungen erzeugte Texte Plagiate sein?
Die Sphären von Urheberrecht, wissenschaftlich guter Praxis und Prüfungsordnungen sind nicht deckungsgleich (Salden & Leschke, 2023, S. 34). Plagiate können nur schwer bei der Rechtslage definiert werden und schon gar nicht sicher identifiziert werden.
Der Begriff des Ghostwriting greift ebenso schwierig, da zumindest die Prompts selbst generiert werden (Salden & Leschke, 2023, S. 35).
Welcher Zusammenhang besteht zwischen textgenerierenden KI-Tools und wissenschaftlichem Fehlverhalten?
Wie ist mit dem Verdacht umzugehen, dass ein Text von einem Sprachmodell stammt und in seiner Darbietung einem wissenschaftlichem Fehlverhalten entspricht? Texte, die von Sprachmodellen generiert werden, lassen sich nicht sicher als Plagiat erkennen.
Was lässt sich daraus für die Zusammenarbeit von Studierenden, Lehrenden und Fachbereichen ableiten?
Welche Rechte haben die Studierenden, wenn sie selbstverfasste textliche Ausarbeitungen als Studien- oder Prüfungsleistung abgeben?
Der Anspruch auf eine nicht-automatisierte Bewertung (i. d. R. abgeleitet aus den Prüfungsordnungen „Bewertung erfolgt durch Prüfer*in“) erlaubt, die eigene Bewertung formulieren zu lassen, indem Stichworte als Prompt eingegeben werden. Name und Matrikelnummer dürfen nicht enthalten sein (Datenschutz). Es versteht sich von selbst, dass der ausgegebene Text zu prüfen ist, ob die Aussage der eigenen Bewertung entspricht.
Zusammengestellt von der AG „KI in der Lehre“ unter Beteiligung von Melanie Bartell (Dez. 2 / SG23), Sylvia Feil (ZQS/elsa), Kati Koch (TIB), Jens Krey (Dez. 1 / SG11), Prof. Dr. Marius Lindauer (Institut für Künstliche Intelligenz), Dr. Katja Politt (Deutsches Seminar), Dr. Inske Preißler (Fakultät für Elektrotechnik und Informatik), Dr. Klaus Schwienhorst (Leibniz Language Center), Felix Schroeder (ZQS/elsa), Prof. Dr. Henning Wachsmuth (Institut für Künstliche Intelligenz).
Diese Handreichung wird im Zuge fortschreitender gesetzlicher Regelungen und Rechtsprechung zu überarbeiten sein. Noch offene Fragen können gern in der Stud.IP-Veranstaltung „LUH-Forum: Lehre“ gestellt werden. Sie enthält ein internes Forum, wo bereits Antworten gesammelt sind und weitere Fragen gestellt werden können.