KI-Tools beim Lehren, Lernen und Prüfen
Richtlinien, Handlungsempfehlungen, Anlaufstellen und weiterführende Informationen
Die Entwicklungen im Bereich KI werden auch an der Universit?t Konstanz aufmerksam verfolgt und Chancen, aber auch Herausforderungen, die sich aus KI-Tools für Lernen, Lehren und Prüfen ergeben, diskutiert. Dies betrifft unter anderem sprachbasierte, textproduzierende Tools wie z. B. ChatGPT. Es ist davon auszugehen, dass sich sowohl die Anzahl entsprechender Tools und ihrer Einsatzfelder als auch die Qualit?t der erhaltenen Ergebnisse schnell weiterentwickeln wird, weshalb sich die Universit?t aktiv mit sinnvollen Einsatzm?glichkeiten von KI in der Hochschullehre, aber auch kritisch mit Auswirkungen auf Lehr- und Prüfungssituationen auseinandersetzt.
Letzte ?berarbeitung: 19.07.2023
Richtlinien und Handlungsempfehlungen
Aufgrund der Vielzahl von Anwendungsbereichen und Tools ist es weder sinnvoll noch m?glich, KI generell zu ignorieren oder zu verbieten. Stattdessen bieten universit?re Lehrveranstaltungen die M?glichkeit, den verantwortungsvollen Umgang mit den Chancen und Risiken des Einsatzes von KI-Tools aktiv anzusprechen, zu überdenken und ggf. zu üben, da der reflektierte und verantwortungsvolle Umgang mit digitalen Tools sowohl im Kontext universit?ren Lehrens und Lernens als auch in akademischen Arbeitsumfeldern unverzichtbar ist.
Die freie Verfügbarkeit einer Vielzahl von Werkzeugen und die schnellen technologischen Entwicklungsschübe stellen neue Anforderungen an Lehrende und Prüfende. Die folgenden Informationen sollen es Lehrenden erm?glichen, die Nutzung von KI in ihren Lehrveranstaltungen zu thematisieren und sowohl die Verwendung als auch den Ausschluss der Nutzung zu erl?utern. Studierenden sollen diese Informationen eine Orientierung zu Hintergründen universit?rer Regelungen geben und eine Gespr?chsgrundlage für ?berlegungen, ob generative KI in bestimmten Szenarien eingesetzt werden kann, liefern.
KI Tools und ihre Funktionsweise
Was ist in diesem Kontext mit KI-Tools gemeint?
Die folgenden Informationen beziehen sich auf generative KI, die neue Inhalte erzeugen kann, z. B.:
- Tools, die deutlich über etablierte Tools wie die Rechtschreibkontrolle hinausgehen, weil sie neue Textinhalte generieren (auf Sprachmodellen beruhende Tools wie chatGPT)
- Tools, die nach Eingabe eines Prompts die ihnen zur Verfügung stehenden Datenbanken durchforsten und Zusammenfassungen generieren (Research Assistent Tools wie Elicit, Perplexity)
- Tools, die Bildmaterial durch maschinelles Lernen generieren (Diffusionsmodelle wie Midjourney, Stable Diffusion)
- Tools, die Studierende nutzen k?nnen, um individualisiertes Lernmaterial zu erstellen oder sich über Inhalte abfragen zu lassen (Recommender und Learning Analytics Tools wie ChatPDF, TutorAI)
Ein ?berblick über KI Tools im Hochschulkontext ist beim Virtuellen Kompetenzzentrum VK:KIWA verfügbar.
Funktionsweise textgenerierender KI
Textgenerierende KI beruht auf Sprachmodellen, die über Wahrscheinlichkeiten funktionieren. Wenn ein Text fortgesetzt werden soll, wird das n?chste Wort aus einer Gruppe von W?rtern ausgew?hlt, die in einer bestimmten Wahrscheinlichkeitsklasse liegen. Dieses Zufallselement führt dazu, dass bei gleicher Eingabe unterschiedliche Texte generiert werden. Damit die generierten Texte m?glichst wie von Menschen geschriebene Texte klingen, werden diese Sprachmodelle mit einer riesigen Menge an Trainingsdaten trainiert und k?nnen sowohl Wortbedeutungen als auch den Kontext von W?rtern mit einbeziehen.
Breit diskutiert wird derzeit ChatGPT. Hierbei kann das Sprachmodell GPT 3.5 über ein Chat-Interface sehr einfach eingesetzt werden, da es Anfragen in natürlicher Sprache verarbeiten und beantworten kann. Ziel war dabei, dass ChatGPT Texte erzeugt, die menschengemacht klingen, zur Eingabe passen und die Menschen mit hoher Wahrscheinlichkeit plausibel finden. Diese Texte müssen aber inhaltlich nicht korrekt sein.
Deutlich wird dies zum Beispiel bei Rechenaufgaben. Da ChatGPT auf einem Sprachmodell basiert, kann es nicht rechnen. Dennoch erzeugt es in manchen F?llen überraschend korrekte Ergebnisse von mathematischen Aufgaben. Das System wei? zwar nicht, was Addieren ist, kann aber den Text "17 + 12 =" aufgrund von statistischen Wahrscheinlichkeiten korrekt mit "29" fortsetzen.
Das System ist darauf trainiert, auch dann plausibel klingende Antworten zu generieren, wenn es keine Information über die richtige Antwort auf eine Frage hat. Das hei?t, dass Antworten "erfunden" werden, die oberfl?chlich plausibel sind und sprachlich korrekt formuliert werden. Diese sogenannten Halluzinationen sind auch damit zu erkl?ren, dass - zumindest in der aktuellen Version - kein Mechanismus integriert ist, mit dem Fakten vor der Ausgabe überprüft werden. Dies betrifft auch im Ausgabetext erw?hnte Publikationen, die teilweise sehr überzeugend klingen, die es aber nicht gibt. Zwar lernt das System kontinuierlich dazu und gibt Warnhinweise aus, etwas nicht beantworten zu k?nnen, aber weiterhin sind Halluzinationen h?ufig. Gute Eingaben, also Prompts, k?nnen die Qualit?t der generierten Texte steigern.
Weitere Erl?uterungen zur Funktionsweise von chatGPT: Krapp, KI in Schule und Uni (Video), We?els, Was ist ChatGPT? (Video) und Arnold, ChatGPT für Nicht-Informatiker (Video)
Reproduzierbarkeit, Blackbox und Bias
Aufgrund der stochastischen Algorithmen, über die KI-Sprachmodelle arbeiten, sind die Ergebnisse nicht reproduzierbar, dieselbe Eingabe führt zu unterschiedlichen Ergebnissen. Dazu kommt, dass die Verfügbarkeit von Rechenleistung und die Datenübertragungsqualit?t sich offensichtlich auf die Qualit?t der Ergebnisse auswirkt, d. h. die Qualit?t der Ergebnisse kann je nach ?Traffic“ und ?Load Balancing“ deutlich voneinander abweichen.
Ein gro?es Problem ist der "Blackbox Charakter" der kommerziellen Sprachmodelle, denn sowohl die Trainingsdaten, als auch der Algorithmus selbst sind intransparent. Bei den Trainingsdaten von ChatGPT besteht der überwiegende Gro?teil des Datenbestands aus Daten der westlichen L?nder oder der Nordhalbkugel. Trainingsdaten tragen naturgem?? auch ihre Kultur und Wertvorstellungen inh?rent in sich und reproduzieren sich bei der Textgenerierung wieder. Die generierten Texte enthalten also einen Bias und festigen damit schleichend den Status Quo.
Nachhaltigkeit und Ethik
Das Analysieren von Trainingsdaten durch Sprachmodelle und die dafür betriebenen Serverfarmen ist sehr energieaufwendig und im Sinne von Nachhaltigkeit und Klimaerw?rmung problematisch. Studien zum Energieverbrauch verschiedener Sprachmodelle variieren, aber zeigen dennoch, dass mit dem Betreiben und der Nutzung dieser Tools ein sehr hoher Energiebedarf verbunden ist. Bei GPT-3 von OpenAI verursacht das Training laut Forscher:innen von Google und der Universit?t Berkeley den Verbrauch von 1.287 Megawattstunden Energie. Das kommt dem Energieverbrauch von 320 Vierpersonenhaushalten in einem Jahr gleich.
An ethischen Fragestellungen stellen sich neben der Gefahr des Bias auch Fragen zu den Arbeitsbedingungen der Angestellten, die KI-Modelle trainieren. Teile des Trainings werden meist an Subunternehmen ausgelagert, dabei ist oft weder ?ffentlich bekannt, welche das sind, noch, welche Arbeitsbedingungen bei diesen Unternehmen vorliegen.
?ffentlich bekannt und einer breiteren Debatte unterzogen wurde die Arbeit von etwa drei Duzend Angestellten in Nairobi bei einem amerikanischen Unternehmen, das von OpenAI mit dem Labeln von Daten für das Training von ChatGPT betraut worden war. Dabei war es Aufgabe der Angestellten, “Negativ-Beispiele”, etwa Beschreibungen von Gewalt, sexueller Gewalt oder Hassrede zu klassifizieren, so dass die KI sp?ter dazu trainiert werden konnte, diese Art von Output zu verhindern.
M?glichkeiten und Einschr?nkung der Nutzung
In Bezug auf die Nutzung von generativer KI bei der Erstellung von Studien- und Prüfungsleistungen k?nnen vier Szenarien unterschieden werden:
1. Ausschluss jeglicher Nutzung von generativer KI
Immer wenn es darum geht, dass Studierende in einem ersten Schritt Basiskompetenzen erwerben sollen, um kognitive Aufgaben bew?ltigen k?nnen, kann es sinnvoll sein, die Nutzung von generativer KI auszuschlie?en. Manche dieser Aufgaben k?nnen m?glicherweise schneller oder besser von generativer KI erledigt werden. Um Studierende zu motivieren, diese Basisf?higkeiten dennoch zu erlernen und zu üben, sollte dies in der Lehrveranstaltung erl?utert werden. Es kann au?erdem sinnvoll sein, Studierende solche Aufgaben w?hrend der Pr?senzlehre üben zu lassen und den Austausch der Studierenden untereinander zu f?rdern.
Der Ausschluss der Nutzung von generativer KI bei der Erstellung von Studien-/Prüfungsleistungen sollte bereits zu Beginn der Lehrveranstaltung klar kommuniziert werden. Die Durchführung einer - erg?nzenden oder alternativen - Pr?senzprüfung (schriftlich, mündlich oder praktisch), kann empfehlenswert sein, sofern die Prüfungsordnung und die Vorgaben des Fachbereichs dies erlauben. Bei Aufgabenstellungen, bei denen die Nutzung von KI einen gro?en Vorteil bringen kann, ist darauf zu achten, dass ehrliche Studierende nicht benachteiligt werden.
2. Beschr?nkung auf bestimmte Arten von generativer KI
Bei der Vielfalt von generativen KI-Tools kann es sinnvoll sein, in einer Lehrveranstaltung bestimmte Arten von generativer KI explizit zu thematisieren und deren Nutzung zu erlauben. Es kann sich anbieten, auch in der Lehrveranstaltung selbst diese KI-Tools zu reflektieren, Hinweise hierzu finden Sie bei Nutzung von KI in der Lehre.
Soll die Nutzung generativer KI bei Studien- und Prüfungsleistungen beschr?nkt sein, kann dies so in der Lehrveranstaltungsbeschreibung formuliert werden: ?Bei der Erstellung der Studien-/Prüfungsleistung k?nnen Sie folgende Werkzeuge der generativen künstlichen Intelligenz nutzen: [Name oder Art der Werkzeuge einsetzen]. Die Nutzung von generativer künstlicher Intelligenz muss von Ihnen benannt werden (bzw. nicht benannt werden). Mit der ?bernahme von Inhalten übernehmen Sie als Autor:in die Verantwortung für die inhaltliche Richtigkeit.“
3. Einschr?nkung der Art und Weise der Verwendung von KI
Eine andere M?glichkeit, die Verwendung von KI einzuschr?nken, besteht darin zu regeln, wie und wofür KI genutzt werden darf. So kann zum Beispiel die Nutzung für die Ideenfindung oder sprachliche Textüberarbeitung erlaubt werden, nicht aber das Erzeugen von Textbausteinen, die dann in eine eigene Arbeit übernommen werden.
Soll die Art und Weise der Verwendung generativer KI bei Studien- und Prüfungsleistungen beschr?nkt sein, kann dies so in der Lehrveranstaltungsbeschreibung formuliert werden: ?Generative künstliche Intelligenz kann in dieser Studien-/Prüfungsleistung für die folgenden Aufgaben genutzt werden: [Art und Weise der Verwendung]. Die Nutzung von generativer künstlicher Intelligenz muss von Ihnen benannt werden (bzw. nicht benannt werden). Mit der ?bernahme von Inhalten übernehmen Sie als Autor:in die Verantwortung für die inhaltliche Richtigkeit.“
4. Keine Einschr?nkung bei der Nutzung von KI
Auch wenn keine Einschr?nkung bei der Nutzung von KI in Studien- und Prüfungsleistungen erfolgen soll, sollte dies Studierenden gegenüber klar kommuniziert werden. Dies ist beispielsweise so m?glich: "Die Verwendung von Werkzeugen der generativen künstlichen Intelligenz ist in diesem Leistungsnachweis uneingeschr?nkt m?glich. Die Nutzung von generativer künstlicher Intelligenz muss von Ihnen benannt werden (bzw. nicht benannt werden). Mit der ?bernahme von Inhalten übernehmen Sie als Autor:in die Verantwortung für die inhaltliche Richtigkeit."
Nutzung von KI in der Lehre
Erwerb und Vermittlung von KI-Kompetenzen
KI-Tools versprechen, dass sie Menschen bestimmte kognitive Aufgaben abnehmen k?nnen. Mit diesen Werkzeugen k?nnen also manche Aufgaben schneller oder besser erledigt werden, was in vielen Situationen in Wissenschaft und Beruf, beim Lehren und Lernen sowie im Alltag hilfreich sein kann. Dafür ist es jedoch n?tig, geeignete Tools für die anliegende Aufgabe zu kennen, ihre Funktionsweise genügend zu verstehen, um den Output des KI-Tools bewerten zu k?nnen, und Rahmenbedingungen der Nutzung dieser Tools (wie z. B. Datenschutzaspekte) zu reflektieren. Ebenso muss das Prompting, also die Eingabe geeigneter Impulse, um das KI-Tool inhaltlich in die richtige Richtung zu lenken und verwertbare Ergebnisse zu erhalten, erprobt und geübt werden.
Ein verantwortungsvoller und gewinnbringender Umgang mit KI-Tools kann (auch) im Rahmen von Hochschullehre und Studium erlernt werden. Studierende müssen an der Universit?t auch ihre KI-Literacy weiterentwickeln. Auch über Lehrveranstaltungen im Rahmen des Advanced Data and Information Literacy Track hinaus kann Studierenden erm?glicht werden, den Einsatz neuer digitaler M?glichkeiten zu reflektieren, erproben und auszuwerten und dabei ihre F?higkeiten des kritischen Denkens einzubringen und weiterzuentwickeln. Aufgrund der Neuheit vieler KI-Tools wird es hierbei weniger darum gehen, dass Lehrende KI-Kompetenzen vermitteln, als dass Studierende und Lehrende gemeinsam durch die Auseinandersetzung mit Nutzungsm?glichkeiten, Grenzen und Gefahren von KI-Tools KI-Kompetenzen erwerben und ausbauen.
Beispiele für die Erprobung und Auswertung der Nutzung von KI-Tools
Beispiele für die Erprobung und Auswertung der Nutzung von KI-Tools in Lehrveranstaltungen sind:
- Wie kann ein Tool wie ChatGPT eingesetzt werden, um den Schreibanfang zu erleichtern oder die stilistische ?berarbeitung eines Textes zu unterstützen?
- Inwieweit kann ein Tool wie ResearchRabbit die bibliografische Recherche vereinfachen und unterstützen?
- Wie kann ein Research-Assistant-Tool wie Elicit die Strukturierung von Forschungsaufgaben unterstützen?
Beim aktiven Einsatz von KI-Tools in Lehrveranstaltungen sind datenschutzrechtliche Vorgaben zu beachten, wenn Studierende direkt mit diesen Tools arbeiten sollen. Alternativ kann gemeinsam in der Gruppe mit dem Tool gearbeitet werden oder Lehrende bringen den Output eines Tools zur Reflexion mit in die Lehrveranstaltung.
Chancengleichheit
In Zusammenhang mit KI in der Lehre sind auch Aspekte der Chancengleichheit relevant. Einerseits k?nnen frei zug?ngliche oder einer kompletten Studierendengruppe zur Verfügung gestellte KI-Tools Ungleichheiten ausgleichen und liegen Chancen für Inklusion und Individualisierung in der Nutzung von KI-Tools. Andererseits wird diskutiert, dass leistungsstarke Studierende m?glicherweise mehr von der Nutzung von KI profitieren k?nnen als leistungsschw?chere, so dass im Gegenteil Ungleichheiten verst?rkt werden k?nnen (Matth?us-Effekt). Die gemeinsame Auseinandersetzung mit KI-Tools in Lehrveranstaltungen kann einen Beitrag dazu leisten, dass alle Studierenden den reflektierten Umgang damit erlernen k?nnen und nicht nur digital affine Studierende ihre KI-Kompetenzen ausbauen.
Unterstützung bei der Vorbereitung von Lehrveranstaltungen
KI-Schreibtools wie ChatGPT k?nnen fu?r Lehrende bei angemessener Nutzung auch ganz praktischen Nutzen haben.
- Erstellung von Material: Ein Programm schreibt Texte, mit denen Studierende als Lernaufgaben weiterarbeiten (z. B. fremdsprachliche Texte auf einem bestimmten Sprachniveau). Dabei ist es mo?glich, solche Texte unkompliziert auch auf individuelle Bedu?rfnisse auszurichten - wenn das Programm mit relevanten Informationen versorgt wird. Auch die Erstellung von Multiple Choice-Aufgaben, Quizzes sowie von Vorschla?gen fu?r Veranstaltungspla?ne sind mo?glich.
- Bewertung von Leistungen: Viele Lehrende haben seit der Vero?ffentlichung von chatGPT schon gezeigt, dass die Tools nach Eingabe von Bewertungskriterien auch plausible Ergebnisse dabei erzielen, Texte im Lichte der Kriterien zu bewerten. Dies funktioniert nicht einwandfrei, sondern es lassen sich durchaus auch 澳门金沙城中心_金沙电子游戏-赌场|官网@e bei wiederholten Bewertungen derselben Inhalte erkennen, z.B. durch ?Load-Balancing“, ?Traffic“ oder auch durch unterschiedliches Accounting. ChatGPT kann auch dabei helfen, auf Dinge aufmerksam zu werden und dadurch den Aufwand zur Bewertung zu verkürzen, aber am Ende sollte natürlich die Lehrperson die Bewertung durchführen.
- ?Dekonstruktion“: Lehrende k?nnen sich durch generative Sprachmodelle Texte unterschiedlicher Komplexit?t und Qualit?t erstellen lassen und diese anhand der Bloom Taxonomie bewerten lassen – besonders Evaluieren und Analyse eignen sich dabei besonders.
Datenschutz
Mit der Nutzung von KI-Tools stellen sich eine Reihe von datenschutzrechtlichen Fragen, die reflektiert und beachtet werden müssen. Es werden personenbezogene Daten verarbeitet, diese Verarbeitung erfolgt h?ufig auf Servern in den USA; teilweise ist auch intransparent, welche Daten wie verarbeitet werden.
Zu unterscheiden ist zwischen pers?nlichen Daten der Nutzer:innen einer KI, die bei Registrierung und Nutzung erhoben und gespeichert werden, und Daten, die von Nutzer:innen im Zuge eines Prompts eingegeben werden.
- ChatGPT verarbeitet beispielsweise im Zuge der Registrierung Vor- und Nachname, E-Mailadresse sowie Telefonnummer, bei der Nutzung die IP-Adresse des Computers. Falls für die aktive Nutzung eines KI-Tools im Rahmen von Lehrveranstaltungen eine Registrierung mit Eingabe pers?nlicher Daten notwendig ist, muss dies für alle Veranstaltungsteilnehmer:innen freiwillig sein, da die Europ?ische Datenschutzgrundverordnung eingehalten werden muss. Freiwilligkeit liegt nur vor, wenn es sich bei der betreffenden Lehrveranstaltung um keine Pflichtveranstaltung handelt, sondern um einen Kurs im Wahlpflicht- oder Erg?nzungsbereich. Genauere Erl?uterungen dazu finden Sie beim Justiziariat der Universit?t. Beratung zum datenschutzkonformen aktiven Einsatz von KI Tools in der Lehre erhalten Sie au?erdem über das KIM.
- Von der Eingabe personenbezogener Daten von lebenden Dritten im Rahmen eines Prompts z.B. an ChatGPT, ist abzuraten, weil dafür normalerweise die Zustimmung der betreffenden Person eingeholt werden müsste. Als ?personenbezogene Daten“ kommen alle Informationen in Betracht, die zur Identifizierung einer natürlichen Person verwendet werden k?nnen. Verschiedene Teilinformationen, die in Kombination miteinander zur Identifizierung einer bestimmten Person führen k?nnen, stellen ebenfalls personenbezogene Daten dar. Anders als bei der Personensuche z. B. bei Google gibt ChatGPT nicht nur aus, was es schon wei?, sondern verarbeitet die ihr "spendierten" Daten nach unbekannten Algorithmen weiter. Hinzu kommt, dass OpenAI, der Betreiber von ChatGPT, diese Daten verwendet, um die KI zu trainieren und weiter zu verbessern. Deshalb sollte auch die Eingabe von vertraulichen Daten (z. B. aus Forschungsinterviews) oder aktuellen Forschungsdaten vermieden werden.
Nutzung von KI beim Lernen
Lernbegleitung
Generative KI-Tools k?nnen als Lernbegleiter genutzt werden, da in natürlicher Sprache mit ihnen kommuniziert werden kann. Beispielsweise kann damit im Dialog individualisiertes Lernmaterial erzeugt werden. Eine weitere M?glichkeit ist, sie zur Korrektur und Verbesserung eigener Antworten auf ?bungsaufgaben einzusetzen. Somit k?nnen KI-Tools als adaptive Feedbacksysteme (?Sparringspartner“) individuelle Lernwege st?rken.
Schreibkompetenzen
Bei der Frage nach Scheibkompetenzen reicht es nicht aus, die Qualit?t und inhaltliche sowie sprachliche Korrektheit von KI generierten Texten in den Blick zu nehmen, sondern stellt sich auch die Frage nach der Rolle des Schreibprozesses für den eigenen Lern- und Denkprozess. Textgenerierende KI-Tools wie ChatGPT k?nnen zwar beim Schreiben unterstützen, Menschen werden aber dennoch weiter umfassende Schreibkompetenzen ben?tigen und diese erwerben müssen. Dies gilt besonders im Zusammenhang mit Studium und Hochschullehre, da hier komplexes (fach-)wissenschaftliches Denken und Schreiben erlernt werden muss.
Die schreibende Auseinandersetzung mit Lerninhalten und wissenschaftlichen Fragestellungen und das Bemühen, komplexe Sachverhalte mit eigenen Worten ausdrücken zu k?nnen, erweitert nicht nur die wissenschaftliche Schreibkompetenz, sondern hilft auch beim Verstehen und Erlernen von Inhalten des Studiums. Das Schreibzentrum ber?t, wozu und wie hierbei KI-Tools eingesetzt werden k?nnen.
Expertensysteme versus Sprachmodelle
Mit Hilfe von Sprachmodellen k?nnen Texte erzeugt werden, die sprachlich weitgehend fehlerfrei sind und h?ufig überzeugend klingen. Dadurch kann im ersten Moment der Eindruck entstehen, die produzierten Inhalte sind korrekt und vollst?ndig. Allerdings zeigt sich beim genauen Lesen h?ufig, dass der generierte Text an einigen Stellen sehr oberfl?chlich ist und inhaltliche Fehler oder auch frei erfundene Aussagen enth?lt. Zu beachten ist dabei, dass auch Quellen erfunden werden k?nnen, die aber h?ufig durchaus plausibel erscheinen (vgl. Funktionsweisen textgenerierender KI).
Wichtig ist bei der Nutzung von KI-Tools zu verstehen, wie die Funktionsweise des Tools ist und auf welche Wissensbasis es zugreift. Ein Sprachmodell ist kein Expertensystem, weshalb Nutzer:innen als Expert:innen die inhaltliche Korrektheit überprüfen und die Verantwortung dafür übernehmen müssen. Die mangelnde Transparenz, welche Quellen herangezogen wurden, kann es erschweren, zu überprüfen, ob der Output eines KI-Tools korrekt ist.
Bewusste Entscheidung über Nutzung oder Nicht-Nutzung
Trotz der vielen Einsatzm?glichkeiten von KI beim Lernen und wissenschaftlichen Arbeiten, kann es sinnvoll sein, sich bewusst gegen die Nutzung zu entscheiden, um den eigenen Lernprozess nicht zu behindern und um unabh?ngig von KI-Tools zu bleiben. Gerade wenn es um Basiskompetenzen geht, die sehr gut an ein KI-Tool abgegeben werden k?nnen, kann es im Lernprozess sinnvoll sein, diese erst einmal einzuüben, um sie wirklich zu begreifen und um bei einer sp?teren Nutzung von KI den Prozess überwachen und die Ergebnisse überprüfen und einordnen zu k?nnen. Zu Bedenken ist dabei auch, dass Denk- und Formulierungsarbeit Hand in Hand gehen. Somit kann der Einsatz textgenerierender KI-Tools zwar einerseits eine sinnvolle Entlastung im Schreibprozess darstellen, andererseits kann er aber auch hinderlich sein, um beim Formulieren ein tieferes Verst?ndnis der Inhalte zu gewinnen.
Es lohnt sich deshalb, vor der Nutzung von KI-Tools zu überlegen, ob damit der Lernprozess unterstützt wird oder ob man sich die Erledigung einer Aufgabe nur m?glichst bequem damit macht. Orientierung kann hierbei auch geben, ob und wie bei der Prüfung die Nutzung von KI erlaubt ist.
Auch die Aspekte, die unter Datenschutz, Nachhaltigkeit und Ethik benannt sind, sollten in die bewusste Entscheidung eingehen.
Nutzung von KI in Prüfungen
Fragen zur Kennzeichnung der Nutzung von generativer KI in studentischen Texten
Folgende Fragen helfen zu entscheiden, ob und wie Studierende in ihren Prüfungsleistungen die erlaubte Nutzung von generativer KI angeben müssen (vgl. auch M?glichkeiten und Einschr?nkung der Nutzung):
- F?llt die Nutzung von KI unter die Forschungsmethode und muss zur Nachvollziehbarkeit des wissenschaftlichen Arbeitsprozesses angegeben werden? - z. B. Einsatz von Research-Assistent-Tools wie Elicit oder Perplexity bei der Literaturrecherche und Auswertung
- Wird von einer KI-generiertes Material als Prim?rmaterial verwendet und muss deshalb wie andere Quellen/Prim?rmaterialien zitiert werden? - z. B. linguistische Analyse von mit KI-generierten Texten
- Ist die Nutzung generativer KI Teil des Lehrinhalts und soll reflektiert werden? - z. B. kritische Reflexion und ?berarbeitung einer mit Ki-generierten Zusammenfassung eines oder mehrerer fachwissenschaftlicher Texte als Prüfungsleistung
- Sind die Aufgaben, die von einer KI oder mit Hilfe einer KI erledigt werden k?nnen, für die zu prüfenden Kompetenzen relevant? - z. B. Nutzung von ?bersetzungstools von Sprachstudierenden bei einer ?bersetzungsklausur versus von Studierenden, die im Fachstudium eine Zweitsprache verwenden müssen
- Soll die Angabe der Nutzung von generativer KI - negativ oder auch positiv - in die Bewertung eingehen?
Von didaktischen und prüfungsrechtlichen Aspekten abgesehen kann aufgrund der Nutzungs-/Lizenzbedingungen eines KI-Tools eine Kennzeichnungspflicht vorhanden sein.
M?glichkeiten der Kennzeichnung von KI
Um KI generierte Inhalte zu kennzeichnen, ist es m?glich, sie zu zitieren oder im Text bzw. in einer Eigenst?ndigkeitserkl?rung die Nutzung von KI anzuzeigen:
- Wenn es sinnvoll und notwendig ist, einzelne von einer KI generierte Textpassagen oder andere Materialien als direktes oder indirektes Zitat zu kennzeichnen, stellt sich die Frage, wie das im verwendeten Zitationsstil umgesetzt werden kann. Die M?glichkeiten der Nutzung von Werkzeugen der generativen KI entwickeln sich st?ndig weiter, deshalb ist nicht jede Form der Nutzung in g?ngigen Zitierstilen vorgesehen. Hinweise dazu finden sich z. B. im APA Style Blog (7.4.2023) und im MLA Style Center (17.3.2023).
- M?glicherweise reicht es bereits aus, an geeigneter Stelle (z. B. in der Einleitung oder im Methodenteil einer wissenschaftlichen Arbeit oder in einem Verzeichnis verwendeter Hilfsmittel) die Nutzung von generativer KI anzugeben. Die Eigenst?ndigkeitserkl?rung, die Studierende abgeben müssen, kann regeln, welche Informationen hier notwendig sind (Art des genutzten KI-Systems, Art der Nutzung, Eingaben/Prompts).
Falls die Eingaben/Prompts, die bei der Nutzung eines KI-Systems verwendet wurden, angegeben werden sollen, ist es bei ChatGPT mittlerweile m?glich, einen stabilen Link zu dem Chatverlauf zu erzeugen, so dass die Angabe relativ einfach erfolgen kann.
Bestehende Leistungsnachweise und generative KI
Prüfen Sie als Lehrende Ihre bestehenden Aufgabenstellungen selbst mit Werkzeugen der generativen künstlichen Intelligenz und w?gen Sie ab, wie Sie die Nutzung dieser Werkzeuge gemeinsam mit Ihren Studierenden kritisch reflektieren k?nnen.
- Wie k?nnen Sie die Chancen und Risiken des Einsatzes von generativer KI thematisieren?
- K?nnen Sie den Einsatz von generativer KI im Seminar demonstrieren, um diese Chancen und Risiken aufzuzeigen und gemeinsam zu reflektieren?
- Welche Vor- und Nachteile ergeben sich durch die Nutzung?
- Welche ethischen Aspekte sprechen für oder gegen den Einsatz von generativer KI?
- Vermitteln Sie in Ihrer Lehre grundlegende Kompetenzen, die die Nutzung von KI ausschlie?en, oder k?nnen Sie diese voraussetzen?
- Welche M?glichkeiten gibt es, nicht nur das Endprodukt, sondern auch den Prozess sichtbar und bewertbar zu machen?
- Gibt es Szenarien, in denen der Einsatz von generativer KI Ihren Studierenden erm?glicht, mehr Zeit in h?herwertige Aufgaben zu investieren?
- Welchen Einfluss hat die Nutzung dieser Werkzeuge auf Ihre Lernziele?
KI und gute wissenschaftliche Praxis
In der Satzung der Universit?t Konstanz zur Sicherung guter wissenschaftlicher Praxis ist geregelt, was als wissenschaftliches Fehlverhalten angesehen wird. Alle wissenschaftlich T?tigen sowie die Studierenden sind zu wissenschaftlicher Redlichkeit verpflichtet. Relevant im Zusammenhang mit der Nutzung von generativer KI ist hierbei:
- die Frage, in welchen F?llen die Nutzung von generativer KI als wissenschaftliches Fehlverhalten eingestuft werden muss:
Hier sind Fragen berührt, wer als Urheber KI-generierten Materials angesehen werden kann - Ist dies die Person, die mit der KI arbeitet, die KI selbst oder andere Dritte? Von der Beantwortung dieser Frage h?ngt ab, ob KI-generiertes Material als von anderen Autor:innen stammend gekennzeichnet werden muss, um mit der Nutzung der KI nicht zu plagiieren. Auch Anforderungen an Reproduzierbarkeit und Nachprüfbarkeit wissenschaftlicher Ergebnisse k?nnten durch die Nutzung einer KI als nicht erfüllt gelten. Da die rechtliche Bewertung solcher Fragen noch diskutiert wird, ist ein sehr vorsichtiger und bewusster Umgang mit KI angeraten. - die Frage, ob KI-generiertes Material nicht zitiertes Material Dritter enth?lt:
Da KI unterschiedliche Quellen verwertet, die zum Teil auch urheberrechtlich geschützt sind, ist es denkbar, dass die KI zum Beispiel Textpassagen erzeugt, die zitiert werden müssten. ChatGPT beispielsweise verwertet Quellen unterschiedlichster Art (Webseiten, PDFs, ?ffentlich zug?ngliche Datenbanken u. a.) auch dann, wenn diese von namentlich bekannten Personen bereits ver?ffentlicht wurden. Da ChatGPT seinerseits - jedenfalls bis auf Weiteres - keine Quellen für von ihr erzeugte Antworten angibt, ist deshalb grunds?tzlich davon auszugehen, dass zumindest Teile davon aus Quellen stammen k?nnen, die anzugeben w?ren. Auch wenn dies aufgrund der Funktionsweise von ChatGPT in vielen F?llen nicht der Fall sein wird, muss Nutzer:innen klar sein, dass das Risiko eines Plagiatsvorwurfs besteht. Um die Verletzung geistigen Eigentums und ggf. urheberrechtliche Ansprüche Dritter zu vermeiden, müssen Quellen ggf. nachtr?glich recherchiert und in dem eigenen Text referenziert werden. Die Verantwortung für die inhaltliche Richtigkeit und wissenschaftlich redliche Kennzeichnung verwendeter Quellen liegt vollst?ndig bei den Autor:innen.
KI und T?uschungsversuch
Versuchen Studierende, das Ergebnis einer Prüfungs- oder Studienleistung durch T?uschung (z. B. Plagiat) oder Benutzung nicht zugelassener Hilfsmittel zu beeinflussen, gilt die betreffende Prüfungs- bzw. Studienleistung als mit ?nicht ausreichend“ (5,0) bewertet. Zu kl?ren ist bei Prüfungs- und Studienleistungen somit, ob KI ein zugelassenes Hilfsmittel ist oder nicht, wobei vier verschiedene Szenarien grunds?tzlich denkbar sind.
Die Universit?t Konstanz hat Formulierungsvorschl?ge erarbeitet, um die Nutzung textgenerierender KI in Eigenst?ndigkeitserkl?rungen explizit aufzunehmen, und den Fachbereichen zug?nglich gemacht. Eigenst?ndigkeitserkl?rungen k?nnen damit um entsprechende Abschnitte erg?nzt werden. Weitere Informationen dazu k?nnen Natascha Foltin und Heike Meyer geben.
Lehrende müssen mit den Informationen zur Prüfungs- und Studienleistung schriftlich bekannt geben, welche Hilfsmittel erlaubt sind. Hilfreich ist es au?erdem, mit den Studierenden zu thematisieren, welche Art und welcher Umfang der Nutzung einer (spezifischen) KI m?glich und sinnvoll ist. Eine Orientierungshilfe kann dabei sein, dass die Nutzung von KI in jedem Fall so lange keinen T?uschungsversuch darstellt, wie vergleichbare Hilfe auch von natürlichen Personen angenommen werden kann (z. B. Gespr?ch zur Ideenfindung oder als Hilfe beim Verstehen des Lernstoffs).
Detektionssoftware
Durch textgenerierende KI wie ChatGPT werden mit Hilfe eines randomisierten Algorithmus neue Antworten bzw. Texte erstellt. Das Tool greift also nicht auf einen Fundus an alten Texten zurück und w?hlt daraus passende Abschnitte aus. Somit entstehen hier also keine Plagiate, sondern Unikate, wodurch die Erkennung über klassische Plagiatssoftware nicht m?glich ist.
Es ist gegenw?rtig kaum m?glich, Texte, die durch generative Sprachmodelle erstellt wurden, mittels Software zu erkennen. Die Erkennungsrate beim AI Classifier von OpenAI liegt lediglich bei 26%, neben falsch negativen liegen auch falsch positive Klassifizierungen vor. Momentan arbeiten Firmen wie openAI dringlich daran, diese Quote signifikant zu verbessern. Weitere Informationen zur Erkennungsrate.
Das gr??te Problem liegt bei Erkennungstools bei den zahlreichen falsch positiven Klassifizierungen. So k?nnen die Erkennungstools zwar im besten Fall einen Anfangsverdacht auf die direkte ?bernahme eines Textes von einem generativen KI-Tool liefern, es ist aber gar nicht so unwahrscheinlich, dass ein durch das Tool so klassifizierter Text letztlich doch selbst geschrieben wurde. Im Gegensatz zur Erkennung von Plagiaten mittels Plagiatserkennungssoftware gibt es hier keinen verfügbaren Originaltext, anhand dessen man im Detail nachprüfen und dann auch nachweisen k?nnte, dass ein Betrugsversuch vorliegt. Hier stellt sich die Frage, wie man nach einem Anfangsverdacht weiter vorgehen m?chte.
Eine gute Methode und erster Schritt zur Erkennnung liegt im Nutzen des "gesunden Menschenverstands". Hat der Text eine indivuelle Note? Ist der Text stringent und argumentativ stimmig? Gibt es Anzeichen von "Halluzination" oder handelt es sich beim Text um das Ergebnis eines "stochastischen Papageis"?
Ihre Anlaufstellen an der Universit?t Konstanz
Arbeitskreis KI in der Lehre und allgemeine Anfragen
Es wurde ein Arbeitskreis eingerichtet, um die Vernetzung innerhalb der Universit?t und die Nutzung von andernorts entwickelten Materialien und Ergebnisse voranzutreiben. Damit die Arbeitsergebnisse und Erfahrungen über verschiedene Fach- und Arbeitsbereiche der Universit?t hinweg nutzbar gemacht werden k?nnen, werden alle Hochschulangeh?rigen, die in diesem Bereich aktiv sind, gebeten, sich über KI-Lehre@uni.kn zu melden. Der Arbeitskreis wird koordiniert von Alexander Klein, Academic Staff Development/Hochschuldidaktik.
Mit allen Fragen und Anliegen zum Thema KI in der Lehre k?nnen Sie sich gerne an KI-Lehre@uni.kn wenden.
Rechtliche Fragestellungen
Anuschka Haake-Streibel und Ralph Kraemer für datenschutzrechtliche Fragen
Natascha Foltin für prüfungsrechtliche Fragen und wissenschaftliche Redlichkeit
Karin Günther für urheberrechtliche Fragen
Hochschuldidaktische Fragestellungen zu Lehre und Prüfungsgestaltung
Das ASD unterstützt beim Einsatz von KI-Tools in der Lehre
- Entwicklung von KI-Kompetenzen und KI-Literacy
- Ethische Reflexion bei der Anwendung von KI-Tools
- Testen von KI-Tools für die Lehre
- Prüfungsgestaltung im Kontext von KI-Tools
Einen ?berblick über die Angebote zum Thema KI-Tools in der Lehre finden Sie auf der "Format ohne Namen" Homepage. Dort k?nnen Sie auch selbst KI-Tools, die Sie interessieren, zum Testen, Diskutieren und Analysieren vorschlagen. Für weitere Informationen schreiben Sie Alexander Klein.
Wissenschaftliches Schreiben von Studierenden
Das Schreibzentrum unterstützt Sie bei der Gestaltung von Schreibaufgaben für Studierende:
- Entwicklung von Basiskompetenzen (ohne KI)
- Kritische Reflexion und Anwendung von KI-Tools im Schreibprozess
Einen ?berblick über Angebote zum Thema Schreiben und KI finden Sie auf der Homepage. Für weitere Informationen stehen Ihnen Stefanie Everke Buchanan und Stephanie Kahsay jederzeit gern zur Verfügung: E-Mail an Schreibzentrum.
KI-basierte Recherchetools und Plagiatserkennungssoftware
Wenden Sie sich mit Ihren Fragen gerne an die zust?ndigen Fachreferate im KIM.
Funktionsumfang und datenschutzkonforme technische M?glichkeiten der Nutzung von KI-Tools in der Lehre
Academic Staff Development (ASD) und das KIM unterstützten beim Einsatz von KI-Tools in der Lehre und bei Prüfungen. Einen ?berblick über die Angebote des ASD zum Thema KI -Tools in der Lehre finden Sie auf der "Format ohne Namen"-Webseite. Dort k?nnen Sie auch das Testen von KI-Tools, die Sie interessieren, selbst anregen. Für weitere Informationen schreiben Sie Alexander Klein.
Für technische Fragen und den dateschutzkonformen Einsatz von KI-Tools in der Lehre wenden Sie sich an den Ansprechpartner im KIM Fabian St?hr.
KI Tools in Lehrer:innenbildung und Schule
In der Veranstaltungsreihe Schule aktuell ging es am 20.06.2023 um das Thema KI in Schule und Hochschule. Die Aufzeichnung des Vortrags und die Pr?sentation werden hier (4.7.2023) zur Verfügung gestellt.