KI-Tools im Studium und Prüfungen am IfEE: Regeln & Stellungnahme
Stand: Januar 2026
KI-Regelungen
für Seminar- und Prüfungsleistungen
Aufbauend auf der Stellungnahme unterteilen wir KI-Nutzungen im Rahmen von Seminar- und Prüfungsleistungen in solche, die gänzlich verboten sind, und solche, die akzeptabel sind, aber dokumentiert werden müssen (s.u.). Dabei ist uns bewusst, dass es eine Reihe von Nutzungspraktiken gibt, die sich in einem Graubereich befinden, und sich zudem ständig technische Innovationen ergeben. Die Verantwortung für alle Textinhalte sowie für die Einhaltung guter wissenschaftlicher Praxis liegt in jedem Fall bei den Studierenden, auch wenn KI-Tools verwendet wurden. Daher liegt es an den Studierenden, KI generierten Output zu prüfen.
Faustregel:
KI darf den eigenen Denk- und Schreibprozess nicht ersetzen.
A) Eigenständigkeit & Dokumentationspflicht
Alle Hausarbeiten, Abgaben und sonstige Beiträge müssen eine Eigenleistung der Studierenden darstellen. Die Nutzung von KI darf den eigenen Denk- und Schreibprozess (Themenfindung, Recherche, Lektüre, Konzeptualisierung, Analyse und Gliederung) nicht ersetzen. Wenn Textteile oder empirisches Material in ein KI-Tool eingegeben werden, beispielsweise zu Rechtschreib- und Grammatikprüfungen sowie für Übersetzungs- und Transkriptionsleistungen, liegt es an den Studierenden, den KI-Output zu überprüfen. KI-generierter Output darf nicht als eigene Leistung ausgegeben werden. Das unreflektierte und undokumentierte Übernehmen von KI-generierten Textteilen (z.B. Sätze, Absätze, Präsentationsinhalt) und das Generieren von Daten (z.B. Interviews, Beobachtungssequenzen) erfüllt das Kriterium der Eigenständigkeit nicht und ist daher verboten. Ausgenommen sind Prüfungsleistungen, deren Aufgabenstellung die Verwendung von generativen KI-Tools explizit vorsieht. Hier sind von der Seminarleitung konkrete Vorgaben zur Verwendung und Dokumentation zu machen. Die undokumentierte Nutzung von KI-Tools, gewährleistet die fachspezifische Eigenständigkeit der Prüfungsleistung nicht. Sie kann als Täuschungsversuch gemäß § 111 der ZSP-HU gelten.
Um Eigenständigkeit zu belegen, ist die Nutzung von KI-Tools entsprechend zu dokumentieren (Dokumentations-Formular) und in der Selbständigkeitserklärung auszuweisen (siehe IfEE- Webseite > Studium& Lehre > Dokumente). Die in den beiden Formularen getätigten Angaben fließen gemäß der Aufgabenstellung in die Bewertung der Prüfungsleistung ein.
B) Datenschutz, Urheberrecht und Forschungsethik
Ethnographische Forschungsdaten enthalten meist eine Fülle personenbezogener Angaben, die oft auch bei Pseudonymisierung erhalten bleiben. Die Eingabe von erhobenen Forschungsdaten (wie z.B. Interviews) in KI-Tools kann gegen das Urheberrecht, Datenschutzrichtlinien und/oder Zusagen zur Vertraulichkeit gegenüber unseren Informant*innen und Forschungspartner*innen verstoßen. Dies gilt insbesondere für generative KI-Tools, die die eingegebenen Daten außerhalb der EU speichern, denn eine Einhaltung der Datenschutzgrundverordnung ist hier nicht gewährleistet. Das Einholen einer schriftlichen Zustimmung der Forschungspartner*innen zur Nutzung von KI in der Datenanalyse ist meist nicht ausreichend, um datenschutzkonform zu arbeiten und die Vertraulichkeit von Forschungsdaten zu sichern. Werden geistig geschützte Inhalte (wie bspw. veröffentlichte lizenzierte Texte) an solche Tools übermittelt, verletzt dies in vielen Fällen das Urheberrecht.
Für alle KI-Tools ist daher zu prüfen, ob, wo und wie sie eingegebene Daten speichern, weiterverarbeiten und für eigene Zwecke (wie bspw. für das Training des Modells) nutzen. Die Verwendung von KI-Tools im Umgang mit ethnographischen Daten ist entsprechend zu unterlassen bzw. anzupassen, um Datenschutz und Urheberrecht zu gewährleisten (wie es bspw. bei den HU-internen Tools der Fall ist).[1]
IfEE Stellungnahme zu Künstlicher Intelligenz in Studium & Lehre
An unserem Institut hat das kritische und reflektierte Lernen und Lehren eine lange und lebendige Tradition. Diese Haltung möchten wir im Umgang mit sogenannter „Künstlicher Intelligenz“ (im Folgenden KI) bewahren und zugleich neu gestalten. KI verändert Universitäten das Verständnis von Wissen und selbst somit auch das bisherige Selbstverständnis von Universitäten in Frage, Wissen zu erzeugen, zu teilen und gemeinsam weiterzuentwickeln. das. Diese Veränderungen nehmen wir zum Anlass, unser Verständnis von Bildung und Forschung gemeinsam zu reflektieren, zu klären und zu erweitern. Mit dieser Stellungnahme möchten wir diese Entwicklungen am Institut einordnen, aufgreifen und eine Diskussion eröffnen.
Hier etwas ausführlicher:
Die an unserem Institut vertretene Tradition eines kritischen Lernens und Lehrens möchten wir unter den Bedingungen von sogenannter “Künstlicher Intelligenz” (im Folgenden KI) erneut betonen, neu denken und praktizieren. Für die Universitäten als Bildungseinrichtungen bietet KI gänzlich neue Arbeitsweisen und Verhältnisse zur Wissensproduktion an, die wir in dieser Stellungnahme mit Bezug auf das Lernen an unserem Institut einordnen wollen.
Als Forschungs- und Bildungsinstitut ist es für uns zentral, Wissen zu vermitteln, das befähigt, Phänomene gesellschaftspolitisch zu kontextualisieren, Machtzusammenhänge zu adressieren, in dem verbreitete Praktiken kritisch reflektiert sowie solidarische Beziehungsweisen gelebt werden. Unser vorderstes Ziel ist es deswegen, eigenständiges Denken, reflektiertes Selbstbewusstsein und kritische Mündigkeit auch im Umgang mit KI zu fördern. Wir bilden Studierende darin aus, Kulturpraktiken des kritischen Lesens und Schreibens zu erlernen. Das schließt einen kritischen Umgang mit KI-Tools ein. Dazu gehört es, Texte zu lesen und zu verstehen, Methoden-, Medien und Informationskompetenz zu erwerben, sich eigenständig schriftlich und mündlich auszudrücken, erkenntnisrelevante Problematiken und Fragen auszuarbeiten, sich in der Wissenstradition und -praxis zu situieren und die eigenen Erkenntnisse fruchtbar zu machen.
Für uns ist elementar, dass wir uns gemeinsam darüber austauschen, wie diese Ziele erreicht werden können,, und uns gemeinsam für die einzusetzen . Gerade wegen der technologischen Entwicklungen im Bereich der KI wollen wir diesen Anspruch aufrechterhalten und weiterentwickeln. Mehr noch könnte man es gerade aus unserem Fach heraus als unsere Aufgabe sehen – denn mit diesen Ansprüchen sind wir nicht nur als Institut verbunden, sondern wir haben auch unverzichtbare fachliche Werkzeuge und Zugänge, um mit der für viele überwältigenden und verunsichernden Lage sowie den nie dagewesenen Möglichkeiten für teils hilfreiche, teils gefährliche Arbeitserleichterungen umzugehen. Wir wünschen uns, dass diese Stellungnahme als Einladung verstanden wird, gemeinsam Wege zu finden, um diese Ziele gemeinsam zu kultivieren und mit Leben zu füllen.
Womit haben wir es zu tun? Was ist „generative KI” – was nicht?
Seit den 2010er Jahren kommt der sog. “generativen KI” gesellschaftlich eine immer größere Bedeutung zu. Für das wissenschaftliche Arbeiten sind insbesondere jene umfassenden Computersysteme relevant und herausfordernd, die selbst Sprache und Texte erzeugen. Diese sog. “generativen KI-Tools” (im Folgenden KI-Tools) basieren im Kontext von Spracherzeugung auf sogenannten “Large Language Models” (LLMs) und werden in der Regel als Chatbots präsentiert. Chatbots sind Computerprogramme, die meist über einfache Benutzeroberflächen vorgeben, Gespräche mit Nutzer*innen zu führen. Auf der Grundlage riesiger Datenmengen greifen LLMs wahrscheinlichkeitstheoretisch auf die häufigsten Muster zurück. Ihr “Training” bedeutet, dass riesige Datenmengen aus dem Internet abgeschöpft, statistisch komprimiert, gewichtet und modelliert werden. LLMs sind rechenintensive Softwareanwendungen. LLMs zielen darauf ab, sprachlich plausible Ergebnisse aus einer statistischen Verteilung zu synthetisieren (probabilistisch) und liefern bei identischer Eingabe immer andere Ergebnisse (nicht deterministisch).
Der anthropomorphe Begriff der Intelligenz und gängige Zuschreibungen wie „verstehen”, „lernen”, „erfahren” und „denken” wirken sich oft verzerrend auf die Wahrnehmung der möglichen Leistungen dieser Technologien aus. Die erfolgreichen Werbestrategien der Unternehmen tun ihr Übriges, dass KI-Tools für Aufgaben angewendet werden, denen sie nicht gerecht werden können.
Keine Wissensmaschine.
LLMs sind keine Träger von Wissen. Als statistisches Sprachmodell haben LLMs kein Verständnis für die Bedeutung der generierten Inhalte. Sie arbeiten nicht mit Wissen, sondern operieren mit Buchstaben- und Wortabfolgen. LLMs „verstehen” Sprache nicht wie Menschen, da sie deren Richtigkeit nicht nachvollziehen und gewährleisten können. Der Output der Modelle ist vielmehr eine Simulation von Wissen, der Menschen Bedeutungen zuschreiben und Sinn geben können. Aufgrund ihrer Funktionsweise sind LLMs systematisch anfällig für Uneindeutigkeit, Voreingenommenheit und Fehlinformationen.
Kein*e Gesprächspartner*in.
Da LLMs als Chatbots implementiert werden, entsteht die Vorstellung, dass es sich bei den „Gesprächen“ um echte Interaktionen oder um Kommunikation handelt, gerade weil sich Chatbots selbst als Tutor*innen, Mentor*innen oder Therapeut*innen bezeichnen. Da Chatbots auf Wahrscheinlichkeitslogiken basieren, geben sie aus, was implizit im Prompt bereits angelegt ist.
Keine Ressource von und für alle.
KI-Tools sind keine frei verfügbaren öffentlichen Werkzeuge. Sie sind bis dato kein Gemeingut, sondern im privaten Eigentum von gewinnorientierten Unternehmen. Unter anderem wegen kostenpflichtigen Accounts und verschiedenen Vorrichtungen, mit Daten zu zahlen, sind Zugänge ungleich. Die Privatisierung von Wissen erfährt hier neue Dimensionen.
Keine Datenschutzkonformität.
Der kommerzielle Charakter der gängigen generativen KI-Tools macht überdies einen Upload personenbezogener Daten datenschutzrechtlich höchst problematisch. Auch das hochladen urheberrechtlich geschützten Materials kann in vielen Fällen als Vervielfältigung des Werkes gewertet werden und stellt dann oftmals eine Urheberrechtsverletzung dar. Aus diesem Grund sind die AGB und der Serverstandort der Instrumente sowie die rechtlichen Bedingungen verwendeter Daten oder hochgeladener Werke vorab sorgsam zu prüfen. Die Herkunft, Produktion und Verarbeitung der Daten wird dabei weder ausgewiesen noch beruhen sie auf dem Einverständnis der Autor*innen, deren online verfügbare Texte für privatisierte Wertschöpfung genutzt werden. Die KI überschreitet dabei Grenzen zum Plagiat und macht es zugleich unkenntlich. Unabhängig von der fortschreitenden technischen Optimierung der hier kurz umrissenen Sprachmodelle bleiben die grundlegenden Problematiken der Funktionsweise, der Urheberrechtsverhältnisse, des Datenschutzes und des Ressourcenverbrauchs bestehen.
Kein autonomes System.
LLMs beruhen auf menschlicher Arbeit und Ausbeutung. Der Output ist nicht eigenständig von der Maschine produziert, sondern beruht auf von Menschen produziertem Wissen, das unter schlechten Arbeitsbedingungen aufbereitet wird (von sogenannten „Gig Workern"). Da die Leistung von LLM stark von großen Datensätzen abhängt, sind die leistungsstärksten Modelle voller Vorurteile und Stereotypen und dominanten Standpunkten, die aus im Internet gesammelten Inhalten stammen. Dazu gehören Rassismen, Sexismen und Patriarchalismen, die in die Datensätzen eingeschrieben sind und durch die Sprachmodelle automatisiert reproduziert und verstärkt werden. Während Nachweise eine potenzielle Rechenschaftspflicht ermöglichen, verfügen undokumentierte Schulungsdaten keine Rückgriffsmöglichkeit. Uns ist dabei bewusst, dass dies ebenso für die Traditionen der Universität gelten kann, deren Wissenstradition und -praxis auf Aneignung und Ausbeutung beruht(e). Sie ist zugleich stets ein Ort kritischer Wissensproduktion. Der Einzug von KI verändert dieses Verhältnis und muss daher neu bedacht werden.
KI-Tools belasten die Umwelt.
LLMs bauen auf immensen natürlichen Ressourcen auf und sind keine nachhaltigen Technologien. Da LLMs sehr rechenintensiv sind, verbrauchen sie deutlich mehr Strom und Wasser als eine einfache Internetsuche. KI-Rechenzentren verbrauchen doppelt so viel Wasser wie Konventionelle. Mit dem fortschreitenden Ausbau von KI-Infrastrukturen erhöht sich indirekt die Abhängigkeit von fossilen Energien.
***
Wir sind überzeugt, dass KI-Tools die intellektuellen Fähigkeiten der Wissenschaften und unser Fach nur sehr bedingt unterstützen, diese aber nicht abkürzen und schon gar nicht automatisieren können. Daher ermutigen wir einander:
Lasst es euch nicht nehmen, …
… eigen(ständig) zu schreiben.
Sprache ist unser Handwerkszeug. Nur durch eine regelmäßige Schreibpraxis lässt sich diese zentrale Praxis angemessen bedienen und kreativ einsetzen. Ethnographisches Schreiben ist nicht nur die einfache Wiedergabe von Ergebnissen oder Theorien, sondern ein integraler Teil des Forschungs-, Denk- und Reflexionsprozesses in unserem Fach und darum seit langem Gegenstand intensiver Diskussionen (vgl. die Writing Culture-Debatte). Die Entwicklung einer persönlichen Erzählstimme, eines selbstbewussten und eigenen Denk- und Schreibstils und einer Forschungshaltung sind zentrale Lernziele, die es gegen die wahrscheinlichste und durchschnittliche Wortwahl, die LLMs vervielfachen, zu kultivieren gilt.
Wegen der breiten Datenbasis und da das Wahrscheinlichste gleichzeitig das Durchschnittliche und Unspezifische ist, generieren die Modelle meist sehr allgemeinen und generischen Inhalt. Beteiligen wir uns an der massenhaften Reproduktion von dieser Art von Texten, bedeutet dies einen Verlust an sprachlicher und inhaltlicher Vielfalt und die Vermengung und Unsichtbarmachung von Wissenstraditionen, -formen sowie Schreibstilen.
…. eigen(ständig) zu lesen.
Eine persönliche Auseinandersetzung mit kulturanthropologischen Darstellungen und Analysen, Primär- und Sekundärliteratur lässt sich nicht ausklammern und ist Basis der Aus- und kontinuierlichen Weiterbildung für uns alle. Eine essentielle ethnographische Fähigkeitist es, sich in intensiver Auseinandersetzung mit Texten zu befassen. . Diese Fähigkeit wird während des Studiums an unserem Institut erlernt, trainiert und verfestigt. Das Lesen von Texten schafft oft erst den Raum zur Reflexion und eröffnet Wege und Inspirationen zum Nachdenken, Weiter- und und Andersdenken.
… eigen(ständig) zu üben.
In Seminarleistungen und auch Prüfungsleistungen geht es primär darum, eine eigene wissenschaftliche Auseinandersetzung mit Themen einzuüben. In dieser oft langwierigen, kleinteiligen und manchmal auch mühsamen Arbeit soll eine eigene Forscher*innenidentität und ein reflektierter intellektueller Horizont sich herausbilden . Fehler und Unzulänglichkeiten gehören gerade im Studium ganz alltäglich zu diesem Lernprozess. Seminare bieten den Raum, diesen Lernprozess zu entfalten. Dies können wir nicht leisten, wenn wir uns in unserer Lektüre und Texten nicht selbst zeigen und uns gewissermaßen hinter generiertem content verstecken.
… eigen(ständig) zu analysieren.
Beim Selbermachen erweitern wir nicht nur unsere Fähigkeiten. Diese Prozesse selbst zu begleiten und zu verantworten ist auch notwendig, um wissenschaftliche Standards zu erfüllen. Ein unhintergehbarer Anspruch im wissenschaftlichen Erkenntnisprozess ist die Nachvollziehbarkeit und Rückverfolgung von Datenpunkten. LLMs gewährleisten dies nicht: Weder wissen wir bei LLMs an welchem Datenkorpus sie genau trainiert wurden, noch haben wir Einblick in die Algorithmen, die in dem LLM wirken.. Unsere Aufgaben der nachvollziehbaren Datenverarbeitung, der bewussten Interpretation, Identifikation und Kategorisierung, sowie der Offenlegung und Reflexion unserer Methoden und theoretischen Setzungen, sind mit der Nutzung von LLMs nicht gewährleistet. Generierter Output kann weder Verständnis-, Interpretations- und Analyseprozesse nicht ersetzen. Denn beim ethnographischen Arbeiten entstehen auch Struktur und Form des Textes aus der Analyse der Daten, die unbedingt eigenständig durchgeführt werden muss.
… kreativ zu sein.
Ziel des Studiums in unserem Fach ist, eine eigene, spielerische Kreativität zu fördern. Dass KI-Nutzungkreativ sei, wird durch den Eindruck erzeugt, dass bei Befehlen für kreativen Output ein höherer Grad an Zufall in der Wahrscheinlichkeitsrechnung eingestellt wird. Ethnographisches Arbeiten geht dagegen mit intellektueller Neugier und situierter Praxis einher. Die Fähigkeit des sogenannten Prompt Engineerings & Editings” bedeutet, auf Distanz zur Umwelt wie eine rechnende Maschine zu reagieren und Befehle daran auszurichten. Damit ist keine kritische Fähigkeit verbunden.
… euch einzubinden, zu begegnen und zu vertiefen.
Die soziale Praxis des Lehrens und Lernens ist das wichtigste Element in der Wissensproduktion. Interaktion untereinander –sowohl untereinander als auch zwischen Studierenden und Lehrenden – kann nicht durch generative Sprachmodelle vermittelt und ersetzt werden. So wie Lehren nicht nur aus Informationsvermittlung besteht, ist Lernen kein passiver, sondern ein aktiver und auch grundlegend sozialer Prozess der Wissensproduktion. Mit all seinen Schwierigkeiten ermöglicht dieser Prozess, verantwortungsbewusstes Handeln auf Basis von Wissen und die Erzeugung neuen Wissens und neuen Handelns. Im Gegensatz zu LLMs können wir unsere Fähigkeiten trainieren, die Situiertheit jeglichen Wissens zu beachten und unsere Position als Forscher*in zu reflektieren. Diese Grundlagen unseres Fachs und der machtkritische Anspruch unserer Arbeit gehen mit KI verloren.
Wir laden euch dazu ein, am IfEE gemeinsam weiterhin einen kritischen Blick zu kultivieren und Gesellschaft ethnographisch mitzugestalten. Unsere Lern- und Lehrpraxis am Institut nehmen wir da nicht aus: Unser herrschaftskritischer und demokratiefördernder Zugang gilt auch für den Umgang mit KI-Tools und LLMs. Sprachliche Wahrscheinlichkeit, ungewisse Datengrundlagen, unterschlagene Quellen, kapitalistische Unternehmensmodelle, sowie ausbeuterische und ressourcenverschwendende Strukturen sind für diesen Anspruch als Arbeitsgrundlage schwer hinzunehmen und auch als Hilfswerkzeuge kritisch zu bewerten. Wir wissen zugleich, dass es immer auch eine anhaltende Herausforderung und ein politischer Kampf ist, die von uns angestrebte Art von Lehr- und Forschungspraxis zu realisieren. Die KI-Regelungen des Instituts sind ein gemeinsamer Ausgangspunkt, um die Lernbedingungen am Institut in Zeiten von KI gemeinschaftlich weiterzuentwickeln.
[1] Ausführlich hierzu der Abschnitt “Datenschutz und Geheimnisschutz” im Leitfaden zum Einsatz von generativen KI-Werkzeugen in Forschung, Lehre und Verwaltung an der Humboldt-Universität zu Berlin.