Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Dieses Buch präsentiert ein einjähriges empirisches Forschungsprojekt von Masterstudierenden der Frankfurt University of Applied Sciences zu den Auswirkungen generativer Künstlicher Intelligenz (GenKI) auf Studium und Hochschulwesen. Basierend auf Befragungen von Studierenden und Dozierenden sowie der Analyse von Abschlussnoten untersucht es Wahrnehmung, Nutzung und Integration von GenKI in Lehr- und Prüfungsprozesse. Zentrale Ergebnisse, darunter das KI-Paradoxon, zunehmendes Vertrauen bei gleichzeitiger kritischer Distanz, zeigen Chancen, Risiken und Implikationen für die akademische Praxis auf und liefern wertvolle Hinweise zur zukünftigen Gestaltung von Lehre, Prüfung und Forschung im KI Zeitalter.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 228
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Masterstudierende im Bereich Digital Business Management an der Frankfurt University of Applied Sciences führten ein einjähriges empirisches Forschungsprojekt durch, um die Auswirkungen generativer Künstlicher Intelligenz (GenKI) auf das Hochschulwesen und Studium zu untersuchen. Grundlage waren Befragungen unter Studierenden und Dozierenden sowie eine Analyse von Abschlussnoten.
Das Projekt untersucht die Wahrnehmung und Nutzung von GenKI durch Studierende und Lehrende, ihre Einbindung in Lehr- und Prüfungsprozesse sowie die Auswirkungen auf akademische Leistungen. Ziel ist es, Chancen und Herausforderungen des KI-Einsatzes im Hochschulbereich aufzuzeigen und Impulse für die zukünftige Integration in die akademische Praxis zu geben. Obwohl die Studien nicht repräsentativ sind, geben sie doch erste Hinweise darauf, wie generative KI insbesondere in die Lehre eingebunden werden kann.
Ein zentrales Ergebnis ist das sogenannte KI-Paradoxon: Je intensiver Studierende GenKI nutzen, desto stärker wächst ihr Vertrauen in die Technologie – selbst bei dem Bewusstsein, dass KI fehlerhafte oder irreführende Inhalte erzeugen kann. Mit zunehmender Erfahrung steigt der Einsatz in akademischen Arbeiten, insbesondere in Abschlussarbeiten, während gleichzeitig die Bereitschaft sinkt, die generierten Inhalte kritisch zu prüfen.
Prof. Dr. Swen Schneider
Vordere Reihe: Alia Anjum Rizvi, Madinah Mehrabuddin, Angela Altomare, Anuja Ariyarasa, Julia Gimbel, Paula Vanselow. Hintere Reihe: Swen Schneider, Hamdan Razaq, Chris Meier, Philip Kreis, Kerem Tekin, Marcel Crone, Zakaria Salah.
Einsatz von KI in Lehre und Forschung
Swen Schneider
Der Einfluss generatitiver KI auf Abschlussarbeiten und Kolloquien an der FraUAS aus Sicht der Dozenten
Marcel Crone, Philip Kreis
Eigenleistung bei wissenschaftlichen Arbeiten im Umbruch
Anuja Ariyarasa, Zakaria Salah
KI in schriftlichen Prüfungsformaten
Madinah Mehrabuddin, Alia Anjum Rizvi, Hamdan Razaq
Vertrauen in Generatitive KI
Julia Gimbel
KI in der Prüfungsvorbereitung
Angela Altomare, Paula Vanselow
KI-Tutorensysteme
Chris Meier, Kerem Tekin
1. EINSATZ VON KI IN LEHRE UND FORSCHUNG
1.1 KI IN DER LEHRE
1.1.1 Automated Content Generation mit Large Language Models (LLMs)
1.1.2 Automated Decision Making und Automated Essay Scoring (AES)
1.1.3 Mit Avataren als Ergänzung von Dozenten zum Omnichannel-Learning
1.1.4 Neue Kriterien für die Bewertung von Abschlussarbeiten
1.2 KI IN DER FORSCHUNG
1.2.1 Wissensproduktion im Zeitalter Künstlicher Intelligenz
1.2.2 Transformation in der Forschung
1.3 DIE ZUKUNFT DES LEHRENS UND LERNENS AN HOCHSCHULEN
1.3.1 Kommt es zu einer Hyperautomatisierung in der Hochschule
1.3.2 Entwicklung von Future Skills im Hochschulkontext
1.4 FAZIT: WAS MUSS MAN ZUKÜNFTIG NOCH WISSEN, WENN CHATGPT JEDERZEIT UND ÜBERALL VERFÜGBAR IST?
LITERATURVERZEICHNIS
2. GRUNDLAGEN ALS AUSGANGSPUNKT EMPIRISCHER UNTERSUCHUNGEN
2.1 BEGRIFFE IM ZEITALTER GENERATIVER KI
2.1.1 Künstliche Intelligenz
2.1.2 Definition generative KI und Einordnung im wissenschaftlichen Arbeiten
2.1.3 Institutionelle Regelungen und rechtlicher Rahmen
2.1.4 ChatGPT
2.2 DATENERHEBUNG UND STICHPROBE
2.2.1 Forschungsdesign und Vorgehen
2.2.2 Forschungslücke
2.2.3 Erhebungsinstrument und Datenerhebung
2.3 DESKRIPTIVE STATISTIKEN
2.3.1 Soziodemografische Statistiken
2.3.2 Nutzung und Erfahrung mit generativer KI im Rahmen des Studiums
2.3.3 Einfluss von KI
2.4 LIMITATIONEN DER STUDIEN
2.4.1 Limitation der Arbeit: „GenKI bei Abschlussarbeiten aus Sicht der Dozenten“
2.4.2 Limitationen der Arbeit „GenKI bei Abschlussarbeiten aus Sicht der Studierenden“
LITERATURVERZEICHNIS
GENERATIVE KI BEI ABSCHLUSSARBEITEN AUS SICHT DER DOZENTEN
3. DER EINFLUSS GENERATIVER KI AUF ABSCHLUSSARBEITEN UND KOLLOQUIEN AN DER FRAUAS AUS SICHT DER DOZENTEN
3.1 Noten unter Beobachtung: Der Einfluss von KI auf die Hochschulprüfung
3.2 Methodisches Vorgehen zur Analyse von KI-Einflüssen auf Prüfungsprozesse
3.3 Was Lehrende wirklich denken: KI in Abschlussarbeiten – empirische Einblicke aus Umfrage und Datenanalyse
3.4 Zwischen Wandel und Widerstand – Was die Ergebnisse zeigen
3.5 Zentrale Erkenntnisse und Implikationen
Literaturverzeichnis
GENERATIVE KI BEI ABSCHLUSSARBEITEN AUS SICHT DER STUDIERENDEN
4. EIGENLEISTUNG BEI WISSENSCHAFTLICHEN ARBEITEN IM UMBRUCH
4.1 Zwischen Anspruch und Anpassung
4.2 Grundlagen zu Eigenleistung und KI im wissenschaftlichen Arbeiten
4.3 Methodisches Vorgehen
4.4 Eigenleistung unter dem Mikroskop
4.5 Eigenleistung im Spiegel der Reflexion
4.6 Neuverhandlung wissenschaftlicher Eigenleistung im KI-Zeitalter
Literaturverzeichnis
5. KI IN SCHRIFTLICHEN PRÜFUNGSFORMATEN
5.1. Prüfungskultur im Wandel: Zur Notwendigkeit dieser Untersuchung
5.2. KI in Hochschulen im Spiegel von Praxis und Forschung
5.3 Von der Theorie zur Datengrundlage
5.4 Empirische Einblicke in studentische Perspektiven
5.5 Zwischen Integration und Abgrenzung
5.6 Schlussfolgerungen und Implikationen für die Hochschulpraxis
Literaturverzeichnis
6. VERTRAUEN IN GENERATIVE KI
6.1. Einleitung
6.2. Definitionen und Theorien
6.3. Methodik
6.4. Auswertung
6.5. Diskussion
6.6. Fazit
Literaturverzeichnis
7. KI IN DER PRÜFUNGSVORBEREITUNG
7.1 Themenhintergrund und Zielsetzung
7.2 Grundlagen der Prüfungsangst und Veränderungen der Kompetenzen: Theoretische Modelle und Forschungslücken
7.3 Auf dem Weg zur Erkenntnis
7.4 Ergebnisse der Datenanalyse
7.5 Zwischen Erkenntnis und Bedeutung
7.6 Vom Ausgangspunkt zu den zentralen Tendenzen
Literaturverzeichnis
8. KI-TUTORENSYSTEME
8.1 Zwischen Akzeptanz und Ablehnung – Hochschulen im KI-Dilemma
8.2 Wissen schafft Verständnis – Die Theorie hinter dem KI-Tutor
8.3 KI statt Präsenz?
8.4 Der Weg zur Antwort
8.5 Nutzung ja – Zahlung nein
8.6 KI überzeugt – mit Grenzen
Literaturverzeichnis
KERNFAZIT DIESER VERÖFFENTLICHUNG
Swen Schneider
Abstract
Die rasante Entwicklung generativer KI verändert Lehre und Forschung an Hochschulen grundlegend. Automatisierte Inhalte, Bewertungen und interaktive Avatare erweitern Lern- und Prüfungskulturen, während neue Kompetenzen wie Prompting, kritisches Denken und Data Literacy an Bedeutung gewinnen. DDie Bewertung von Abschlussarbeiten verlagern sich von reiner Inhaltsbewertung hin zu reflektierenden und prozessbezogenen Anteilen, wodurch Bewertungsmaßstäbe neu definiert werden müssen. Diese Transformation markiert einen epistemologischen und didaktischen Paradigmenwechsel, der Hochschulen zu klaren Leitlinien und ethischen Standards im Umgang mit KI verpflichtet.
Schlagwörter: Prompting, Abschlussarbeiten, Automated Essay Scoring, Omni-Channel-Learning, Agentic AI, Hyperautomatisierung,
„A fool with a tool is still a fool“ – gilt diese Aussage auch noch im Zeitalter der Künstlichen Intelligenz? Mit der rasanten Entwicklung greift die Künstliche Intelligenz (KI) immer stärker in unseren Alltag ein und verändert nicht nur unser Verhalten, sondern auch unsere Gewohnheiten.
Generative KI-Systeme wie ChatGPT, GoogleGemini oder Grok, etc. nehmen dabei auch im akademischen Bereich zunehmend Raum ein. Im Folgenden wird untersucht, wie
a. generative KI die Lehre und das Lernen sowie
b. die Erstellung und Korrektur von Abschlussarbeiten
beeinflusst.
Als Ergebnis kann festgehalten werden, dass durch die zunehmende Hyper-Automatisierung in Lehre und Forschung traditionelle Fähigkeiten (wie Social Skills oder kritisches Denken) als auch technisches Anwenderwissen (wie Prompting und Tooling) an Bedeutung gewinnen werden. Der Schwerpunkt von Abschlussarbeiten verlagert sich zunehmend vvon inhaltlicher Ausarbeitung hin zu reflektierenden und prozessbezogenen Anteilen. Die Bewertungskriterien werden daher vermehrt den Weg der Erkenntnisgenerierung als das fertige Ergebnis in den Mittelpunkt stellen.
1.1 KI in der Lehre
1.1.1 Automated Content Generation mit Large Language Models (LLMs)
Computer „denken“ nicht im gleichen Sinne wie Menschen. Als Alan Turing 1950 den Turing-Test vorschlug, definierte er künstliche Intelligenz so: Eine Maschine gilt als intelligent, wenn ein Mensch A in einer Unterhaltung nicht mehr zwischen den Antworten der Maschine und denen eines anderen Menschen B unterscheiden kann (siehe Bild unten). Obwohl dieser Test über 70 Jahre lang als Maßstab galt, haben bahnbrechende Innovationen und rasante Fortschritte in der Künstlichen Intelligenz (KI) diese Perspektive erst jetzt verändert. Moderne KI-Systeme verfügen über Fähigkeiten, die weit über das hinausgehen, was Turing damals für möglich hielt, und werfen die Frage auf, wie wir „Denken“ im Zusammenhang mit Computern heute neu definieren sollten (Turing, 1950).
Der Turing Test als Prüfstein der KI ist nun in Zeiten der LLMs zur Realität geworden
Abbildung 1: Der Turing Test
Während allgemeine Künstliche Intelligenz ein breites Fähigkeitsspektrum abdeckt, fokussiert sich generative KI speziell auf Sprache, Text und Bild, indem sie Wahrscheinlichkeiten für Wörter berechnet und vor allem das nächste Token vorhersagt. Dieser Prozess beginnt mit der Tokenisierung, bei der der Eingangstext in kleinere Einheiten zerlegt wird, die sogenannten Tokens. Diese Tokens können dabei Wörter, Wortteile oder auch Symbole sein, je nachdem, wie die Tokenisierung angelegt ist. Anschließend werden die Tokens in Embeddings umgewandelt, welche numerische Repräsentationen der Tokens in einem hochdimensionalen Raum darstellen. Diese EEmbeddings erlauben es dem Modell, die Bedeutung der Tokens zu erfassen und ihre kontextuellen Beziehungen zu verstehen. Die Embeddings werden dann durch ein neuronales Netz, in der Regel ein Transformer-Modell, verarbeitet. Diese Modelle bestehen aus mehreren Schichten, die Transformationen auf die Daten anwenden und dabei lernen, wie bestimmte Tokens in verschiedenen Kontexten miteinander interagieren. Ein prominentes Beispiel für solch ein Modell ist GPT (Generative Pretrained Transformer). Wie in der nachstehenden Grafik dargestellt sind GPT-Modelle darauf trainiert, riesige Textmengen zu analysieren und zu verstehen, welche Wörter und Phrasen in bestimmten Kontexten häufig auftreten, um dann den nächsten Token, basierend auf der bisherigen Eingabe, vorherzusagen (Buck 2025).
Ein wichtiger Bestandteil dieses Prozesses ist das Prompting, bei dem der Nutzer dem Modell eine Eingabeaufforderung gibt, die als Ausgangspunkt für die Textgenerierung dient. Durch präzises Prompting kann das Modell gezielt auf spezifische Anforderungen reagieren und passende Texte generieren. Auf diese Weise wird der Text Schritt für Schritt aufgebaut, indem das Modell für jeden neuen Schritt die Wahrscheinlichkeit für den nächsten Token berechnet und den wahrscheinlichsten Token auswählt (Paaß 2023).
LLMs „denken“ anders als Menschen – Sie rechnen nur Wahrscheinlichkeiten aus
Abbildung 2: LLM (Large Language Modells) und ihre Funktionsweise
Mit der heutigen Hardware, insbesondere den leistungsstarken Grafikchips, ist die Entwicklung von Large Language Models wie ChatGPT oder Google Gemini nun Realität geworden. Diese Technologien führen zunehmend dazu, dass wir Menschen immer weniger zwischen menschlich und künstlich erzeugten Inhalten unterscheiden können – etwa bei Fake News, gesprochener Sprache, Bildern oder künftig auch Videos (Deepfakes). In Zukunft wird es daher notwendig sein, IIntermediäre einzusetzen, wie zum Beispiel vertrauenswürdige KI-Agenten (Agentic AI), die vorab die Quellen und die Vertrauenswürdigkeit von Inhalten prüfen. Erst wenn diese Agenten die Informationen validiert haben und mit einer bestimmten Wahrscheinlichkeit als vertrauenswürdig einstufen, werden wir uns mit den Inhalten auseinandersetzen.
Auch in der Wissenschaft wird es für uns Menschen zunehmend schwieriger, von Personen verfasste Texte von maschinell generierten Inhalten zu unterscheiden. Daher wird es immer wichtiger, die Qualität und den Wahrheitsgehalt von Antworten kritisch zu überprüfen – insbesondere dann, wenn diese lediglich mit einer gewissen prozentualen Wahrscheinlichkeit richtig sein könnten.
1.1.2 Automated Decision Making und Automated Essay Scoring (AES)
Nicht nur die Generierung, sondern auch die Überprüfung und Bewertung von Texten kann zunehmend automatisiert erfolgen. Ein zentrales Anwendungsfeld stellt dabei das Automated Essay Scoring (AES) dar – ein Teilbereich der automatisierten Entscheidungsfindung (Araujo 2014), der sich auf die Bewertung schriftlicher Arbeiten, insbesondere im wissenschaftlichen und bildungsbezogenen Kontext, konzentriert. AES-Systeme nutzen Verfahren der natürlichen Sprachverarbeitung (NLP), des maschinellen Lernens (ML) und der künstlichen Intelligenz (KI), um Texte automatisiert zu analysieren und zu bewerten. Ziel ist es, menschliche Prüfer zu entlasten und gleichzeitig schnelles, konsistentes Feedback zu ermöglichen. Hierzu werden aus den eingereichten Texten Merkmalsvariablen extrahiert – etwa zur Grammatik, Rechtschreibung, Wortwahl, inhaltlichen Struktur oder stilistischen Ausprägung – und statistisch zu einer Gesamtnote zusammengeführt (Ramesh 2022). Während frühere Systeme noch manuell definierte Regelwerke erforderten, ermöglicht der Einsatz generativer KI heute eine deutlich flexiblere, effizientere und benutzerfreundlichere Implementierung. Zahlreiche kommerzielle Anbieter bieten mittlerweile entsprechende Lösungen an (Ifenthaler 2025).
Der europäische AI Act schreibt vor, dass bei automatisierten Entscheidungsprozessen der Mensch die letztendliche Entscheidungsverantwortung tragen muss (Human-In-The-Loop). Dem steht jedoch der Ansatz der algorithmischen Autorität gegenüber. Dieser beschreibt die zunehmende Tendenz, algorithmischen Systemen aufgrund ihrer vermeintlichen Objektivität und Effizienz Entscheidungskompetenz und Legitimität zuzuschreiben. Dadurch werden menschliche Urteile zunehmend durch datengestützte, jedoch häufig intransparente Prozesse ersetzt, was die Nachvollziehbarkeit und kritische Auseinandersetzung erschwert. Da viele Menschen die zugrunde liegenden Daten und Algorithmen nicht vollständig verstehen und dies oft nicht eingestehen, folgen sie algorithmischen Empfehlungen meist ohne Widerspruch – selbst dann, wenn berechtigte Zweifel bestehen.
Bei automatisierten Entscheidungen soll es nach dem EU AI Act immer einen HITL (Human-In-The Loop), einen Menschen als letzte Entscheidungsinstanz geben
Abbildung 3: Automatisierte Entscheidungen (https://dataethics.eu/cpdp-2017-ethics-age-intelligent-machines/)
Automatisierte Entscheidungen finden dann Akzeptanz, wenn sie nachvollziehbar sind. Eine wichtige Forschungsrichtung in der KI ist daher die Erklärbare Künstliche Intelligenz (XXAI – Explainable AI), die darauf abzielt, die Funktionsweise und Entscheidungen von KI-Systemen transparent zu machen. Selbst wenn eine Erklärungskomponente vorhanden ist, ist es entscheidend, dass eine menschliche Eskalationsstufe für die Klärung von Unstimmigkeiten besteht. Dies schafft Vertrauen und ermöglicht Korrekturen bei Fehlern oder unerwarteten Ergebnissen. Ein oft vorgebrachtes Argument für den Einsatz von KI ist, dass automatisierte Systeme weniger voreingenommen reagieren und somit neutralere Entscheidungen treffen können als Menschen (Haried und Schneider 2025). Dies könnte dazu beitragen, bestehende menschliche "Biases" (Voreingenommenheit) zu reduzieren. Es gibt aber auch das gegenteilige Argument, dass KI-Systeme Verzerrungen (Bias) enthalten können, weil sie auf historischen Daten basieren, die Vorurteile oder Ungleichheiten widerspiegeln. Dies kann zu unfairen oder diskriminierenden Ergebnissen führen und stellt ein häufig genanntes Risiko beim Einsatz von KI dar.
Transparenz, Nachvollziehbarkeit sowie die Möglichkeit zu Einspruch und menschlicher Klärung sind entscheidende Faktoren für die Akzeptanz automatisierter Entscheidungen. Automatisierte Essaybewertung (Automated Essay Scoring, AES) ist ein vergleichsweise junges Forschungs- und Anwendungsfeld. Entsprechend variieren die technologischen Ansätze und Schwerpunktsetzungen der Anbieter. Zu den führenden Unternehmen zählen unter anderem Educational Testing Service, Pearson, WriteToLearn und Gradr.1 Letztlich wird sich ein wechselseitiges Spannungsverhältnis zwischen automatisierter Erstellung und automatisierter Bewertung von Arbeiten entwickeln – vergleichbar mit dem dynamischen Wechselspiel zwischen Schadsoftware und Antivirensoftware.
1.1.3 Mit Avataren als Ergänzung von Dozenten zum Omnichannel-Learning
Wie kann die Sinnhaftigkeit und die Motivation des Lernens gefördert werden, wenn Künstliche Intelligenz in immer mehr Bereichen bereits bessere Leistungen erbringt? Gleichzeitig entwickelt sich ChatGPT stetig weiter. Während im Jahr 2023 der Prompt, „ob Studierende ChatGPT nutzen sollten, um sich Hausarbeiten oder sogar Abschlussarbeiten schreiben zu lassen“ zu bei ChatGPT einer Verneinung führte (Dilger 2023), hat sich diese Einschätzung mit dem gleichen Prompt von ChatGPT 2025 deutlich verändert.2
Mittlerweile können aus Texten oder Vorlesungsunterlagen automatisierte Avatare als digitale Lehrassistenten erstellt werden, die im Bewegtbild mit Menschen interagieren. Solche Avatare sind bereits in der Lage, interaktiv Gespräche mit Menschen zu führen und auf ihre Fragen einzugehen. So gibt es z.B. bereits abgeschlossene Forschungsprojekte am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), wie etwa "VoluProf"3. In diesem Projekt wurde ein interaktiver 3D-Avatar entwickelt, der mithilfe eines Sprachmodells Fragen beantworten kann. Die Interaktivität und Qualität der Antworten lässt sich weiter verbessern, wenn Professoren zusätzliche Daten, etwa aus Rankings oder Lehrmaterialien, zur Verfügung stellen.
Solche Avatare können mehr Geduld und Empathie zeigen, als es viele menschliche Lehrkräfte leisten können oder wollen. Dabei können 224/7-Avatare, den Lernenden individuell und im eigenen Tempo begleiten und somit die Lernleistung deutlich verbessern. Derartige Avatare können im Lernprozess direkt Feedback geben und Probeausarbeitungen beliebig oft zügig korrigieren. Automatisierte Korrekturen bilden zusammen mit Gamification-Elementen und Belohnungssystemen wichtige Motivationsfaktoren beim Lernen. Da die Aufmerksamkeitsspanne abnimmt, müssen weitere Komponenten in den Lernprozess eingebunden werden. Intelligente KI-Agenten unterstützen dabei durch schnelles, permanent verfügbares personalisiertes Feedback, welches vielen Lehrkräften aufgrund begrenzter Ressourcen kaum in diesem Umfang möglich wäre.
Untersuchungen zeigen, dass die Akzeptanz von automatisiertem Essay-Scoring hoch ist, wenn es als Trainingshilfe mit schnellem Feedback eingesetzt wird. Beim Einsatz in entscheidenden Prüfungen sinkt die Akzeptanz jedoch rapide, und die Unsicherheit steigt – auch aufgrund fehlender Erfahrung und geringem Vertrauen in solche Systeme (Haried und Schneider 2025).
Damit eröffnet sich ein neuer Lernkanal. Ein LLernkanal ist der Weg wie sich jemand Wissen aneignen kann. Hierbei beschreibt der Lernkanal die bevorzugte Sinnesmodalität, über die eine Person Informationen aufnimmt und verarbeitet. In der Lernpsychologie werden typischerweise visuelle, auditive und kinästhetische Lerntypen unterschieden, wobei diese Kategorien auf bevorzugte Sinneskanäle bei der Informationsaufnahme und -verarbeitung verweisen. Die Theorie der Lernkanäle basiert auf der Annahme, dass individuelles Lernen effektiver ist, wenn es dem bevorzugten Wahrnehmungsstil entspricht (vgl. z.B. VAK-Modell in (Fleming und Mills 1992)). Omnichannel-Lernen ermöglicht es, Lerninhalte über verschiedene Kanäle hinweg nahtlos zu nutzen, sodass Lernende jederzeit und überall darauf zugreifen können. Dadurch wird ein flexibles, vernetztes und personalisiertes Lernerlebnis geschaffen, das sich an individuelle Bedürfnisse anpasst (Tabares und Vallejo 2020). Omnichannel bedeutet auch, dass die Lernenden nahtlos von einem Lernkanal zu einem anderen Wechseln können und wieder zurück ohne den Lernpfad verlassen zu müssen. In einer weiteren Stufe der personalisierten Unterstützung passen KI-Tools die Inhalte flexibel an Kontext und Stimmung und zur Verfügung stehender Zeit (oder benötigter Zeit) für das Lernen an. Omnichannel-Lernen ermöglicht es somit Lernenden, mit einem bevorzugten Lernkanal zu beginnen und je nach individueller Vorliebe, aktuellem Befinden oder konkreter Lernsituation flexibel zwischen verschiedenen Kanälen zu wechseln. Diese Form der Personalisierung sorgt dafür, dass das Gehirn kontinuierlich mit optimal angepasstem Input versorgt wird, was die kognitive Verarbeitung und den Lernerfolg unterstützen kann. Ein solcher Lernprozess ist ein zeitlich verlaufender, individueller oder sozial eingebetteter Vorgang, in dem Wissen, Fähigkeiten, Einstellungen oder Verhaltensweisen durch Erfahrung, Übung, Reflexion oder Interaktion erworben, verändert oder gefestigt wird. Dieser Lernprozess verändert sich fast nicht, da sich unser Gehirn nicht in der Geschwindigkeit der generativen KI weiterentwickelt. Nun treten zunehmend individualisierte Lernprozesse in den Vordergrund. Während früher das gesprochene Wort, die Vorlesung und später das Buch im Zentrum standen – ergänzt durch interaktive E-Learning-Systeme –, erweitert sich das Spektrum nun um einen weiteren Lernkanal: den persönlichen Lernbot (Zinn 2023). Dieser agiert nicht nur interaktiv, sondern lernt den Nutzer mit jedem Prompt besser kennen und unterstützt ihn faktenbasiert wie auch emotional im Lernprozess.
Das Omnichannel-Learning erhöht die „Produktionskosten“ und die Personalisierung
Abbildung 4: Omnichannel-Learning
Im Rahmen von Omnichannel-Learning wird sich auch die RRolle des Lehrenden ändern mit einem höheren Anteil an Beratung und Begleitung von Lernenden. Der Dozent agiert als Katalysator, der vermehrt als Lernbegleiter, Coach und Kurator, als auch in der Qualitätssicherung in Form von Wissensüberprüfungen agiert. Der Anteil der Wissensvermittlung wird Rückläufig sein, da sich die Lernenden zunehmend auf die verschiedenen Lernkanäle aufteilen. Die Erstellung von Omnichannel-Lerninhalten wird zunehmend so aufwändig, dass sie von Einzelpersonen kaum noch leistbar ist. Der Anspruch an professionelle und multimedial gestaltete Inhalte, welche mit generativer KI ergänzt wird steigt deutlich. Daher werden künftig spezialisierte akademische Content-Produzenten Materialien wie Avatare, Folien, Bücher, Videos, Podcasts oder Simulationen entwickeln, die einmal erstellt dann vielfach genutzt oder verkauft werden und ggf. von Dozenten oder Institutionen leicht angepasst werden können. Nur durch solch eine Skalierung oder durch den Einsatz automatisierter Systeme wie Avatare lässt sich der steigende Aufwand effizient bewältigen.
In diesem Kontext wird diskutiert, ob der demografische Wandel zu sinkenden Studierendenzahlen führt und die zunehmende Digitalisierung durch Omnichannel-Angebote zu Mehraufwand? Dabei rücken lernökonomische Überlegungen stärker in den Fokus als bisher schon. Es stellt sich die Frage, wie viele Ressourcen – in Form von Lehrenden, Technologien und Materialien pro Studierenden eingesetzt werden, welche inhaltlichen Schwerpunkte gesetzt werden sollen (z.B. Allgemeinwissen, Fachwissen oder forschendes Lernen) und welche Prüfungsformate und Gruppengrößen sinnvoll sind. Dabei geht es letztlich auch um die Frage: Welcher gesellschaftliche Nutzen wird von einem Bildungssystem erwartet? Gleichzeitig besteht die Gefahr einer Ökonomisierung des Lernens, bei der der Zugang zu digitalen Hilfsmitteln wie ChatGPT ungleich verteilt ist. Während einige Lernende solche Technologien selbstverständlich nutzen – teils sogar in Premium-Versionen – bleibt anderen der Zugang aus finanziellen oder anderen Gründen verwehrt. Diese Ungleichheit wirft Fragen nach Fairness und Chancengleichheit im Bildungskontext auf. So thematisiert Lordick in diesem Zusammenhang die Rolle textgenerierender KI aus schreibdidaktischer Sicht und stellt zur Diskussion, wie mit, ohne oder trotz solcher Technologien geschrieben und gelernt werden kann (Lordick 2024).
1.1.4 Neue Kriterien für die Bewertung von Abschlussarbeiten
Der Einsatz von ChatGPT wird häufig mit der Einführung des Taschenrechners verglichen. Dabei stellt sich die Frage, welche grundlegenden Kenntnisse erforderlich sind, um ein solches Werkzeug sinnvoll zu nutzen – also, was man verstehen und beherrschen muss, um ChatGPT korrekt anzuwenden sowie die Ergebnisse nachvollziehen und erklären zu können.
KI-generierte Texte sind aus unserem Arbeits- und Privatleben nicht mehr wegzudenken und ihr Einsatz und das Prompting muss geübt und erlernt werden. Vor diesem Hintergrund ist es keine praktikable Lösung, KI-generierte Texte als Prüfungsleistung abzuschaffen. Die zentrale Frage ist vielmehr, wie die Hochschule damit umgehen sollte und worin genau die EEigenleistung eines Studierenden beim Einsatz automatisierter Texterstellung besteht. Eine eindeutige Identifikation von Texten als von ChatGPT (oder ähnlichen Transformer-Modellen) erzeugt, ist nicht möglich – insbesondere nicht allein durch den Einsatz solcher Modelle selbst. Tools wie GPTZero oder No-GPT können allenfalls Wahrscheinlichkeiten angeben, ob ein Text KI-generiert ist. Diese Einschätzungen sind jedoch wenig zuverlässig und führen häufig zu falsch-positiven oder falsch-negativen Ergebnissen (Weber-Wulff 2023).
Bislang ist es nur eingeschränkt möglich, eine vollständige wissenschaftliche Arbeit ausschließlich durch KI erstellen zu lassen. Neben präzisem Prompting erfordert es weiterhin menschliche Leistungen wie Strukturierung, Gewichtung der Inhalte, Ideenfindung und vor allem die kritische Prüfung der Ergebnisse, um sogenannte „Halluzinationen“ – also erfundene Inhalte – auszuschließen. Auch die Überprüfung der Quellenhinweise sowie die Klärung der Originalität von Ideen müssen (bisher noch) manuell erfolgen.
Gerade hier entstehen interessante Ansätze zur Bewertung der Zusammenarbeit von Menschen und Maschine. Es handelt sich um ein typisches Beispiel eines Cyber-Physischen Systems, in dem die Qualität des menschlichen Beitrags – durch Prompting, kritische Reflexion, eigene Ideen oder redaktionelle Nacharbeit – maßgeblich für die Gesamtleistung ist. Ebenso bedeutsam sind die tiefe, persönlich motivierte und verantwortete Reflexion über das Thema und die eingesetzten Methoden, die Begründung des Vorgehens und die Motivation. Auch das Verstehen und Erklären der von ChatGPT generierten Antworten, sowie die Fähigkeit diese Artefakte zu einer kohärenten Arbeit zu orchestrieren, sind bewertbare Leistungen. Ein sinnvoller Weg zur Sicherstellung der Eigenleistung ist eine begleitende mündliche Prüfung, in der Studierende ihr Verständnis der Inhalte, des Arbeitsprozesses und der verwendeten KI-Werkzeuge darlegen und kritisch reflektieren können.
Wie könnte eine Abschlussarbeit zukünftig aussehen und wie sollte eine Bewertung erfolgen? Das gezeigte Layout einer Abschlussarbeit in der Abbildung unten teilt jede Seite in einen 60%igen traditionellen akademischen Inhaltsteil links und einen 30%igen Reflexionsteil rechts. Der Reflexionsteil bietet Meta-Informationen zu den jeweiligen Textstellen des Inhalts, die als Grundlage für eine mündliche Prüfung dienen können.
Die Bewertungskriterien von Abschussarbeiten werden sich weiterentwickeln müssen Neben den Inhalt treten vermehrt Meta-Kriterien wie Prompting und Reflektion
Abbildung 5: Bewertung von Abschlussarbeiten
Die Meta-Kriterien einer Abschlussarbeit umfassen die Begründung des Vorgehens durch die Darlegung der Motivation und der gewählten Methodik, die Bewertung der Schöpfungstiefe als Maß an geistiger Eigenleistung inklusive der verwendeten Prompts und des Prompt Engineerings, sowie eine kritische Reflexion der Argumente, die Selbstbewertung der eigenen Leistung und eine PDF-Quellenübersicht mit einem Auszug einer Seite der Originalquelle des Zitats. Zur Sicherstellung von Transparenz und Nachvollziehbarkeit kann für jede zitierte Quelle die Seite, aus der das (direkte oder indirekte) Zitat stammt bzw. beginnt, als PDF-Auszug extrahiert und dem Anhang als ergänzendes Quellenverzeichnis beigefügt werden.
1.2 KI in der Forschung
1.2.1 Wissensproduktion im Zeitalter Künstlicher Intelligenz
KI-Tools können einerseits den traditionellen Forschungsprozess effizienter gestalten, andererseits aber auch neue Vorgehensweisen und Methoden in der Forschung ermöglichen.
Generative KI unterstützt den traditionellen Forschungsprozess durch Werkzeuge zur visuellen Darstellung relevanter Quellen eines Artikels, etwa mit Tools wie z.B. ResearchRabbit (siehe Abbildung unten). Andere unterstützende KI-Tools wie Litcit, Consensus, Ask oder Lumina Chat erleichtern die Literaturrecherche, indem sie, basierend auf Stichwörtern, einer Forschungsfrage oder einem Basisartikel, relevante und aktuelle Artikel automatisch identifizieren (Buck 2025) und kategorisieren. Wobei KI-Literaturrecherche-Tools noch Schwächen wie sprachliche Begrenzungen, eingeschränkten Zugang zu Datenquellen, Abhängigkeit vom Digitalisierungsgrad, fehlende Qualitätskontrolle, fehlerhafte Studienwiedergabe und die Illusion einer vollständigen Recherche haben.
KI Litmapping-Tools erweitern die Forschungsbasis systematisch und effizient
Abbildung 6: Quellenvisualisierung (https://researchrabbitapp.com) 08/2025
Trotzdem transformiert generative KI die Art und Weise, wie Wissen erzeugt, verarbeitet und bewertet wird. Der Einsatz von Technologien wie ChatGPT in der Forschung führt zu fundamentalen Veränderungen wissenschaftlicher Praktiken. Prozesse werden beschleunigt, da Daten schneller analysiert und Texte automatisiert verarbeitet werden können. Es entsteht ein Wandel in den Methoden: Klassische Herangehensweisen werden durch KI-gestützte Verfahren ergänzt oder ersetzt. Gleichzeitig steigen die Anforderungen an digitale Kompetenzen, insbesondere im Umgang mit Daten, Algorithmen und KI-Systemen. Neue ethische Fragestellungen rücken in den Vordergrund, etwa hinsichtlich Transparenz, Verzerrung (Bias) und Verantwortung für KI-generierte Ergebnisse. Auch die Art und Weise, wie Wissen erzeugt und bewertet wird, verändert sich. Zugleich entstehen Abhängigkeiten von großen Technologieanbietern, während sich durch frei verfügbare Tools eine gewisse Demokratisierung der Forschung abzeichnet. Neue Herangehensweisen bieten die Chance, Forschungsprozesse nicht nur zu digitalisieren, sondern auch grundlegend zu hinterfragen und zu optimieren – denn die bloße Digitalisierung ineffizienter Prozesse führt lediglich zu ineffizienten digitalen Abläufen.
So kann z.B. die Blockchain-Technologie dazu beitragen, die Nachvollziehbarkeit und Transparenz von Quellen zu gewährleisten. Obwohl der Hype um Blockchain basierende NFTs (Non-Fungible Tokens) nachgelassen hat, ermöglichen diese weiterhin die digitale Verfolgung von Eigentums- und Urheberrechten. Ursprungspublikationen könnten eindeutig referenziert und sämtliche Zitate sowie deren Ableitungen unwiderruflich gespeichert werden. Eine entsprechende Software könnte daraus zentrale Zitationspfade oder abstrahierte Wissensentwicklungen visualisieren. Generative KI-Systeme könnten auf diese Daten zugreifen, um die Herkunft, Relevanz und den Wahrheitsgehalt von Aussagen besser zu beurteilen.
1.2.2 Transformation in der Forschung
Es zeichnet sich ein fundamentaler Paradigmenwechsel ab, der sowohl Denk- als auch methodische Herangehensweisen in der Forschung grundlegend verändert. Traditionell dient das Zitieren im Sinne der Epistemologie dem Nachweis bereits vorhandenen Wissens und dem Herausstellen des Neuigkeitswerts eigener Beiträge (Popper 1959). Dies folgt dem Modell kumulativer Wissenschaftsentwicklung (Merton 1973), bei der neues Wissen auf bestehendem aufbaut. Die klassische Vorgehensweise besteht darin, umfangreich zu recherchieren, zu lesen und den Stand der Forschung systematisch zu dokumentieren.
Mit dem Einsatz generativer KI kommt ein ergänzender, explorativer Ansatz hinzu: Forschende lassen sich zunächst Texte oder Argumentationsstrukturen erzeugen, um diese anschließend kritisch mit dem etablierten Wissensstand abzugleichen. Dieser Rückwärtsabgleich (Reverse Research) ermöglicht eine alternative Form der Hypothesengenerierung, die sich mit dem abduktiven Schließen (Peirce 1934) verbinden lässt. Klassische Literaturrecherche und KI-gestützte Exploration sind somit komplementäre epistemologische Zugänge zur Ermittlung des Forschungsstands.
Grundlegend ist die Reflexion des Kerns der Wissensgenerierung: Zitieren macht Bekanntes kenntlich, um darauf aufbauend Neues zu schaffen und Plagiate zu vermeiden. Neue Erkenntnisse entstehen oft durch Kombination und Weiterentwicklung vorhandener Artefakte. Das Schreib- und Forschungsprozedere wird sich dabei wandeln: Statt zunächst zu recherchieren und dann selbst zu formulieren, wird die generative KI zuerst einen Textvorschlag liefern, der anschließend auf Neuheitsgehalt und Quellen geprüft wird.
Kritiker fragen, ob generative KI überhaupt Neues erschaffen kann. Hier lohnt sich ein Vergleich mit menschlicher künstlerischer Kreativität: Künstler schöpfen Neues aus ihrer Umgebung, Erfahrungen und Eindrücken, die sie durch Reisen oder Gespräche, etc. sammeln. Die KI verarbeitet Informationen aus Datenquellen wie Online-Bibliotheken oder weiteren Internetquellen und erzeugt auf Basis großer Sprachmodelle (LLMs) durch Vorhersage des nächsten Tokens neue Texte. Dadurch entstehen kreative, wenn auch datenbasierte Neuschöpfungen. Wesentlich ist dabei eine kritische Prüfung der zugrunde liegenden Trainingsdaten und -methoden. Transparenz, Zertifizierungen und nachvollziehbare Qualitätsstandards, etc. für LLMs sind unverzichtbar, um Vertrauen in die Resultate sicherzustellen.
In der bisherigen wissenschaftlichen Praxis ist/war der Mensch der zentrale Akteur – vergleichbar mit einem aktiven Spieler auf einem Fußballfeld. Mit der Einführung digitaler Werkzeuge kamen unterstützende „Bot-Mitspieler“ hinzu. Durch den Einsatz Künstlicher Intelligenz verändert sich diese Rolle jedoch weiter: Der Mensch wird zunehmend zum Trainer, der ein Team (KI-basierter) Bot-Akteure koordiniert, überwacht und strategisch einsetzt. Das Bot-Team übernimmt Aufgaben in einem Ausmaß, das zuvor kaum vorstellbar war. Das klassische rein „menschliche Spiel“ gibt es dann (wegen Ineffektivität, Krankheit, Urlaub oder „schlafen müssen“) immer weniger - die KI arbeitet rund um die Uhr. In der Hoffnung, dass der menschliche Trainer nicht wegen Erfolglosigkeit entlassen wird.
1.3 Die Zukunft des Lehrens und Lernens an Hochschulen
1.3.1 Kommt es zu einer Hyperautomatisierung in der Hochschule
Die zunehmende Anwendung von HHyperautomatisierung4 an Hochschulen lässt sich als möglicher Hinweis auf einen Paradigmenwechsel im Sinne Thomas S. Kuhns (Kuhn 1962) deuten, der zu einer veränderten Weltsicht und Wissenschaftspraxis führt. Ziel ist es, sämtliche automatisierbaren Prozesse durch den Einsatz moderner Technologien wie Robotic Process Automation in der Verwaltung, Künstlicher Intelligenz zur Optimierung des Lernens, Machine Learning zur Prognose des Studienerfolgs und Process Mining zur Analyse institutioneller Abläufe grundlegend zu transformieren. Hersteller von Software im Bereich LLearning Analytics (LA) in der Hochschulbildung beginnen mit dem Versprechen, die Lehre zu verbessern (Simbeck, 2022, S. 92). Durch die Analyse von Lerndaten soll ein tieferes und gegebenenfalls ganzheitlicheres Verständnis des Lernprozesses und der Lernenden erreicht werden.
