Zwischen Prompt und Prüfung: AI-Literacy und das neue Lernen

VON ARNE VOß (DÜSSELDORF)

Dieser Beitrag erscheint im Rahmen des Themenschwerpunkts „Künstliche Intelligenz in der philosophischen Hochschullehre“.

Gestern noch Moodle und ILIAS, heute schon „Generative KI“, „Prompt Engineering“ und große Fragen à la „Schreibst du deine Hausarbeit noch selbst oder lässt du schreiben?”. Spätestens seit ChatGPT und Co. den Campus „infiltriert“ haben, läuft vieles anders als vorher. Die KI ist für viele Studierende Recherchehilfe, Nachhilfelehrer und Ghostwriter in einem. Das klingt nach einer Menge Erleichterung, aber auch nach ganz neuen Unsicherheiten.

Als Studierender in den Fächern Philosophie und Modernes Japan, dessen Studienanfang noch vor der breiten Verfügbarkeit generativer KI lag, nehme ich diese Unsicherheiten besonders deutlich wahr. Wenn ich dann auf meine Gremienarbeit in Studiengangsplanung und Curriculumsentwicklung zurückblicke und auf fast vier Jahre in der Koordinierungsstelle im hochschuldidaktischen Netzwerk HD NRW, wird spürbar, wie sehr KI die Hochschulen aufscheucht. Plötzlich stellen sich in allen Bereichen Fragen, auf die es selten klare Antworten gibt: Wie viel KI ist zu viel? Ab wann wird aus kreativer Eigenleistung clevere Prompt-Kunst oder vielleicht sogar Betrug?

Genau in dieser Grauzone schwimmt unser Unialltag gerade. Zwischen Begeisterung und Bauchgrummeln stellt sich für Studierende wie Lehrende die Frage, wie wir mit KI gemeinsam klüger lernen können und woran wir eigentlich messen, wer wirklich was kann. Ich kann die Sorgen rund um KI sehr gut nachvollziehen, da sie Kernaspekte der wissenschaftlichen Arbeit in einer Form beeinflusst, wie die meisten sich das vor gerade mal drei Jahren kaum vorstellen konnten. Allerdings sehe ich es so, dass der KI-Geist aus der Flasche ist und sich auch nicht mehr einfangen lässt. Vielleicht ist jetzt also der ideale Zeitpunkt, um über ein neues Grundwissen im Studium nachzudenken: AI-Literacy.

AI-Literacy: Mehr als Tool-Bedienung

Doch was steckt hinter AI-Literacy und warum reicht Tool-Bedienung allein längst nicht mehr aus? Im ersten Moment klingt es wie ein weiterer Skill für den ohnehin schon überladenem studentischen Werkzeugkasten. Aber dahinter steckt mehr als ein Talent fürs kluge Prompten und das Navigieren durch ChatGPT-Endlosschleifen. In meiner Bachelorarbeit habe ich dies so definiert:

AI-Literacy im Hochschulkontext bezeichnet die Gesamtheit jener fachlichen, anwendungsbezogenen, reflexiven und ethischen Kompetenzen, die notwendig sind, um künstliche Intelligenz in Bildung, Wissenschaft und Gesellschaft verantwortungsvoll und wirksam zu nutzen, kritisch zu bewerten und deren Auswirkungen zu reflektieren. Sie umfasst das technische Verständnis von KI-Systemen sowie die Fähigkeit, Chancen und Risiken zu erkennen, den gesellschaftlichen und individuellen Einfluss einzuschätzen und fundierte Entscheidungen zu treffen, die den Grundsätzen von Integrität, Transparenz und sozialer Verantwortung entsprechen (DeHart 2025, Gimpel et al. 2023; Long et al. 2020, Pinski 2024).

AI-Literacy ist also eine vielseitige Schlüsselkompetenz, die weit über technisches Know-how hinausgeht und kein weiteres „Modul“, sondern eine grundlegende Querschnittskompetenz im akademischen Alltag. Gerade darin steckt die eigentliche Herausforderung im digitalen Wissenszirkus: Mensch zu bleiben, nachzufragen, mitzudenken und Verantwortung zu übernehmen, und zwar gemeinsam. Damit AI-Literacy wirklich im universitären Alltag ankommt, reicht es nicht, bloß ein weiteres Fach oder einzelne Übungen zur KI einzuführen. Entscheidend ist, dass sich das Ziel – selbstbestimmter, reflektierter Umgang mit KI – in der gesamten Studiengestaltung widerspiegelt.

Constructive Alignment: Prüfungen im KI-Zeitalter neu denken

Genau hierin liegt aber auch die besondere Schwierigkeit, wenn es um die Praxis der Prüfungsgestaltung geht. Wer zusätzlich zu den klassischen Kompetenzen, wie dem Erschließen und Verstehen philosophischer Texte, AI-Literacy fördern will, kann schlecht auf die klassische Hausarbeit und das Bangen vor dem Plagiat-Check setzen. Constructive Alignment heißt deshalb das Zauberwort. Constructive Alignment bedeutet, dass Lehrziele, Lernaktivitäten und Prüfungsformate aufeinander abgestimmt sind. Es geht nicht um eine „Ideensammlung nach Lehrbuch“, sondern um die konkrete Frage, was Studierende am Ende können sollen und wie man das in einer fair gestalteten Prüfung erkennt.

Lernziele, Lehre und Prüfungen werden dabei so verknüpft, dass am Ende nicht bloß Wissen, sondern echte Kompetenzen entstehen. Klingt logisch, ist aber angesichts omnipräsenter KI eine echte Herausforderung. Man muss allerdings zugeben, dass Kompetenzentwicklung von der Lehre zur Prüfung auch vorher bereits ein nicht immer gelungener kreativer Balanceakt war. Ich schaue dich an, „14 Referate in 15 Sitzungen“-Seminar.

Dazu scheinen mir neue Prüfungsformate, die die klassische Hausarbeit ergänzen oder vielleicht ganz ablösen, unerlässlich. Es müsste sich dabei um Prüfungsformate handeln, die Studierende zu Kompliz:innen beim Lernen und Lehren machen, statt sie zum Versteckspiel mit KI zu verführen. Ein Reflexionsportfolio zum Beispiel fordert Studierende dazu auf, ihren individuellen Umgang mit KI transparent zu machen. Es geht dann nicht nur um das Ergebnis, sondern um den Prozess. Welche KI-Tools wurden wann eingesetzt? Wo hat die Unterstützung funktioniert und wo war Eigenleistung gefragt? So werden Nachvollziehbarkeit und kritische Auseinandersetzung zu geprüften Kompetenzen.

Ein weiteres Beispiel können Teamprojekte sein, die über einen längeren Zeitraum entstehen . Hier arbeiten kleine Gruppen gemeinsam an einer Aufgabe, wobei KI-Technologien aktiv und kooperativ genutzt werden. Dabei dokumentieren sie die Entscheidungsprozesse: Wie verteilen wir Aufgaben? Wo setzen wir Grenzen im KI-Einsatz? Dieses Format ermöglicht es, nicht nur das Produkt, sondern auch die Fähigkeit zur Zusammenarbeit und reflektierten Nutzung digitaler Hilfsmittel zu bewerten. Jan Slaby nennt dafür in seinem LehrGut-Beitrag „Recherchekollektive: Abkehr vom Ego-Shooter-Studium“ passende Beispiele, wie dies vonstatten gehen könnte.

Auch mündliche Prüfungen können zusätzlich gezielt um ethische oder praktische Dilemmata rund um KI ergänzt werden. Zum Beispiel müssen Studierende erläutern, wie sie KI in ihrer Arbeit in der Vorbereitung auf die Prüfung eingesetzt haben, welche Chancen oder Risiken sie dabei sehen und wie sie mit eventuell bestehenden Unsicherheiten umgehen. Das fördert das situationsbezogene Urteilsvermögen und macht kritisches Denken sichtbar.

Denn ein echter Mehrwert dieser kritischen Auseinandersetzung mit KI zeigt sich, wenn man einmal nachvollzogen hat, warum eine KI-Antwort einfach schlecht ist. Vielleicht fehlt der rote Faden, die Argumentation ist schief oder es haben sich logische oder sachliche Fehler eingeschlichen. Wer sich aktiv mit den Kriterien beschäftigt und prüft, woran ein generiertes Ergebnis scheitert, lernt nicht nur für die momentane Aufgabe, sondern verankert dieses Wissen längerfristig. Die Fähigkeit, Schwächen algorithmischer Antworten zu erkennen und zu begründen, bleibt hängen. Wer einmal aufgedeckt hat, wie und warum eine KI danebenliegt, wird es nicht vergessen. So wird aus der Toolskepsis echte kritische Kompetenz und aus dem Fehler eine wichtige Lektion für das weitere Studium.

Natürlich muss man auch hier einen Balanceakt vollbringen, damit KI nicht zum überall präsenten Selbstläufer wird, der die eigentlichen Inhalte eines Faches überschattet. KI kann eine wichtige Rolle spielen, aber sie sollte die fachliche Identität nicht verdrängen. Es geht darum, die spezifischen Denk- und Arbeitsweisen im jeweiligen Fach zu bewahren, KI als Werkzeug klug zu integrieren und nicht jeden Lern- und Prüfungsprozess zu digitalisieren. Entscheidend ist, dass Studierende die Möglichkeiten und Grenzen von KI erkennen, ihre eigenen Urteile schärfen und die Technik mit wachem Blick reflektieren. Im Idealfall unterstützt KI dann die Vielfalt und Eigenlogik der Disziplinen, statt sie zu nivellieren.

Studentische Wünsche (und ein bisschen Utopie)

Zwischen KI-Durchbrüchen und konstruktiv ausgerichteten Prüfungen wächst die Hochschul-To-Do-Liste. Was wünschenswert für alle wäre? Klare Ansagen! Welche KI-Nutzung ist erlaubt, was gilt als Eigenleistung, wie sieht faire Teilhabe am digitalen Wandel aus? Außerdem Prüfungsregeln, die nicht als Ratequiz daherkommen, und Formate, die neugierig machen, statt misstrauisch zu stimmen.

Doch jede Neuerung bringt eben auch Unsicherheiten mit sich. Wo verläuft die Grenze zwischen akzeptabler KI-Unterstützung und Betrug? Wie schaffen es Lehrende, Transparenz und Fairness zu sichern? Viele Hochschulen experimentieren derzeit mit Regelwerken, die Studierende verpflichten, ihren KI-Einsatz offenzulegen, zu reflektieren und zu dokumentieren. Offene Feedbackprozesse, regelmäßige Beratungssitzungen und gemeinschaftlich, von Studierenden und Lehrenden, entwickelte Leitlinien fördern einen vertrauensvollen Umgang und lassen Raum für individuelle Lernwege, weg von Verbotskatalogen und Kontrolle hin zu kollaborativer Verantwortung. Dies ist ein zeitintensiver Prozess, bei dem man darauf achten muss, dass man die Dozierenden nicht mit noch weiterem Workload überfrachtet. Konzeption und Implementierung neuer Wege dürfen nicht nur in der Verantwortung der Dozierenden hängenbleiben.

Um sich dem entgegenzusetzen, könnte man sich ein bisschen Utopie gönnen: studentisches Mitspracherecht und Eigenverantwortung bei der Entwicklung neuer Lehr- und Prüfungsformate. So spannend kann Studienordnung sein! Mehr Austausch miteinander und die Erkenntnis, dass gemeinsame Ideen immer besser als stille Anpassung an Vorgaben sind. Am wichtigsten dabei sind Offenheit, Mut zum Ausprobieren und das Ziel, Studium im KI-Zeitalter mit einem möglichen Mehrwert zu füllen, statt nur mit immer neuen Tools.

Ausblick

Künstliche Intelligenz bleibt. Prüfungen wohl auch. Und Studierende werden beides miteinander verbinden, trotz aller eklatanten Schwächen und Fallstricke generativer KI. Die Frage, wie sich beides sinnvoll verbinden lässt, wird uns, da Studierende generative KI für Prüfungen und deren Vorbereitung nutzen werden noch einige Zeit begleiten. Hochschulen machen sich auf den Weg, KI ausgewogen ins Studium einzubinden, wie zum Beispiel die „Handreichung zum Umgang mit Künstlicher Intelligenz“ der Hochschule Rhein-Waal. Mit Constructive Alignment und einer großen Portion AI-Literacy entstehen Formate, die wirklich Zukunft haben. Im Seminar der Zukunft wird KI nicht nur als Hilfsmittel toleriert, sondern als kreativer Sparringspartner genutzt. Mit klaren Regeln, nachhaltigen Lernzielen und echtem Raum für kritische Auseinandersetzung. Prüfungen werden zum Dialog, nicht zur Detektivarbeit. In diesem Zuge kann ich die LehrGut-Beiträge von Ariane Filius „In Zeiten von KI: Wie können wir Prüfungspraxis zukunftsfähig gestalten?“ oder auch „Forschend statt frustriert: Geisteswissenschaftliches Schreiben trotz & mit KI“ empfehlen.


Weiterführende Literatur

DeHart, Jason D., Suriati Abas, Raúl Alberto Mora und Damiana Gibbons Pyles. 2025. Reimagining Literacy in the Age of AI: Theory and Practice. 1. Aufl. Chapman and Hall/CRC. https://doi.org/10.1201/9781003510635.

Gimpel, Henner, Kristina Hall, Stefan Decker u. a. 2023. Unlocking the Power of Generative AI Models and Systems Such as GPT-4 and ChatGPT for Higher Education A Guide for Students and Lecturers. Version 2. https://doi.org/10.13140/RG.2.2.20710.09287/2.

Hochschule Rhein-Waal. 2024. Handreichung zum Umgang mit Künstlicher Intelligenz in Studium und Lehre an der Hochschule Rhein-Waal. Dezember 2024. Kleve: Hochschule Rhein-Waal. Zugriff am 24. November 2025. https://www.hochschule-rhein-waal.de/en/media/20614/download.

Kim, Jinhee, Sang-Soog Lee, Rita Detrick, Jialin Wang und Na Li. 2025. „Students-Generative AI Interaction Patterns and Its Impact on Academic Writing“. Journal of Computing in Higher Education, Online-Vorab-Publikation, April 17. https://doi.org/10.1007/s12528-025-09444-6.

Long, Duri und Brian Magerko. 2020. „What Is AI Literacy? Competencies and Design Considerations“. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, April 21, 1-16. https://doi.org/10.1145/3313831.3376727.

Pinski, Marc. 2024. Artificial Intelligence Literacy – Conceptualization, Measurement, Enablement, and Its Impact on Individuals and Organizations. https://doi.org/10.26083/TUPRINTS-00028092.

Weßels, Doris, Annabell Bils und Jannica Budde. 2025. Wissenschaftliche Abschlussarbeiten im KI-Zeitalter: Disruption, Herausforderungen und neue Bewertungsansätze. Diskussionspapier Nr. 38. Berlin: Hochschulforum Digitalisierung. Zugriff am 24. November 2025. https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/10/HFD_DP_38_wissenschaftliche_Abschlussarbeiten_im_KI-Zeitalter.pdf.


Zur Person

Arne Voß hat bis vor kurzem an der Heinrich-Heine-Universität Düsseldorf Philosophie und Modernes Japan studiert. Während seines Studiums war er in mehreren Gremien der Philosophischen Fakultät aktiv, mehrere Jahre im Fachschaftsrat Modernes Japan sowie am Institut für Modernes Japan tätig und übernahm vier Jahre die Koordination des Netzwerks Hochschuldidaktik NRW. In dieser Zeit entwickelte er ein breites Interesse an hochschuldidaktischen Konzepten und setzte sich im letzten Studienjahr intensiv mit dem Einfluss generativer KI auf den universitären Alltag auseinander.


Veröffentlicht unter der Creative Commons Lizenz CC BY-NC-SA 4.0.


Kommentare? Gern veröffentlichen wir selbst sehr kurze Repliken als eigene Beiträge. Mehr dazu unter Hinweise für Beitragende.