VON FLORIAN J. BOGE
In den letzten Jahren hat die generative KI den Hochschulalltag drastisch verändert: Systeme wie ChatGPT schreiben, richtig gepromptet, problemlos passable Essays und Hausarbeiten, auch im Fach Philosophie. Einen KI-generierten Text zu erkennen, ist für Lehrende nicht immer leicht – abgesehen vielleicht von Fällen, in denen die KI Absurditäten konfabuliert. Das alles stellt nicht bloß für Lehrende eine Herausforderung dar: Studierende laufen Gefahr, im Studium diejenigen Kernkompetenzen gar nicht zu erlernen, an denen sie später bei der Arbeitssuche gemessen werden – nämlich tiefes, gründliches Nachdenken und Analysieren, das Finden von plausiblen Prämissen, das kohärente Argumentieren, die klare Definition von Begriffen usw.
Dabei kann generative KI auch sinnvoll genutzt werden, z.B. um erste Formulierungen zu finden, kurze Einblicke in die relevante Literatur oder Denkanstöße zu bekommen. Eine jüngere Umfrage in unserem Fachbereich an der TU Dortmund hat gezeigt, dass unter Studierenden große Verunsicherung herrscht, wie KI genutzt werden kann und darf. Auch für Lehrende fehlt es hier an verbindlichen Richtlinien. Gleichwohl gibt es an einigen Unis zwar formalisierte Vorgehensweisen, wie ein unerlaubter KI-Einsatz zu ahnden ist, jedoch ist dies im Einzelfall schwer einzustufen ohne scharfe Formulierung, welche Verwendungen als unerlaubt anzusehen sind und welche toleriert werden können. Zudem sind solche Verfahren nur schwer konsequent umzusetzen und Verdachtsmomente lassen sich kaum erhärten. Im Folgenden möchte ich daher skizzieren, welche Verwendungsweisen klar untersagt werden sollten, wie solche unerlaubten oder unerwünschten KI-Verwendungen zumindest begrenzt werden können, welche Verwendungsweisen aber auch als sinnvoll oder zumindest akzeptabel angesehen werden könnten und warum. Zuletzt möchte ich kurz auf KI als Thema – nicht als Werkzeug – philosophischer Seminare eingehen und darauf, welche Chance ich darin für einen aufgeklärteren Umgang sehe.
Problematische Verwendung von KI
In einem Selbstversuch habe ich kürzlich mit ChatGPT eine Hausarbeit zu einem Thema aus der Philosophie des Geistes angefertigt. Der Prozess war weniger trivial, als ich es mir zunächst vorgestellt hatte: Die KI gab mir eine Gliederung vor und anhand dieser ließ ich dann sukzessive die Abschnitte erstellen. Gelegentlich musste ich nachbessern und z.B. um wörtliche Zitate mit Seitenzahlen bitten. Das Resultat war sicher keine 1,0. Dennoch hätten Studierende so eine Modulabschlussprüfung bestehen können, ohne thematisch auch nur einen Funken verstanden zu haben. Eine solche Verwendung von generativer KI ist natürlich ein Paradebeispiel für das, was Lehrende fürchten, und sie ist klar zu untersagen. Wie oben bereits erwähnt, ist die Überprüfung von eingereichten Texten allerdings sehr schwierig. Ein Indikator ist etwa, dass die Arbeit insbesondere auf sprachlicher und struktureller Ebene „zu perfekt“ ist, gleichzeitig aber auch deutlich zu oberflächlich. Allerdings sind die meisten Studierenden dem wohl leider schon auf die Schliche gekommen und bauen nachträglich absichtlich Fehler ein, oder verwenden gar verfügbare KI-Tools, die Texte menschlicher erscheinen lassen. Ein weiterer Indikator ist, dass Anachronismen oder erfundene Referenzen auftauchen, aber das passiert nur in Einzelfällen. Insgesamt muss man also leider sagen, dass es keine scharfen Kriterien zur Erkennung gibt, was ein echtes Problem in der Hochschullehre darstellt.
Hinzu kommt, dass Studierende, die einen eingeschränkteren Gebrauch von KI pflegen, diese also z.B. bloß für Recherchezwecke nutzen, die Ausgabe unreflektiert als sicher und richtig akzeptieren könnten. Auch hier muss ein kritischer Umgang geschult werden (dazu später mehr).
Prüfungen KI-sicherer machen
Es gibt natürlich Möglichkeiten, das obige Szenario zu verhindern oder zumindest einzuschränken. Klarerweise stehen dabei mündliche Prüfungsformen im Vordergrund; allerdings gehört gerade das philosophische Schreiben zu den im Philosophiestudium zu erwerbenden Kernkompetenzen, weshalb nicht ausschließlich auf mündliche Prüfungsformen gesetzt werden sollte. Eine sinnvolle Möglichkeit zur Verbindung von schriftlichen Leistungen mit mündlicher Überprüfung ist es, sich Zwischenstände von Studierenden geben zu lassen und diese im Gespräch zu erörtern. Dies bedeutet aber fraglos einen erheblichen Mehraufwand für Lehrende, der in gut besuchten Seminaren kaum zu stemmen sein wird. Eine weitere Möglichkeit ist es, Essays in einzelnen Seminarsitzungen in Präsenz schreiben zu lassen: Studierende bekommen eine Fragestellung, evtl. schon vor der Seminarsitzung, können dazu recherchieren und arbeiten dann in einer vorgegebenen Zeit (etwa 45 oder auch 90 Min., je nach Thema und Umfang) das Essay direkt im Seminar aus. Online-Plattformen wie moodle können dann für eine terminierte Abgabe am Ende der Sitzung genutzt werden. Auf diese Weise können Lehrende durch Sichtkontrolle sicherstellen, dass das Essay auch tatsächlich menschgemacht ist. Einige Kolleg:innen haben hiermit bereits gute Erfahrungen gemacht.
Sinnvolle Verwendungsweisen von KI in der Philosophielehre
Müssen wir gegen jedwede Verwendung von KI auf die oben skizzierte Weise vorgehen? Klarerweise ist die Antwort „Nein“. Dies wäre schlichtweg nicht möglich und vermutlich auch nicht wünschenswert. Man denke hier an Platons Schriftkritik im Phaidros, die uns bei aller Berechtigung wohl auch kaum vom Lesen abhalten wird. Was also sind sinnvolle Verwendungsweisen von KI in der (philosophischen) Hochschullehre? In erster Linie könnte generative KI hier als Starthilfe dienen: Studierende bekommen einen ersten Einblick in ein Thema; eine Zusammenfassung des Kenntnisstandes, der ihnen zeigt, in welche Richtung sie weiterdenken und recherchieren können. Dabei ist natürlich auch Vorsicht geboten: Manchmal sind die Hervorbringungen der KI schlichtweg „outdated“ oder gar irreführend, und die Angaben sollten daher immer gegengeprüft werden. Letztlich führt also kein Weg daran vorbei, weiterhin auf durch fachliche Organe geprüfte, und in diesem Sinne verlässliche Quellen zurückzugreifen. Dies muss in einer Lehre, die KI-Verwendung berücksichtigt und zulässt, klar abgebildet werden.
Eine weitere Chance sehe ich in der Hilfestellung bei Formulierungen: Für manche Studierenden kann es eine große Herausforderung sein, geeignete Formulierungen für Hausarbeiten zu finden. Die KI kann hier als Anschubhilfe fungieren, wobei für eine gelungene Ausbildung im Fach Philosophie unbedingt zu erwarten ist, dass eine entsprechende Formulierungs-Kompetenz im Verlauf des Verfassens mehrerer Hausarbeiten sukzessive so erworben wird, dass sie letztlich ohne digitale Hilfsmittel abgerufen werden kann. Dies sollte Studierenden immer klar kommuniziert werden und Essays, die in Seminarsitzungen geschrieben werden, können hier zur Überprüfung dienen. Auch ist natürlich anzumerken, dass für den Erwerb von Formulierungskompetenz das regelmäßige und umfangreiche Lesen philosophischer Texte nicht ersetzbar ist.
Zu guter Letzt kann generative KI als „bessere“ – d.h., schnellere, kompaktere, und mit bestimmten Zusatzfunktionen bestückte – Suchmaschine verwendet werden, um schlicht an relevante Referenzen für ein Hausarbeitsthema zu kommen. Auch hier ist gegenwärtig eine beherzte, gut informierte Suchmaschinenrecherche (z.B. mit google scholar) sowie eine Recherche über Fachplattformen wie philpapers.org i.d.R. noch zu bevorzugen; grundsätzlich spricht aber auch nichts gegen diese Verwendungsweise als Erstanlauf.
KI als Gegenstand der philosophischen Lehre
In allen drei Verwendungen, die ich hier als legitim und sinnvoll nahegelegt habe, habe ich die KI mehr als Starthilfe denn als finales Werkzeug dargestellt. Warum diese Vorsicht gegenüber einer Verwendung für das Erstellen eines Endproduktes? Der Grund ist, dass die generative KI, wie wir sie heute kennen, natürlich auch (teils enge) Grenzen hat. Ein bekanntes Phänomen ist beispielweise das sogenannte „Halluzinieren“, bei dem die KI Muster in den Input (also unsere Anfragen) „hineinliest“, die sie auf die völlig falsche Fährte führen. Passiert dies, ist die Ausgabe effektiv wertlos oder zumindest stark irreführend. Es ist aber gegenwärtig kein einfaches, nachvollziehbares System bekannt, nach dem ein solches „Halluzinieren“ vorausgesehen werden kann. Dies ist auf die Intransparenz komplexer KI-Systeme zurückzuführen, die auch ethische Implikationen wie erlernte Biases oder Verantwortungsdiffusion mit sich bringt – neben den weiteren eklatanten ethischen Problemen der KI, die Energie- und Wasserverbrauch oder menschenunwürdige Arbeitsbedingungen etwa beim „labelling“ für das supervidierte Lernen betreffen.
Wie könnte KI als Thema in der philosophischen Lehre hier helfen? Ein Grundproblem ist sicher, dass Studierende i.d.R. gar nicht wissen, wie (generative) KI überhaupt funktioniert. Eine Auseinandersetzung mit den philosophischen und theoretischen Grundlagen kann hier Abhilfe schaffen: Haben Studierende erst einmal verstanden, dass ein „künstliches Neuronales Netz“ letztlich bloß eine komplizierte mathematische Funktion ist, die mithilfe eines Computers anhand von Daten angepasst wird und dann statistisch Ausgaben produziert, so haben sie eine bessere Chance, Grenzen und Möglichkeiten bei der Verwendung von KI zu verstehen und einzuschätzen. Große Sprachmodelle, wie die meisten KI-Modelle, entsprechen ja letztlich sehr komplizierten, hochparametrisierten statistischen Verteilungen, die an eine riesige Menge von Daten angepasst und aus denen dann Stichproben gezogen werden. Diese Stichproben machen letztlich den Text aus, den wir als Antwort auf unsere Anfragen lesen. Natürlich sind die so generierten Antworten in aufwendigen Anpassungsverfahren so lange kalibriert worden, bis sie in der Regel zufriedenstellend, teils sogar schwer beeindruckend sind – aber dennoch sind diese Outputs eben „nur“ statistische Stichproben, die ein Thema in Einzelfällen auch sehr ungenau oder falsch abbilden können.
Studierenden diese und weitere Grundlagen beizubringen, kann eine Chance für einen aufgeklärten Umgang mit KI sein. Eine verbleibende Herausforderung ist es dabei, Studierende im Fach Philosophie an solche mathematischen und statistischen Grundprinzipien überhaupt heranzuführen – etwas, das viele von ihnen abschrecken kann. Gelingt dies aber, ebnet es den Weg, auch tiefere Themen, wie Verantwortungsdiffusion oder Erkenntnis- und Verstehensgrenzen beim Einsatz von KI zu durchdringen und ein differenziertes Bild im Umgang mit der KI zu entwickeln – für die Hochschullehre und darüber hinaus. Ich bin daher trotz der vielen genannten Schwierigkeiten guter Dinge, dass die Philosophie auch hier, wie in so vielen Bereichen, letztlich einen wichtigen Beitrag leisten und umgekehrt selbst vom Einsatz von KI profitieren kann.
Anmerkung d. Verf.: Einige Inhalte dieses Beitrags sind aus gemeinsamen Arbeiten zur Erstellung einer internen Handreichung zu KI-sichereren Prüfungsformen mit Eva Schmidt und anderen Mitarbeitenden am Institut für Philosophie und Politikwissenschaft an der TU Dortmund hervorgegangen. Ich bedanke mich daher hiermit für entsprechende Ideen (z.B., Essays im Seminar schreiben zu lassen).
Zur Person
Florian J. Boge ist Juniorprofessor für Wissenschaftsphilosophie mit dem Schwerpunkt KI an der TU Dortmund und Leiter der Emmy Noether-Gruppe „UDNN: Scientific Understanding and Deep Neural Networks“. Er hat in allen einschlägigen Zeitschriften für Wissenschaftsphilosophie publiziert, ist Associate Editor beim European Journal for Philosophy of Science und Associated PI am Lamarr-Institut für Maschinelles Lernen und Künstliche Intelligenz. Weitere Informationen zu aktueller Forschung und Lehre finden sich auf https://fjboge.wordpress.com/ sowie https://udnn.tu-dortmund.de/
Veröffentlicht unter der Creative Commons Lizenz CC BY-NC-SA 4.0.
Kommentare? Gern veröffentlichen wir selbst sehr kurze Repliken als eigene Beiträge. Mehr dazu unter Hinweise für Beitragende.