Wie kann und sollte KI ins Philosophiestudium integriert werden?

Ein Bericht aus der Bielefelder Taskforce*

VON STEFFEN KOCH (BIELEFELD)

Dieser Beitrag erscheint im Rahmen des Themenschwerpunkts „Künstliche Intelligenz in der philosophischen Hochschullehre“.

Der Einsatz von KI-Tools wird an Universitäten intensiv diskutiert. Ein großer Teil der Debatte konzentriert sich auf Probleme: Täuschungsversuche in Hausarbeiten, die Schwierigkeit, KI-generierte Texte zu erkennen, oder die Sorge, dass Studierende weniger selbst schreiben. Doch neben der Frage, wie problematische Nutzung verhindert werden kann, stellt sich eine zweite, ebenso wichtige Frage: Welche Rolle sollte KI im Philosophiestudium spielen, sowohl als Gegenstand wie auch als Werkzeug des Philosophierens?

Mit dieser Frage haben wir uns in der Bielefelder Taskforce AI auseinandergesetzt. Sie ist durch zwei Überlegungen motiviert. Zum einen scheint die dauerhafte Integration von KI-Tools in der wissenschaftlichen Praxis derzeit kaum vermeidbar. Dasselbe gilt für viele andere Bereiche professioneller Arbeit. Der kompetente Umgang mit KI-Tools wird daher zunehmend zu einer Kernkompetenz, ohne die Absolvent*innen auf dem Arbeitsmarkt benachteiligt sein könnten. Für Philosophie Studierende ist ihr Studium ein naheliegender Ort, diese Kompetenz zu erwerben – zumal sie dort unmittelbar im Rahmen philosophischer Textarbeit und argumentativer Praxis eingeübt werden kann.

Zum anderen sind wir der Ansicht, dass eine positive und gewinnbringende Nutzung von KI-Tools im philosophischen Arbeiten möglich und erstrebenswert ist. Viele Philosophinnen – mich selbst eingeschlossen – nutzen KI inzwischen regelmäßig für eine große Bandbreite philosophischer Tätigkeiten: von KI-assistierten Sprachmemos für spontane Ideen über das Erklären und Zusammenfassen philosophischer Theorien und die Generierung von Beispielen bis hin zur Arbeit an eigenen Texten. Das führt nicht unbedingt zu einer Entfremdung von der eigenen Arbeit, sondern kann im Gegenteil helfen, die eigenen Ideen und Projekte möglichst effektiv umzusetzen. Wenn eine gewinnbringende Nutzung von KI im philosophischen Arbeiten möglich ist, stellt sich aber die didaktische Frage, wie wir Studierende in die Lage versetzen können, daran kompetent teilzuhaben.

Wir sind zu dem Schluss gekommen, dass die Antwort auf diese Frage zwei Teile hat. Der erste Teil lässt sich, ein wenig paradox, so formulieren: Wer KI sinnvoll für philosophische Arbeit nutzen will, muss zuerst lernen, ohne KI zu philosophieren. KI-Tools können nur dann gewinnbringend eingesetzt werden, wenn man zentrale philosophische Kompetenzen bereits selbst besitzt. Dazu gehören, um nur ein paar Beispiele zu nennen, ein präziser Blick für die Formulierung von Thesen, ein Verständnis der dialektischen Situation – also dafür, welche Einwände naheliegen und was überhaupt gezeigt werden müsste, damit ein Argument für eine bestimmte Position überzeugend ist –, die Fähigkeit, kontroverse Prämissen eigener Argumente zu identifizieren und zu verteidigen, sowie die Kompetenz, einschlägige Literatur zu verstehen und ihre Relevanz für das eigene Thema einzuschätzen. Zahlreiche KI-generierte Hausarbeiten zeigen, dass ohne solche Kompetenzen auch mit Hilfe von KI-Tools keine guten Ergebnisse entstehen. Das gilt selbst für die sprachliche Ausarbeitung: Um KI sinnvoll bei der Formulierung von Texten einzusetzen, muss man zunächst ein eigenes Gespür dafür entwickeln, was einen präzisen und gelungenen philosophischen Text ausmacht.

Wer KI sinnvoll beim Philosophieren einsetzen will, muss sich dieses philosophische Rüstzeug also zunächst aneignen. Dazu ist ein eigener Übungsprozess erforderlich, bei dem eine übermäßige Nutzung von KI eher hinderlich als förderlich ist. Wir ziehen daraus den Schluss, dass ein Philosophiestudium speziell in den frühen, kompetenzorientierten Kursen zu philosophischem Schreiben oder Argumentieren über KI-freie Räume verfügen sollte. Das lässt sich etwa über unterschriebene „Verzichtserklärungen“ oder durch Textarbeit im Seminarraum realisieren.

Der zweite Teil bezieht sich explizit auf die Übung im Umgang mit KI-Tools und deren Reflexion. Die gewinnbringende Nutzung von KI beim Philosophieren erfordert Übung und gelingt am besten, wenn sie kompetent angeleitet und gemeinsam reflektiert wird. Viele KI-Tools, insbesondere Sprachmodelle, sind gewissermaßen Blender: Sie treten selbstbewusst und kompetent auf, räumen Fehler meist erst nach direkter Konfrontation ein und liefern selbst dann autoritativ wirkende Antworten, wenn ihnen die nötigen Informationen fehlen. Hinzu kommt, dass ihre Texte durchgehend sehr geschliffen und makellos wirken. All das kann leicht dazu führen, dass man sich von ihnen beeindrucken lässt, ihnen Expertise zuschreibt und nicht mehr kritisch prüft, was sie einem präsentieren. Um dem entgegenzuwirken, muss diese kritische Distanz immer wieder bewusst hergestellt werden. Das gelingt am besten, wenn man, wie oben ausgeführt, über das nötige philosophische Rüstzeug verfügt und zugleich die Funktionsweise von KI-Tools und ihre typischen Eigenheiten kennt.

In unserer Taskforce haben wir versucht, dieses übergeordnete Ziel auf fünf konkrete Lernziele herunterzubrechen, von denen die ersten drei eher elementarer Natur sind und das vierte und fünfte eher fortgeschritten.  Mit Ausnahme des optionalen fünften Lernziels sollen sie nicht in eigenen Lehrveranstaltungen, sondern durch regelmäßige Übungen in bestehenden Veranstaltungen vermittelt werden.

  1. Lernziel: Funktionsweise und Grundverständnis – Die Studierenden verstehen die grundlegende Funktionsweise von KI-Tools, insbesondere von Large Language Models (LLMs). Sie wissen zum Beispiel, wie LLMs trainiert und feinjustiert werden und dass sie ihre Texte auf der Basis von Wahrscheinlichkeitsverteilungen generieren.
  2. Lernziel: Reflektierter Umgang – Die Studierenden wissen, worauf sie beim Einsatz von Chatbots achten müssen, und erkennen typische Fallstricke im Umgang mit KI. Sie sind sich der ethischen, rechtlichen und politischen Risiken bewusst – insbesondere im Hinblick auf Datenschutz, Manipulation, Bias und ökologische Auswirkungen – und können diese kritisch reflektieren.
  3. Lernziel: Stärken und Schwächen erkennen – Die Studierenden können einschätzen, in welchen Bereichen des Philosophierens LLMs leistungsfähig sind (z. B. Stilangleichung, Textüberarbeitung, Ideengenerierung) und in welchen sie systematisch scheitern (z. B. in Fragen von Argumentationslogik, Faktenwissen oder sehr spezifischen Inhalten). Sie verstehen, dass diese Stärken und Schwächen aus der technischen Struktur und den Trainingsbedingungen der Modelle resultieren.
  4. Lernziel: KI anwenden – Die Studierenden können begründet einschätzen, bei welchen Aufgaben LLMs im Philosophiestudium unterstützend eingesetzt werden können und bei welchen nicht. Sie verstehen, welche Formen des Gebrauchs legitim oder problematisch sind, und können zwischen sinnvollen und fragwürdigen Einsatzweisen unterscheiden.
  5. Lernziel: Philosophie der KI – Die Studierenden erkennen, dass die Entwicklung und Nutzung von KI – insbesondere von Sprachmodellen – grundlegende philosophische Fragen aufwirft. Sie können zentrale Problemfelder benennen, die      teils an bestehende Debatten anknüpfen (z. B. Denken, Bedeutung, Bewusstsein), teils neue Fragen aufwerfen (z. B. Verantwortung, Autorschaft, epistemische Autorität). Sie verstehen, dass diese Fragen aktuell Gegenstand intensiver philosophischer Forschung und Diskussion sind.

Wie solche Lernziele konkret umgesetzt werden können, hängt stark vom jeweiligen Seminarformat ab. Lernziel 5 lässt sich teilweise durch Exkurse in thematisch anders ausgerichtete Seminare integrieren, dürfte insgesamt jedoch am besten durch gezielte Lehrveranstaltungen zur Philosophie der KI realisiert werden. Lernziel 1 bedarf einer expliziten Thematisierung. In der Taskforce haben wir daher Materialien zusammengestellt, die Lehrenden eine verständliche Einführung in die Funktionsweise von KI-Tools erleichtern sollen. Sinnvoll erscheint es, eine solche Einführung möglichst früh im Studium zu platzieren, etwa in einem obligatorischen Einstiegskurs. Ähnliches gilt für Lernziel 2, das grundlegende Fragen des reflektierten Umgangs mit KI betrifft.

Für die Lernziele 3 und 4 haben wir eine Reihe einfacher Übungen gesammelt, die sich relativ leicht in unterschiedliche bestehende Lehrveranstaltungen integrieren lassen. Eine Möglichkeit besteht etwa darin, ein Sprachmodell eine Zusammenfassung eines philosophischen Textes oder Arguments erstellen zu lassen und das Ergebnis anschließend mit den Studierenden zu diskutieren: Welche Aspekte wurden korrekt erfasst, wo gehen wichtige Differenzierungen verloren? Eine andere Übung besteht darin, ein KI-System Literatur zu einem bestimmten Thema recherchieren zu lassen und anschließend systematisch zu überprüfen, welche der vorgeschlagenen Quellen tatsächlich existieren und relevant sind. Ähnlich lassen sich auch Faktenrecherchen oder Argumentrekonstruktionen überprüfen, indem man KI-generierte Ergebnisse mit anderen vergleicht. Solche Übungen verfolgen mehrere Lernziele zugleich: Sie verdeutlichen typische Stärken und Schwächen von Sprachmodellen, schärfen den Blick für ihre Fehlerquellen und ermöglichen es Studierenden, den praktischen Umgang mit diesen – und alternativen, ggf. besser geeigneten – Werkzeugen einzuüben. Darüber hinaus erlauben sie einen Austausch über die Frage, welchen Unterschied es für Lernende macht, ob ein Text selbst oder durch ein Sprachmodell verfasst wurde.

Die gegenwärtige Diskussion über KI im Studium wird häufig von der Sorge geprägt, dass diese Tools eigenständiges Denken und Schreiben untergraben könnten, was fraglos der Fall ist. Doch richtig eingesetzt können KI-Tools philosophisches Arbeiten auch sinnvoll ergänzen. Voraussetzung ist allerdings, dass Studierende sowohl das philosophische Handwerk beherrschen als auch lernen, KI-Tools kritisch und kompetent zu nutzen. Das Philosophiestudium sollte daher beides beinhalten: Räume für eigenständiges, KI-freies, Philosophieren ebenso wie Gelegenheiten, den reflektierten Umgang mit KI einzuüben. Wie genau diese Integration am besten gelingt, wird sich mit zunehmender Erfahrung in der Lehre und im Austausch zwischen den Instituten schrittweise genauer zeigen.


*Die ‘AI-Taskforce’ der Bielefelder Abteilung Philosophie ist eine Gruppe aus Mitarbeiter*innen verschiedener Karrierestufen sowie Philosophie-Studierenden der Universität Bielefeld, die sich zum Ziel gesetzt hat, Konzepte zur Integration von KI ins Philosophiestudium zu entwickeln und den Austausch zwischen Lehrenden und Studierenden zu diesem Thema zu fördern.


Zur Person

Dr. Steffen Koch ist akademischer Rat auf Zeit an der Abteilung Philosophie der Universität Bielefeld, wo er aktuell ein DFG-gefördertes Forschungsprojekt zu sprachlichen Interventionen leitet. Mehr zu seiner wissenschaftlichen Arbeit erfahren Sie auf www.steffenkoch.org.


Veröffentlicht unter der Creative Commons Lizenz CC BY-NC-SA 4.0.


Kommentare? Gern veröffentlichen wir selbst sehr kurze Repliken als eigene Beiträge. Mehr dazu unter Hinweise für Beitragende.