Stell dir vor, es ist Uni und keiner geht hin

VON GREGOR BETZ (KARLSRUHE)

Dieser Beitrag erscheint im Rahmen des Themenschwerpunkts „Künstliche Intelligenz in der philosophischen Hochschullehre“.

2022 war nicht nur das Jahr von ChatGPT. Im Windschatten des von OpenAI freigeschalteten Chatbots zeigte Anthropic mit dem Constitutional-AI-Ansatz, dass hinreichend große Large Language Models (LLMs) selbstlernende Systeme sind und keineswegs bloß nachplappernde Papageien. Die Evaluationsergebnisse von Googles PALM-Modellen, ebenfalls 2022 veröffentlicht, erreichten und übertrafen menschliche Kompetenzniveaus in zahlreichen Dimensionen. 2022 wurde ferner die Effektivität von Chain of Thought Reasoning nachgewiesen, und, so berichtete die Washington Post, der ehemalige Google-Ingenieru Blake Lemoine glaubte im Chatbot LaMDA eine bewusstseinsfähige Person zu erkennen.

Durch all diese Entwicklungen fühlte ich mich damals bestätigt. 2022 entwickelte und erprobte ich, aufbauend auf früheren Forschungsprojekten und daraus entstandenen selbsttrainierten Modellen, den KI-Tutor seppl zur Begleitung studentischer Argumentanalysen und Rekonstruktionsprojekte. Drei Jahre zuvor, mit der Veröffentlichung von GPT-2, hatte ich philosophische Interessen zurückgestellt und meine akademischen Pläne umgeworfen, um die Technologie hinter den Language Models zu verstehen und zu beherrschen. Damals, 2019, hielt ich diesen Technologiepfad für den vielverprechendsten Weg zu artificial general intelligence (AGI). 2022 dachte ich dann, ähnlich wie der KI-Wissenschaftler Peter Norvig, dass wir bereits erste rudimentäre Formen von AGI sehen.

Nach 2022 haben die LLMs wie kaum eine andere Technologie unsere Arbeits- und Alltagswelt in kürzester Zeit verändert. Dabei reden wir nicht nur über Chatbots: LLM-basierte KI-Agenten führen komplexe Tätigkeit aus – sei es entlang definierter Arbeitsabläufe oder hochautonom –, nutzen dabei eigenständig und effektiv beliebige Werkzeuge und Hilfsmittel wie Suchmaschinen, Nachschlagewerke oder Programmierumgebungen, steuern Maschinen, autonome Fahrzeuge sowie Roboter und kooperieren miteinander in Multi-Agenten-System, um Pläne zu schmieden und diese arbeitsteilig umzusetzen.

Meine Einschätzung ist: Wir haben heute einen Punkt erreicht, an dem im Prinzip jede geisteswissenschaftliche Tätigkeit durch ein KI-System ausgeführt werden kann, ohne dass es zu Qualitätseinbußen der Ergebnisse dieser Tätigkeit (in der Regel Texte) kommen würde. Heute müssen dafür noch entsprechend spezialisierte KI-Systeme von ExpertInnen eigens zusammengebaut werden, in wenigen Jahren aber wird man sie einfach von der Stange kaufen können.

In den letzten Jahren habe ich häufig gedacht: Das ist doch kaum zu glauben! Wahnsinn! Das verändert alles! Wer hätte das vor zehn Jahren für möglich gehalten? – Wie kann man denn jetzt einfach weitermachen, als wäre nichts geschehen? Wie kann man das ignorieren?

(Erklärungsversuche: Kognitive Pfadabhängigkeiten? Wissenschaftliche Paradigmen? Technische Überforderung? Karrierestreben? Fehlanreize im Wissenschaftssystem? Digitalphobie? Dunning-Kruger-Effekt? Myopia? Fatalismus? Self-serving bias? Freud’sche Kränkung?)

Ich sehe uns mit Affenzahn in eine Zukunft rasen, in der wir Menschen kognitiv redundant sind: Für jeden noch so wunderbar komplizierten Prozess des Denkens, Fragens, Grübelns oder Erkennens wird es einen input-output-äquivalenten maschinell realisierbaren Vorgang geben. Genauer gesagt: „prinzipiell realisierbaren“, denn ob geeignete Maschinen, ausreichend Energie oder der Wille, jene einzusetzen, im konkreten Fall vorhanden sind, ist freilich offen. Dabei steuern wir auf diese Zukunft zu, ohne uns auch nur annähernd angemessen darauf vorzubereiten, sie zu gestalten.

Selbst wer mir hier nicht folgen mag, wird vielleicht doch zugestehen, dass das Szenario kognitiver Redundanz immerhin eine ernstzunehmende Möglichkeit ist und in praktischer Deliberation und Entscheidungsfindung daher vorsorglich mitbedacht werden sollte.

Daran aber mangelt es. Insbesondere die Universitäten haben die Generative-KI-Revolution, trotz inzwischen zunehmender Schlüsselqualifikationsangebote und Online-Kurse rund um LLMs, verschlafen. Und diese mangelnde Vorsorge drohen als Erste unsere heutigen Studierenden zu spüren zu bekommen, nachdem sie ihren Abschluss gemacht haben und eine Arbeit suchen werden. Wir Lehrenden lassen unsere Studierenden schlicht im Stich. Dass viele Studierende KI-Technologien sorglos und geradezu naiv als simple Arbeitserleichterung begrüßen, statt sich ob dieser neuen Konkurrenz doppelt ins Zeug zu legen, entschuldigt nicht, dass die Universität so zögerlich und träge reagiert, sondern unterstreicht nur das Versagen des akademischen Establishments. (Und manchmal wünschte ich mir, das Schummeln mit Chatbots solle auf dieses Unrecht aufmerksam machen, sei eine Form des akademischen Ungehorsams, anstatt bloß der Bequemlichkeit geschuldet.)

Doch was würde es heißen, das Szenario epistemischer Redundanz vorsorglich mitzubedenken? Was können insbesondere wir Lehrenden tun?

Dazu ein Gedanke: Nehmen wir an, Ziel sei es, dass die Studierenden zusätzlich zu den philosophischen und kognitiven Fertigkeiten, die sie schon heute im Studium erlernen, außerdem noch die Kompetenzen erwerben, KI-Systeme zu gestalten, effektiv einzusetzen und kritisch zu beurteilen, damit sie ihr Berufs- und Privatleben unter völlig neuartigen technologischen Rahmenbedingungen möglichst selbstbestimmt führen sowie gewinnbringend an gesellschaftlichen Debatten und demokratischen Entscheidungsprozessen zur Entwicklung und Nutzung von KI teilhaben können. Um dieses Ziel zu erreichen, könnten klassische Fertigkeiten und KI-Kompetenzen zusammengedacht werden: Anstatt bloß die Kompetenz X zu erwerben, üben wir ein, (a) ein KI-System zu bauen, das über die Kompetenz X verfügt, (b) dieses effektiv einzusetzen und (c) es kritisch zu beurteilen. Zum Beispiel: Die Studierenden geben nicht bloß die zentralen Gedanken eines undurchsichtigen Klassikers in einfachen Worten wieder, sondern gestalten ein LLM-basiertes System (indem sie etwa ein passendes offenes Sprachmodell wählen, Anweisungen sorgfältig formulieren, Musterlösungen anfertigen, Zwischenschritte einbauen, Textdatenbanken verknüpfen, Werkzeuge zur Verfügung stellen, sampling parameter anpassen etc.), welches Klassiker-Texte paraphrasiert, wenden dieses System systematisch auf Testfälle an und evaluieren dessen Leistung kritisch, was eben bedingt, dass sie gute von schlechten Interpretationen unterscheiden können.

So eine Lem’sche Wende in der Lehre erlaubte nicht nur den intendierten doppelten Kompetenzerwerb, sondern hätte noch weitere Vorteile: Die Studierenden machten wertvolle Wirksamkeitserfahrungen, was einer möglichen kognitiven Kapitulation und gedanklichen Lähmung in Folge von als übermächtig wahrgenommenen KI-Systemen entgegen wirken kann. Die Studierenden würden dabei auch in die Lage versetzt, eigene und hochgradig personalisierte KI-Lernassistenten zu entwerfen. Und die Studierenden arbeiteten schließlich transparent und erwünschterweise mit KI-Systemen, deren Nutzung honoriert würde, sodass heimliche KI-Nutzung keine Vorteile mehr brächte.

Das Szenario kognitiver Redundanz zwingt uns nicht nur dazu, die Hochschullehre zu reformieren, es stellt noch viel grundlegender die Institution der Universität in ihrer heutigen Ausprägung in Frage. Aus Sicht der Studierenden fällt ein wesentliches Argument für die Uni weg, sodass viele junge Menschen in Zukunft denken werden: „Ein Abschluss garantiert mir auch keinen Job mehr (ist vielleicht sogar hinderlich).“ Und wer trotzdem etwas lernen möchte, ist im Szenario epistemischer Redundanz mit – jederzeit ansprechbaren, unendlich geduldigen, immerzu höflichen und wohlwollenden, humorvollen und motivierenden, gebildeten und blitzgescheiten – persönlichen KI-Lernassisten, -Mentoren und -Coaches häufig besser bedient als mit HochschuldozentInnen. Stell Dir vor, es ist Uni und keiner geht hin! Aus Sicht der öffentlichen Hand hat sich damit auch das OECD-Argument für Universitäten erübrigt: Die Anzahl an Studienplätzen und HochschulabsolventInnen ist für die volkswirtschaftliche Leistung völlig unerheblich. Und auch das Innovationsargument verfängt nicht mehr: LLM-basierte KI-Systeme machen mehr und interessantere wissenschaftliche Entdeckungen und sie lösen technologische Probleme schneller und kostengünstiger als klassische Wissenschaftseinrichtungen, in denen Menschen forschen. Wenn die Universitäten nicht einfach zusammengestrichen werden und schließlich verschwinden sollen, müssen wir diese Institutionen nochmals anders denken und begründen als heute – vielleicht als Orte, an denen Personen zusammenkommen, die Studium als Lebensform begreifen und gemeinsam wertschätzend lernen wollen, ohne dass dies funktional erforderlich wäre oder irgend einen Zweck erfüllte.

Im Hintergrund dieser Überlegungen – und dazu sei mir ein letztes Wort gestattet – stehen die Auswirkungen von KI-Technologien auf das Wirtschaftssystem und den Arbeitsmarkt. Wenn der Grenzertrag der geistigen und körperlichen (→Robotik) Arbeit gegen Null geht, droht nahezu niemand mehr seinen Lebensunterhalt durch eigene Erwerbstätigkeit bestreiten zu können, und auch die Finanzierung von Staatshaushalten in der jetzigen Form bricht völlig ein. Ohne weitreichende Reform unseres Wirtschaftssystems würde das gesamte volkswirtschaftliche Einkommen über Kapitalerträge an Vermögende verteilt. Kaum vorstellbar, dass das ein dauerhaft friedlicher Zustand sein könnte. Ob dieser Aussichten verblasst auch ein bisschen die Sorge um die Zukunft der Universität. Studiengangs- und Universitätsreformen sind auf keinen Fall ausreichend, um für epistemische Redundanz vorzusorgen. Was tun? In meinen Augen drängt sich z.B. ein Buying-Time-Argument für die sofortige Einrichtung eines bedingungslosen Grundeinkommens auf, das in Abhängigkeit der Entwicklung des Arbeitsmarktes gestaffelt hochgefahren werden kann und durch Kapitalertragssteuer und KI-Wertschöpfungs-Abgabe finanziert ist. Und dann, mit etwas Zeit, müssen wir womöglich Vieles ganz grundsätzlich neu durchdenken und uns politisch engagieren, um nicht von technologischen Entwicklungen überrollt zu werden.


Zur Person

Gregor Betz ist Professor für Wissenschaftsphilosophie am Karlsruher Institut für Technologie (KIT). Seit der Veröffentlichung von GPT-2 im Jahr 2019 verfolgt er Projekte im Bereich der computergestützten Philosophie an der Schnittstelle von NLP und KI, bei denen sogenannte große Sprachmodelle zum Einsatz kommen. Darüber hinaus hat er 2023 Logikon AI gegründet, ein Start-up, das Methoden des kritischen Denkens anwendet, um generative KI zu verbessern.


Veröffentlicht unter der Creative Commons Lizenz CC BY-NC-SA 4.0.


Kommentare? Gern veröffentlichen wir selbst sehr kurze Repliken als eigene Beiträge. Mehr dazu unter Hinweise für Beitragende.