Schwache KI in der Lehre: Kritisches Denken und KI-Kompetenz

VON JONAS CARSTENS (DÜSSELDORF)

Wird künstliche Intelligenz in der Öffentlichkeit diskutiert oder im Marketing beworben, entsteht schnell der Eindruck, wir befänden uns in einer ebenso unaufhaltsamen wie unlenkbaren Revolution. Dabei scheint der Fortschritt der Technologie ein Eigenleben zu entwickeln. Kritik sowohl an diesem Diskurs selbst als auch an konkreten Anwendungen wird dabei oft als sinnlose Maschinenstürmerei abgetan oder mit Verweis auf enorme zu erwartende Effizienzgewinne entwertet. 

Die Problematik solcher Formulierungen lässt sich am besten mit dem Begriff Technodeterminismus beschreiben. Technologieentwicklung wird dabei der Kritik entzogen, indem sie als unaufhaltbares Naturgesetz dargestellt wird. Eine solche Sichtweise verstellt nicht nur den Blick auf Entscheidungen, die bei Technologieentwicklung getroffen werden, sie entlässt auch diejenigen, die Technologien entwickeln, aus der Verantwortung indem Technologie mystifiziert wird (siehe zum Problem der Mystifizierung Campolo & Crawford, 2020). Die Philosophie kann wichtige Beiträge leisten, um eine technodeterministische Sichtweise auf KI aufzubrechen und darunter liegende normative Entscheidungen und Fragen offenzulegen. Diese Beiträge sind nicht nur selbst ein wertvoller Inhalt der Lehre, sie vermitteln Studierenden auch kritische KI-Kompetenz. 

Zunächst ist allerdings zu klären, von welcher Art der künstlichen Intelligenz hier die Rede sein soll. Eine grobe Trennung lässt sich zwischen starker und schwacher KI ziehen. Während „starke KI“ futuristische Szenarien von Systemen mit einem Bewusstsein und Interessen bezeichnet, bezieht sich „schwache KI“ auf Systeme, denen diese Eigenschaften fehlen. Konkreter sollen Prozesse maschinellen Lernens diskutiert werden, also solche Systeme, die an Datensätzen trainiert werden oder Systeme, die durch verstärkendes Lernen lernen, d. h. durch das häufige Wiederholen einer Aufgabe unter Berücksichtigung einer Belohnungsfunktion. Unter „maschinelles Lernen“ fallen beispielsweise Systeme zur Kreditrisikobewertung oder Bilderkennung, aber auch die großen Sprachmodelle, die die Grundlage für Anwendungen wie ChatGPT bilden. Zwar bietet auch starke KI spannende Ansätze, um über normative Fragen nachzudenken und diese in der Lehre zu behandeln, etwa bezüglich des moralischen Status solcher Systeme, allerdings kann das unkritische Übernehmen von Annahmen über die Entwicklung starker KI auch Teil eines Technodeterminismus sein. Zusätzlich bietet schwache KI, wie sich im Folgenden zeigen wird, die Möglichkeit, Anwendungen vor dem Hintergrund bestehender Ungleichheiten und Machtverhältnisse zu betrachten, was beispielsweise im Kontext der Diskriminierungstheorie besonders relevant ist. 

Wenn normative Fragen, die mit dem Einsatz von KI zusammenhängen, in der Lehre behandelt werden sollen, so ist ein sinnvoller erster Schritt, sich mit dem Ziel auseinanderzusetzen, für das ein Programm eingesetzt werden soll. Die versprochene Effizienzsteigerung durch KI ist eben nur instrumentell wertvoll und damit abhängig von dem Ziel, das effizienter verfolgt wird. Hier lassen sich etwa Einsätze zur Bilderkennung in Überwachungskontexten oder das gezielte Nudging, also das Anstupsen in Richtung wünschenswerter Verhaltensweisen diskutieren. Auch bei KI, die freiwillig eingesetzt wird, um das eigene Verhalten zu optimieren, lassen sich beispielsweise Fragen zum Wert der Autonomie oder Authentizität stellen. Methodisch bieten sich hier zur Anregung der Diskussion leicht abgewandelte Gedankenexperimente an, die Studierenden auf solche Fragen hinweisen können. Angelehnt an Robert Nozicks Experience Machine lässt sich beispielsweise fragen, ob sich Studierende nach den Empfehlungen eines Systems richten würden, welches nutzenmaximierend ideale Lebensentscheidungen für sie vorschlägt. Mithilfe dieser Methode lassen sich die Konsequenzen und Implikationen der Nutzung mancher Modelle herausstellen und es kann eine Konzentration auf die normativen Fragen erfolgen, die ansonsten in der Diskussion um KI eher implizit bleiben. Dabei kann es auch sinnvoll sein, sich von den technischen Beschränkungen aktuell verfügbarer Systeme zu lösen, um zu diskutieren, ob eine Weiterentwicklung überhaupt wünschenswert wäre. 

Zusätzlich ist fraglich, inwiefern der KI-Einsatz auch für legitime Ziele normativ begründete Bedingungen verletzt. So besteht der Wert von maschinellem Lernen in vielen Anwendungskontexten darin, Korrelationen und Muster in Daten nutzbar zu machen, die einer menschlichen Beurteilung kaum oder gar nicht zugänglich sind. Zeigt sich beispielsweise, dass ein bestimmtes Stimmprofil negativ mit der Jobperformance korreliert, so stellt sich dennoch die Frage, ob eine Ablehnung von Bewerber:innen auf Grundlage dieser Korrelation nicht legitime Erwartungen verletzt. Die Mitglieder einer Gesellschaft stellen sich in der Regel darauf ein, wie zentrale Institutionen funktionieren und es ist mindestens diskussionswürdig, ob eine solche unvorhersehbare Veränderung dieser Spielregeln akzeptabel ist. Als Ausgangspunkt einer Diskussion oder auch als Einführung in zentrale Fragen eines Seminars bietet sich hier die Beschäftigung mit realen Anwendungen an, die Studierennde in näherer Zukunft unmittelbar betreffen können. Die vielfältigen bereits genutzten KI-Systeme kann hier zusätzlich die aktuelle Relevanz des Lehrstoffs verdeutlichen.

Neben der Zielsetzung eines Einsatzes und solchen grundsätzlichen Problemen ist der Entwicklungsprozess selbst keinesfalls nur durch technische Notwendigkeiten determiniert, sondern in hohem Maße abhängig von den Entscheidungen, die während dieses Prozesses getroffen werden. Soll beispielsweise mittels eines Modells unter Bewerber:innen nach potenziell guten Angestellten gesucht werden, so muss dieses „amorphe Problem“ in eine Zielvariable überführt werden, die zum Training und Einsatz eines Modells genutzt werden kann (Barocas & Selbst, 2016, S. 678). Einfacher gesagt muss das Konzept „gute Angestellte“ operationalisiert und spezifiziert werden, also beispielsweise als „Angestellte, die besonders lange im Unternehmen verbleiben“. Dabei entsteht natürlicherweise ein Entscheidungsspielraum. Werden gute Angestellte beispielsweise als solche definiert, die lange in einem Unternehmen bleiben, können manche soziale Gruppen vermehrt ausgeschlossen werden. 

Ein weiteres Beispiel für die Definition der Zielvariable bietet das sogenannte „argument mining“, also die automatisierte Suche nach Argumenten und deren Hervorheben in Online-Diskursen, um Debatten zu fördern oder Bürgerbeteiligungsverfahren zu strukturieren. Was ein Argument ist, muss hier zunächst definiert werden und dabei besteht die Gefahr, dass eine zu enge Definition privilegierte, gebildete Menschen bevorzugt, während andere ausgeschlossen werden. Solche Entscheidungen lassen sich aus verschiedenen philosophischen Perspektiven analysieren und kritisieren. Sophie Moreau beispielsweise argumentiert, dass unsere Gesellschaft von sogenannten „structural accomodations“ geprägt ist, die ungerechterweise die Interessen und Identitäten dominanter Gruppen als normal konstituieren, während andere marginalisiert werden (Moreau, 2020, S. 56). 

Die Analyse von Entscheidungen vor dem Hintergrund dieser Überlegungen öffnet die Perspektive für die Frage, welche impliziten Annahmen aber auch welche soziokulturellen Perspektiven durch KI unkritisch reproduziert werden. Gleichzeitig erfordert diese Analyse von Lehrenden wie Studierenden ein Verständnis grundlegender Aspekte maschinellen Lernens. Glücklicherweise mangelt es nicht an Texten, die hierfür im Seminar gelesen werden können. Besonders hervorzuheben wäre beispielsweise im Bereich der KI-Diskriminierung die Arbeit von Barocas und Selbst (2016). In der Umsetzung bietet sich auch eine Aufteilung der Studierenden in verschiedene Gruppen an, die sich jeweils im Vorfeld eines Seminares vertieft mit bestimmten Aspekten von KI auseinandersetzen, etwa mit dem Problem intransparenter Modelle oder dem Lernen an belasteten Trainingsdaten. Eine Einbindung der erarbeiteten Ergebnisse in Form von Impulsreferaten erlaubt eine breite Auseinandersetzung mit verschiedenen technischen Aspekten von KI, ohne dass dabei der philosophische Kern des Seminars aus dem Blick gerät. In einem Blockseminar bieten sich auch Diskussionsgruppen mit rotierenden Teilnehmenden an. Meiner Erfahrung nach wirken solche Einteilungen in Expert:innengruppen zusätzlich motivierend, da klar ist, dass der eigene Beitrag nicht einfach von anderen Studierenden übernommen werden kann.

Auch in Diskursen, in denen bereits ein kritisches Bewusstsein für die Auswirkungen von KI vorherrscht, ist eine Auseinandersetzung mit den involvierten normativen Fragen wichtig. Als Beispiel lässt sich hier die Diskussion um die richtige Betrachtungsweise von KI-Diskriminierung heranziehen. Bei maschinellem Lernen besteht insbesondere die Gefahr, dass auch problematische Entscheidungsmuster erlernt werden. Wurde im Personalwesen in der Vergangenheit beispielsweise rassistisch oder sexistisch entschieden, dann werden auch diese in den Daten vorhandenen Muster erlernt. Solche KI-Diskriminierung wird einerseits erfasst, indem operationalisierbare Fairnessdefinitionen verwendet werden, bei denen beispielsweise die Frage nach gleichen Raten falsch-positiver oder falsch-negativer Vorhersagen für verschiedene Gruppen im Mittelpunkt steht. Andererseits ist diese Vorgehensweise starker Kritik von den Befürworter:innen einer soziotechnischen Perspektive ausgesetzt (Sartori & Theodorou, 2022; Selbst et al., 2019). Hiernach wäre KI als Teil eines soziotechnischen Systems zu verstehen, also beispielsweise als Teil des Gesamtsystems Arbeitsmarkt. Dadurch gerät dann die Interaktion von KI mit bestehenden Ungleichheiten in den Blick. Wie ist es beispielsweise zu bewerten, wenn strukturelle Diskriminierung kausal das Kreditrisiko einzelner Bewerber:innen beeinflusst, die Nutzung von KI aber zu weitgehenden Ausschlüssen vulnerabler Gruppen vom Kreditmarkt beiträgt? Was, wenn das Modell zwar für bestimmte Gruppen keine schlechteren Voraussagen liefert, die Voraussagen aber von Personaler:innen systematisch diskriminierend genutzt werden, also einer negativen Empfehlung in Bezug auf Minderheiten öfter gefolgt wird? Die soziotechnische Kritik argumentiert dabei teilweise, dass KI letztlich den Status quo erhält und gesellschaftliche Ungleichheit reproduziert und leitet beispielsweise Forderungen nach einer antikolonialen KI ab (Zajko, 2021).

Auch in dieser ausdifferenzierten Diskussion kann die Philosophie wertvolle Beiträge liefern. Welche Verantwortung haben Unternehmen, die KI einsetzen und entwickeln, einen möglicherweise teuren Beitrag zur Verringerung gesellschaftlicher Ungleichheit zu leisten? Wie ist der Einsatz intransparenter Modelle zu beurteilen, bei denen häufig nur schwer zu antizipieren ist, ob und wie sie Ungleichheiten reproduzieren oder sogar verstärken? Nur eine genaue Auseinandersetzung mit der Ethik der Diskriminierung oder der Verteilungsgerechtigkeit kann klären, inwiefern eine Verantwortung bei einzelnen Unternehmen liegt und inwiefern der Staat inklusivere KI Systeme fördern oder sogar garantieren sollte. Dadurch kann zwischen formalisierten Fairnessdefinition und einer soziotechnischen Kritik, die oft die Reproduktion gesellschaftlicher Ungleichheiten lediglich beschreibt, der Fokus auf die Bewertung von Entscheidungen und Strukturen gelegt werden. Hier bietet sich sowohl eine Lektüre von Texten der Ethik und politischen Philosophie, aber auch von Diskussionen soziotechnischer Kritik wie etwa Selbst et al. (2019) an. Ziel einer Seminardiskussion kann hier beispielsweise sein, Forderungen an Unternehmen oder Entwickler:innen und Forderungen der Verteilungsgerechtigkeit zunächst zu differenzieren und dann kritisch auf ihre Begründung zu untersuchen. 

Gleichzeitig sollte Kritik nicht als einseitige Opposition gegen eine neue Technologie verstanden werden. Auch in einer kritischen Betrachtung kann anerkannt werden, dass eine höhere Produktivität pro eingesetzter Arbeitsstunde unter sonst gleichen Umständen ein Gut ist. Hier lässt sich aus einer Perspektive der Verteilungsgerechtigkeit diskutieren, wie solche Produktivitätsgewinne zu verteilen sind. Insbesondere wenn KI tatsächlich großflächig Arbeitsschritte ersetzt, wird auch eine Diskussion über Wert und Verteilung von Freizeit, beispielsweise als Primärgut, relevant und interessant. Die praktische Philosophie kann hier einen wertvollen Beitrag leisten, um die Vorteile von KI über rein wirtschaftliche Aspekte hinaus zu erfassen. 

Schwache KI ist einerseits ein wertvolles Objekt philosophischer Analysen und philosophischer Lehre, weil sie interessante Fragen nach Verteilungsgerechtigkeit aber auch nach dem ethischen Verhalten einzelner Entwickler:innen aufwirft. An der genauen Beschäftigung zeigt sich, wie sehr philosophische Argumentation gefragt ist, um zu begründen, warum eine mögliche Entscheidung einer anderen vorzuziehen ist. Damit kann Studierenden die Fähigkeit vermittelt werden, technodeterministische Narrative zu dekonstruieren. Zugleich wird die KI-Kompetenz der Studierenden gefördert und hoffentlich ein Problembewusstsein auch für die eigene Nutzung geschaffen. KI-Entwicklung ist durch Perspektiven und Vorurteile der Entwickler:innen geprägt und sie ist in gesellschaftliche Machtverhältnisse eingebunden. Idealerweise sind diese Überlegungen, wenn es gelingt, sie in der Lehre zu vermitteln, sowohl Motivation, selbst weiter zu denken, als auch Anreiz, die Ergebnisse von Modellen, die im Studium genutzt werden, kritisch zu hinterfragen. 


Literatur

Barocas, S., & Selbst, A. D. (2016). Big Data’s Disparate Impact. California Law Review, 104, 671–732. https://doi.org/10.2139/ssrn.2477899

Campolo, A., & Crawford, K. (2020). Enchanted Determinism: Power without Responsibility in Artificial Intelligence. Engaging Science, Technology, and Society, 6, 1–19. https://doi.org/10.17351/ests2020.277

Moreau, S. (2020). Faces of Inequality: A theory of wrongful discrimination. Oxford University Press. https://ebookcentral.proquest.com/lib/kxp/detail.action?docID=6141251

Sartori, L., & Theodorou, A. (2022). A sociotechnical perspective for the future of AI: Narratives, inequalities, and human control. Ethics and Information Technology, 24(1), 4. https://doi.org/10.1007/s10676-022-09624-3

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S., & Vertesi, J. (2019). Fairness and Abstraction in Sociotechnical Systems. Proceedings of the Conference on Fairness, Accountability, and Transparency, 59–68. https://doi.org/10.1145/3287560.3287598Zajko, M. (2021). Conservative AI and social inequality: Conceptualizing alternatives to bias through social theory. AI & SOCIETY, 36(3), 1047–1056. https://doi.org/10.1007/s00146-021-01153-9


Zur Person

Jonas Aaron Carstens studierte in Kiel praktische Philosophie der Wirtschaft und Umwelt sowie Philosophie und Englisch auf Lehramt. Er ist wissenschaftlicher Mitarbeiter an der Heinrich-Heine-Universität Düsseldorf und forscht vor allem zu Diskriminierungstheorie und zur Ethik künstlicher Intelligenz.


Veröffentlicht unter der Creative Commons Lizenz CC BY-NC-SA 4.0.


Kommentare? Gern veröffentlichen wir selbst sehr kurze Repliken als eigene Beiträge. Mehr dazu unter Hinweise für Beitragende.