Code & Vorurteil – Adeoso/Berendsen/Fischer/Schnabel (Hrsg.) – Rezension

Marie-Sophie Adeoso/Eva Berendsen/Leo Fischer/Deborah Schnabel (Hrsg.): Code & Vorurteil, Berlin 2024. Erschienen in: Außerschulische Bildung – Zeitschrift der politischen Jugend- und Erwachsenenbildung 04/2024

Je mehr KI in den Mainstream rückt, wächst das Bewusstsein dafür, dass Technologie Auswirkungen auf die Demokratie und unsere demokratische Zukunft hat. Die Aufgabe der politischen Bildung muss hierbei sein, zur Befähigung von Bürger*innen beizutragen, indem sie Technologie und ihre (intendierte) soziale Wirkung zum Gegenstand macht, die Governance des Digitalen in den Fokus nimmt, wie auch die politischen, wirtschaftlichen und sozialen Leitbilder, entlang denen sich die Transformation entwickelt.

Etwas enttäuschend ist vor diesem Hintergrund, dass die intensiven, anspruchsvollen Debatten und Vorhaben europäischer und nationaler Digitalpolitiken nicht in den überwiegend sehr interessanten Beiträgen des Sammelbandes Berücksichtigung gefunden haben.

Der Band ist in drei Abschnitte unterteilt: Der erste Abschnitt zu „KI & strukturelle Ungleichheit“ stellt grundlegende Fragen. Hier überwiegt kundige Skepsis wie „Tech ist nicht nutzlos – aber auch nicht die Lösung“ (Asghari/Zueger). Geuter argumentiert, „warum KI-Anwendungen keine Alliierten sein können“, beziehungsweise, warum der Big-Data-Ansatz an sich problematisch sei und KI-Systeme strukturell nicht diskriminierungssensibel gestaltet werden könnten. Denn in Modellen werde eine Situation soweit vereinfacht, dass sie „in ein mathematisches Problem übersetzt werden kann“ (Wulf). Automation BIAS ließe uns den (menschengemachten) Modellen zu sehr vertrauen. ChatGPT erzeuge lediglich ein „verschwommenes JPG des Internets“ (Geuter, Chiang zitierend). Allgemein auf KI bezogen bedeutet dies: Erst wird mit viel Aufwand ein wenig nuanciertes und verzerrtes Bild der Wirklichkeit erzeugt (und wie Wulf hervorhebt: wesentlich durch Daten der Vergangenheit vorbestimmt), auf dessen Basis womöglich zu weitreichende Schlüsse für die Gegenwart und Zukunft gezogen werden.

Beckers Haltung umreißt am Beispiel Online-Antisemitismus ein Dilemma: KI und Algorithmen sind Brandbeschleuniger und Auslöser von Hasswellen. Gleichzeitig benötigt man KI für das Monitoring von Onlinehass und zu seiner Eingrenzung und Verfolgung. Wulf führt kenntnisreich in die KI automatisierter Entscheidungssysteme ein. Mundt stellt Fragen an die Möglichkeit von Kontingenz in einer KI-geprägten Kultur. Bulambo weist darauf hin, dass BIAS und Diskriminierung im Programmierprozess beginnen.

Alle Autor*innen des ersten Abschnitts misstrauen einem simplen „Solutionismus“, der soziale Probleme allein durch mehr und „bessere“ Technologie lösen möchte, selbst wenn diese unter den gleichen strukturellen Bedingungen entwickelt wird wie die, die mitverantwortlich für die Probleme ist. Nicht der Sache dienlich wäre es, diese Einwände mit „für progressive Kreise typische Technikfeindlichkeit“ abzutun.

Im zweiten Abschnitt geht es konkreter um KI & (Un)Fake. Die Beiträge wollen – wenn auch mit Disclaimern versehen – weitestgehend die Chance in KI betonen. Berendsen weist hingegen darauf hin, dass KI nicht für diejenigen gemacht wurde, die an Graustufen, Zwischentönen oder Vielfalt interessiert sind: „Es gibt gute Gründe für die AfD, auf generative KI bei der Bildproduktion zur ‚Illustration politischer Meinung‘ (Kleinwächter) zu setzen: Sie ist einfach anzuwenden. Sie ist kostengünstig. Und im Ergebnis so plakativ, dass die Grenze zum Ressentiment leicht überschritten werden kann.“ (S. 116)

Baumgartner ist in ihren Überlegungen zur Bekämpfung von Verschwörungserzählungen durch KI interessant, aber normativ unbestimmt. Kilg weist auf die „Liars Dividend“ (Lügendividende) derjenigen hin, die durch falsche Fake-Vorwürfe Vorteil aus der Verschmutzung der Infosphäre ziehen. Schnabel betont die Notwendigkeit eines „postdigitalen“ Ansatzes politischer Bildung. Auch ich halte eine postdigitale Perspektive für wesentlich, allerdings verstehe ich darunter gerade eine Haltung, die auf Distanz zu den rhetorischen Figuren des Intelligenten, Revolutionären oder Rasanten und zum Begriff KI selbst geht und sich für die politische Relevanz dieser Narrative interessiert.

Eine derartige postdigitale Perspektive könnte auch aktuelle Hologrammvisionen zur Zeitzeugenpräsentation und Ideen zur immersiven historisch-politischen Vermittlung mit den älteren Diskussionen in Geschichtswissenschaft und historisch-politischer Bildung zum gleichen Thema verknüpfen.

Der dritte Teil des Bandes fasst schließlich unter dem Titel „KI & Kontrolle“ vier Beiträge zusammen. Ein Interview mit Steyerl fügt sich in den skeptischen Sound des ersten Abschnitts. Das Gespräch liest sich als klarer Appell an das Lüften des Schleiers und das systemisch-kritische Denken. Auch Schelenz hebt auf strukturelle Probleme von KI ab, insbesondere die Vorspiegelung von Neutralität, Farbenblindheit, Reproduktion diskriminierender und rassistischer Muster der Vergangenheit.

Viel zu wenig Beachtung findet der Inhalt des ideologiekritischen Beitrags von Fischer zu „Long Terminism“ und „effektivem Altruismus“ und der verknüpften libertären, demokratie- und solidaritätszersetzenden Haltung.

Weil „das Internet“ auch in Zukunft nicht „Musk“ oder „Palo Alto“ heißen wird, wäre ein Artikel, der die alternativen techno-intellektuellen Ideen beschreibt, eine gute Ergänzung: Etwa, was das diverse und plurale, horizontale und offene Internet-Ökosystem nach wie vor zusammenhält, wie dezentrale und kontrollierbare KI-Szenarien aussehen, wieso Linux weiter existieren wird oder wie der europäische Weg der Digitalisierung begründet wird.

Nils-Eyk Zimmermann ist Referent im Arbeitskreis deutscher Bildungsstätten (AdB) für das Projekt politischbilden.de sowie Bildner, Berater und Autor in den Themenfeldern politische Bildung, digitale Transformation, aktive Bürgerschaft, Zivilgesellschaft in Europa.

Berlin 2024
Verbrecher Verlag, 232 Seiten