Eine ausgewogenere öffentliche Debatte über Digitalisierung braucht Alternativen und Ergänzungen zu den weit verbreiteten Bildern vom Digitalen.
Veröffentlicht bei Politischbilden.de
Der Zwiespalt zwischen Neugier, Nervenkitzel, Euphorie und Unbehagen, den viele Menschen im Hinblick auf Künstliche Intelligenz (KI) und Digitalisierung empfinden, wurzelt in der Ungewissheit, wie das Verhältnis von Mensch zu Maschine, bzw. von Individuen zu Daten verarbeitenden Systemen, in Zukunft ausgestaltet sein wird. Führt sie zur Kontrolle durch Menschen oder maschineller Kontrolle? Welche neuen Möglichkeiten eröffnen sich uns als Gattung, wie beeinflusst Mensch-Maschine-Zusammenarbeit unser Recht?
Nicht die Maschine – also der Computer, der Roboter oder das smarte Gerät – ist dabei Quelle der Sorge, sondern die ihnen zugrundeliegende Berechnungsfähigkeit. Ausgeschaltet ist ein Roboter nicht viel mehr als ein Haufen Metall. Aber wenn ein System funktioniert, ist es möglich, dass ein Algorithmus zum Beispiel entscheidet, ob jemand angestellt oder entlassen wird, ob jemand bestimmte Tätigkeiten ausführen kann oder daran gehindert wird, sie auszuführen. Leider sehen Algorithmen nicht so spektakulär aus wie die Maschinen, die sie erst smart machen, so dass es uns schwerfällt, sich ein Bild von ihnen zu machen.
Das ist auch eine Entscheidung des Produktdesigns. Eric Schmidt (Google) verwendete den Begriff „creepy line“, um zu erklären, wie Big-Data-Plattformen und IT-Unternehmen auf die Gefahr reagieren, dass Menschen sie als zu weitgehend betrachten könnten: „Googles Politik bei vielen dieser Dinge ist es, bis an die creepy line heranzugehen, sie aber nicht zu überschreiten. Dinge in Ihr Gehirn zu implantieren, ist jenseits der creeply line. Zumindest momentan, bis die Technologie besser wird“ (Schmidt, 2010).
In diesem Zusammenhang ist eine bewusste Strategie der Hersteller*innen, beim Design von smart home Geräten keine Assoziatio-nen mit Humanoiden oder Robotern zu wecken. Amazons Assistentin Alexa und Apples Siri wurden zum Beispiel ganz bewusst zu weiblich gestaltet. Loidean und Adams wiesen auf die problematischen Entscheidungen der Designer*innen der digitalen Assistenten in Bezug auf die Darstellung des Weiblichen hin. Weibliche Stimmen werden oft als friedlich (statt bedrohlich) und helfend (statt lenkend) wahrgenommen. „Diese Kommunikationen werden von witzigen und koketten Charakteren geliefert, die sich durch programmierte Antworten auf die perversesten Fragen zeigen“ (Loidean & Adams, 2019, S. 2). Was würde sich aber ändern, wenn wir stattdessen mit Sirius, Alex oder G. Rät sprechen würden?
Dies ist nur ein Beispiel, das uns zeigt, wie über die Schaffung von Bildern und Attributen komplexe Prozesse und Geräte vertraut werden.
Veröffentlicht bei Politischbilden.de unter einer Creative Commons Namensnennung-Share Alike 4.0 International Public License (CC BY-SA 4.0):