KI mit Vorurteilen? Vorurteile durch KI?
KI übernimmt die Weltherrschaft!
KI löscht menschliche Spezies aus!
KI wird für fliegende Autos genutzt!
Alles „Schlagzeilen“, wie wir sie schon zu gut aus Hollywood und Co kennen.
KI wird mit rassistischen Vorurteilen gefüttert!
KI macht deutsche Armee aus 1944 indigen!
KI stuft people of color als gefährlicher ein als weiße Menschen!
Im Gegensatz zu oben, sind das reale Vorkommnisse… Doch dazu später mehr.
Was ist eigentlich KI? KI steht für Künstliche Intelligenz und „ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren“[1]. KI soll uns jedenfalls im Alltag unterstützen und im besten Fall (nervige) Mechanismen und Vorgänge automatisieren und uns Menschen dadurch Arbeit abnehmen. KI wird schon vielfältig eingesetzt; auch du hast sicher schon KI verwendet, zum Beispiel ein Übersetzungstool, bei der Web-Suche oder beim Online-Shopping. KI ist also an und für sich ja gar nichts schlechtes, immerhin ist sie von Menschen geschaffen, um uns Menschen zu helfen.
Ah! Und da ist es auch schon – das große Problem:
„Von Menschen geschaffen“
Wie wir bereits gelernt haben, ist KI eine Art Tool, welches mit Daten „gefüttert“ wird. Doch nicht nur die Entwickler:innen füttern die KI mit Daten. Viele KIs greifen zB auf die Daten von User:innen zu und lernen dabei. Andere KIs nutzen auch bisherige Sachverhalte, Daten und Fälle. Eine KI hat somit Zugriff auf eine riesige Datenmenge und lernt daraus. Wenn also die Mehrheit der Daten auf gewisse Vorurteile gepolt ist bzw. sehr einseitige Meinungen oder Entscheidungen darstellt, nimmt die KI genau diese „Meinung“ bzw dieses Weltbild an. Heraus kommt somit eine „rassistische KI“. Wichtig festzuhalten ist hierbei nochmals, dass die KI an sich gar nicht rassistisch oder mit Vorurteilen behaftet sein kann – sie wird lediglich mit Informationen „gefüttert“, mit welchen sie dann arbeitet. Die KI kann auch nur mit jenen Informationen arbeiten, die sie von ihren Entwickler:innen und meist auch den User:innen erhält. Die KI ist somit ein Spiegelbild der vorhandenen Gesamtmenge an Daten und dadurch eigentlich ein direktes Abbild der Gesellschaft.
Diese Theorie ist ja schön und gut – aber kommen wir nun zu echten Beispielen, die genau das unterstreichen.
KI unterstützt die Justiz…
In den USA wird bereits seit langem eine KI eingesetzt, um Richter:innen dabei zu unterstützen, zu entscheiden, ob eine angeklagte Person ein hohes Rückfallrisiko hat oder nicht. In weiterer Folge wird dann auch von den Richter:innen, basierend auf dieser Berechnung, überlegt, ob die angeklagte Person auf Kaution freigelassen werden kann oder nicht. Also, ob diese Person während des ganzen Verfahrens in Haft (in Österreich: Untersuchungshaft) bleiben muss oder auf Kaution (eine hohe zu zahlende Geldsumme) freigelassen werden darf. Diese KI heißt COMPAS und steht für Correctional Offender Management Profiling for Alternative Sanctions – also übersetzt „Straffälligen-Management – Profilerstellung für alternative Sanktionen“. 2016 hat ein Team von ProPublica[2] Nachforschungen angestellt und kam zu dem Ergebnis[3], dass people-of-color-Angeklagte weitaus häufiger fälschlicherweise als rückfallgefährdet eingestuft wurden als weiße Angeklagte, während weiße Angeklagte häufiger fälschlicherweise als risikoarm eingestuft wurden. Die KI wird natürlich mit vielen Parametern gefüttert – es sind 137, um genau zu sein.[4] Doch hier kommt etwas vielleicht sehr Überraschendes: die Hautfarbe der angeklagten Person ist kein Parameter. Diese Erkenntnis führt uns zu einer noch größeren Herausforderung, nämlich der Frage, wie eine KI dermaßen rassistisch urteilen kann, ohne die Hautfarbe zu kennen. Ein Parameter ist unter anderem die Postleitzahl. Da es in den USA (wie eigentlich überall auf der Welt?) noch immer „typische Viertel“ für jede Hautfarbe oder kulturelle Zugehörigkeit gibt, wird die KI dadurch mit Vorurteilen gefüttert, dass sie eine gewisse Postleitzahl sofort einer gewissen Hautfarbe zuordnet.
…und generiert historische Bilder
Ein weiteres, sehr aktuelles Beispiel ist die KI Gemini[5]. Dieser Chatbot kann auch gewünschte Bilder generieren. Da bis dato KI-generierte Bilder nicht wirklich divers waren, also hauptsächlich Menschen mit weißer Hautfarbe und meist männlich und jung generiert haben, haben sich die Entwickler:innen von Gemini etwas zu sehr an einer gewissen „Wokeness“ orientiert. Doch vor mehr Erklärung, hier mal ein Beispielbild:
Anstatt wirklich authentisch nur weiße, männliche Soldaten darzustellen, hat die KI, um ja divers genug zu sein, einfach (und hier tatsächlich inkorrekt) people of color, sowohl männlich als auch weiblich, dargestellt. Dies ist ein gutes Beispiel dafür, dass der Versuch von Unvoreingenommenheit und Anti-Rassismus in der KI aktuell noch sehr schwer umsetzbar ist; wobei hier immerhin versucht wurde, diesem Bias zu trotzen und eben nicht die Vorurteile überhandnehmen zu lassen. Um den Vorwürfen des Rassismus-Bias zu umgehen, hat man hier die KI extra divers und „weltoffen“ programmiert. Der Versuch ist leider äußerst missglückt, da dadurch dann doch eher ein absurd anmutendes Ergebnis entstanden ist.
Und das Fazit nun? KI an sich ist nicht rassistisch. Sie ist einfach genau so, wie die Informationen, mit denen sie gefüttert wird. Um das große Problem der Vorurteile und des Rassismus also loszuwerden, sollten wir doch weiterhin an den Menschen arbeiten und nicht an der KI.
[1] Was ist künstliche Intelligenz und wie wird sie genutzt? | Themen | Europäisches Parlament (europa.eu)
[2] ProPublica — Investigative Journalism and News in the Public Interest
[3] How We Analyzed the COMPAS Recidivism Algorithm — ProPublica
[4] Sample-COMPAS-Risk-Assessment-COMPAS-„CORE“ – DocumentCloud