von Adrien Fields
Der Schriftsteller, Podcast-Host und Ferrars & Fields-Gastautor Ralph Mönius hat mich zuerst darauf aufmerksam gemacht: Microsoft Word würde in seinen Entwürfen konsequent weibliche Berufsbezeichnungen als Rechtschreibfehler anstreichen und ins Maskulinum korrigieren wollen. Ähnliche Korrekturen wollten auch Apple Pages und Open Office vornehmen. Obgleich das nicht bei allen weiblichen Berufsbezeichnungen so war, wären weibliche Formen prinzipiell schwierig, was ihm das zeitgemäße Schreiben erschwerte. Unser daraus resultierendes Gespräch führte mich auf die Suche nach den Fehlern in Algorithmen. Dabei sollten Automatisierungen unser Leben doch effizienter, gerechter und genauer machen. Doch die Beispiele, die eine entgegengesetzte Entwicklung zeigen, sind überwältigend. Wo kommen diese Fehler also her? Welche Bedeutung haben Sie für die Evolution von AI im Allgemeinen? Und wie können wir sie korrigieren?
Vor allem die Chancen und Gefahren von Gesichtserkennungssoftware wurden in den vergangenen Jahren immer wieder diskutiert. Dabei handelt es sich wohl um die bekannteste Art von Algorithmen, die direkt in unser Leben eingreifen und es zu einem gewissen Grad sogar formen.
Die Probleme von Gesichtserkennungssoftware enden aber nicht dort — generell rangieren deren Fehler von unangenehm über diskriminierend bis hin zu brandgefährlich, vor allem wenn sie in der Strafverfolgung eingesetzt werden.
Beispiel hierfür ist die Software HireVue- ein Programm zur Analyse von Aufnahmen von Bewerbungsgesprächen. HireVue analysiert Gestik und Mimik von BewerberInnen und generiert darauf basierend einen “Employability”-Wert. Dieser soll Personalchefs die Entscheidung erleichtern. Vor allem in Großkonzernen und in Banken hat HireVue bisher Anwendung gefunden, doch unabhängige AI-Spezialisten haben reichlich Kritik: Der Algorithmus habe keine wissenschaftliche Basis, würde gegen nervöse BewerberInnen und ImigrantInnen diskriminieren. Der Washington Post sagte HireVue CEO Loren Larsen in Antwort darauf, dass seine Kritiker nur begrenztes Verständnis von Psychologie hätten. Die Probleme von Gesichtserkennungssoftware enden aber nicht dort — generell rangieren deren Fehler von unangenehm über diskriminierend bis hin zu brandgefährlich, vor allem wenn sie in der Strafverfolgung eingesetzt werden.
Das solche Software vor allem Probleme hat die Gesichter von nicht weißen Frauen zu erkennen ist ein dokumentierter Fakt. Die bekannteste Studie stammt von Informatikerin Joy Buolamwini, die Algorithmen darauf testete, die Gesichtsstruktur von Menschen verschiedener Hautfarben und Geschlechter zu erkennen. Buolamwini stellte fest, dass die Gesichter von dunkelhäutigen Frauen in 35% der Fälle fehlerhaft oder gar nicht erkannt wurden. Bei weißen Männern liegt die Fehlerquote bei nur 0.8%. Solche Software wurde bis Mitte diesen Jahres von großen Technologiefirmen wie Microsoft, Amazon und IBM an die amerikanische Polizei verkauft, trotz der Warnung durch Experten.

Warum also funktionieren diese Algorithmen also derart fehlerhaft? Die produzierenden Firmen und Software-Developer als rassistisch abzutun fühlt sich einfach an, doch lösungsorientiert ist es nicht. Obgleich die Abwesenheit von Frauen und People of Color in Big Tech ein großes Problem darstellt, liegt in den meisten Fällen das Problem in dem Datensatz, mit dem der Algorithmus trainiert wird. Vor allem in Datensätzen, die durch die breite Öffentlichkeit beeinflusst werden können, können sich Vorurteile und Diskriminierung abbilden. Das interne Sprichwort von Programmierern für solche Fälle lautet: “garbage in, garbage out.” Die Beispiele dafür reichen von Microsofts misogynen Twitter-Bot, zu einer Studie die zeigte, dass Frauen und Männern bei gleichen Google Suchen nach Jobs verschieden Angebote gezeigt wurden.
Wenn es also oft die Datensätze sind, die Diskriminierung dokumentieren und so AI dazu führen, diese zu reproduzieren, stellt sich im Bezug auf Ralphs Word-Problem also die Frage: Welchen Datensatz bzw. welches Wörterbuch benutzt Microsoft Word? Die Internetrecherche gab wenig bis keine Antworten. Microsoft lässt sich nicht in die Karten schauen. Zwar gibt es die Möglichkeit Wörterbücher, seperate zu kaufen und als Add-On in Word zu benutzen, doch wer das Standardwörterbuch schreibt ist scheinbar ein gut gehütetes Geheimnis.
Die Frage danach, warum künstliche Intelligenz das tut was es tut — weibliche Berufsbezeichnungen nicht anerkennen, nicht-weiße Gesichter schlechter differenzieren als weiße Gesichter, LGBTQ-Inhalte prinzipiell als für Werbung ungeeignet markieren — scheint uns als Gesellschaft am Meisten zu bringen, wenn sie im Hinblick darauf gestellt wird, für wen die künstliche Intelligenz arbeitet.
Ist die Reproduktion von Diskriminierung von Robotern in den meisten Fällen also ein Unfall, ausgelöst durch ein unglücklich ausgewähltes Set von Daten? Das würde ein simpel zu lösendes Problem darstellen, doch so einfach ist es nicht.
YouTube, eine Untersektion des Internet-Giganten Google, benutzt seit Jahren einen Algorithmus um Werbungen auf Videos zu deaktivieren, die dieser für potentiell ungeeinigt hält. Laut dem Guide für “Advertiser-friendly content” für Content Creator sind dies vor Allem Videos die sich mit Drogen, Gewalt und Sex auseinandersetzen, doch auch Videos über “kontroverse Themen” können für Werbungen blockiert werden. Der Einsatz des Algorithmus bedeutete eine grundlegende Veränderung dafür, wie Youtube seine Content Creator bezahlt. Im Angesicht der weitläufigen Deaktivierung von Werbung gingen viele zu Sponsorships und Crowdfunding-Plattformen wie Patreon über, statt sich für ihren Lebensunterhalt auf die Werbeeinnahmen ihrer Videos zu verlassen. Der Algorithmus selbst scheint noch Jahre seit seiner Einführung für viele undurchschaubar.

In 2019 verklagte eine Gruppe von LGBTQ-YouTubern aus den USA YouTube auf Diskriminierung, nachdem sie festgestellt hatten dass Videos, die im Titel explizit die Wörter “gay” oder “transgender” erwähnen, schon vor Veröffentlichung für Werbung gesperrt wurde. Für Menschen, die auf YouTube Arbeit zur Aufklärung über sexuelle und geschlechtliche Identitäten leisten, stellte dies verständlicherweise ein Problem dar: Vermeidet man Trigger-Worte in den Meta-Daten der Videos, wird es nicht nur schwer die Zielgruppe zu erreichen, sondern ebenso schwer für potentielle Zuschauer passende Videos zu finden. Das Vorgehen des Algorithmus scheint hier zwar antithetisch zu dem progressiven Image, das Google für die Platform vorgesehen hat, doch eines lässt sich nicht leugnen: In dem der Algorithmus LGBTQ-Inhalte als für Werbung ungeeignet markiert, erfüllt er seinen Zweck. Denn Unternehmen geben beim Schalten ihres Werbevideos nur eine Zielgruppe an, die sie erreichen möchten. Welche Videos auf welchen Kanälen gezeigt werden bestimmt hier abermals künstliche Intelligenz, die beide demografischen Datensätze vergleicht. Die Lebenssituation von LGBTQ-Personen ist nach wie vor kontrovers. Erfahrungsgemäß bekennen sich große Unternehmen nur an geeigneten Anlässen als queerfreundlich — sprich zum Christopher Street Day oder Pride-Monat. Im Namen des Geschäftes ist diese Unterstützung ein Spektakel. Und dennoch scheint das Schalten von Werbung auf LGBTQ-zentrierten Videos schlecht fürs Geschäft für Google, denn auch implizite Stellungnahme zu kontroversen Themen ist schlecht fürs Geschäft der Werbepartner. Also geht man lieber auf Nummer sicher. Dieses Beispiel zeigt abermals die Prioritätsstellung des Profites. Dabei war das große Versprechen der Automatisierung doch die Erleichterung der tagtäglichen Arbeit für die breite Bevölkerung, nicht nur für Großkonzerne und die exekutive Macht.
Welche Probleme mit AI einhergehen zeigt sich erst nach und nach. Wie sich an dem Beispiel YouTube sehen lässt, scheint es schwer dem Profit-Motiv nachzugehen und gleichzeitig dieses Versprechen zu halten. Die Frage danach, warum künstliche Intelligenz das tut was es tut — weibliche Berufsbezeichnungen nicht anerkennen, nicht-weiße Gesichter schlechter differenzieren als weiße Gesichter, LGBTQ-Inhalte prinzipiell als für Werbung ungeeignet markieren — scheint uns als Gesellschaft am Meisten zu bringen, wenn sie im Hinblick darauf gestellt wird, für wen die künstliche Intelligenz arbeitet. Es kann sein, dass sich der Algorithmus eigentlich genauso verhält, wie er soll. Vielleicht könnte eine vollkommen vom Profit-Motiv gelöste Erforschung von künstlicher Intelligenz das Versprechen einer Arbeitserleichterung für die breite Masse halten – das bedürfte jedoch grundlegender Änderungen in der Art wie wir arbeiten und forschen.
Ferrars & Fields Magazine
We are a Berlin based bilingual magazine featuring culture, politics and art.
Instagram: @ferrarsfieldsmag Twitter: @ferrarsfields