Rechtschreibung, Gesichtserkennung, Profit — Ein Deep Dive in die Zusammenarbeit von Kapitalismus und AI

von Adrien Fields

Der Schrift­steller, Pod­cast-Host und Fer­rars & Fields-Gas­tau­tor Ralph Mönius hat mich zuerst darauf aufmerk­sam gemacht: Microsoft Word würde in seinen Entwür­fen kon­se­quent weib­liche Berufs­beze­ich­nun­gen als Rechtschreibfehler anstre­ichen und ins Maskulinum kor­rigieren wollen. Ähn­liche Kor­rek­turen woll­ten auch Apple Pages und Open Office vornehmen. Obgle­ich das nicht bei allen weib­lichen Berufs­beze­ich­nun­gen so war, wären weib­liche For­men prinzip­iell schwierig, was ihm das zeit­gemäße Schreiben erschw­erte. Unser daraus resul­tieren­des Gespräch führte mich auf die Suche nach den Fehlern in Algo­rith­men. Dabei soll­ten Automa­tisierun­gen unser Leben doch effizien­ter, gerechter und genauer machen. Doch die Beispiele, die eine ent­ge­genge­set­zte Entwick­lung zeigen, sind über­wälti­gend. Wo kom­men diese Fehler also her? Welche Bedeu­tung haben Sie für die Evo­lu­tion von AI im All­ge­meinen? Und wie kön­nen wir sie korrigieren?

Vor allem die Chan­cen und Gefahren von Gesicht­serken­nungssoft­ware wur­den in den ver­gan­genen Jahren immer wieder disku­tiert. Dabei han­delt es sich wohl um die bekan­nteste Art von Algo­rith­men, die direkt in unser Leben ein­greifen und es zu einem gewis­sen Grad sog­ar formen.

Die Prob­leme von Gesicht­serken­nungssoft­ware enden aber nicht dort — generell rang­ieren deren Fehler von unan­genehm über diskri­m­inierend bis hin zu brandge­fährlich, vor allem wenn sie in der Strafver­fol­gung einge­set­zt werden.

Beispiel hier­für ist die Soft­ware Hire­Vue- ein Pro­gramm zur Analyse von Auf­nah­men von Bewer­bungs­ge­sprächen. Hire­Vue analysiert Gestik und Mimik von Bewer­berIn­nen und gener­iert darauf basierend einen “Employability”-Wert. Dieser soll Per­son­alchefs die Entschei­dung erle­ichtern. Vor allem in Großkonz­er­nen und in Banken hat Hire­Vue bish­er Anwen­dung gefun­den, doch unab­hängige AI-Spezial­is­ten haben reich­lich Kri­tik: Der Algo­rith­mus habe keine wis­senschaftliche Basis, würde gegen nervöse Bewer­berIn­nen und Imi­gran­tInnen diskri­m­inieren. Der Wash­ing­ton Post sagte Hire­Vue CEO Loren Larsen in Antwort darauf, dass seine Kri­tik­er nur begren­ztes Ver­ständ­nis von Psy­cholo­gie hät­ten. Die Prob­leme von Gesicht­serken­nungssoft­ware enden aber nicht dort — generell rang­ieren deren Fehler von unan­genehm über diskri­m­inierend bis hin zu brandge­fährlich, vor allem wenn sie in der Strafver­fol­gung einge­set­zt werden.

Das solche Soft­ware vor allem Prob­leme hat die Gesichter von nicht weißen Frauen zu erken­nen ist ein doku­men­tiert­er Fakt. Die bekan­nteste Studie stammt von Infor­matik­erin Joy Buo­lamwi­ni, die Algo­rith­men darauf testete, die Gesichtsstruk­tur von Men­schen ver­schieden­er Haut­far­ben und Geschlechter zu erken­nen. Buo­lamwi­ni stellte fest, dass die Gesichter von dunkel­häuti­gen Frauen in 35% der Fälle fehler­haft oder gar nicht erkan­nt wur­den. Bei weißen Män­nern liegt die Fehlerquote bei nur 0.8%. Solche Soft­ware wurde bis Mitte diesen Jahres von großen Tech­nolo­giefir­men wie Microsoft, Ama­zon und IBM an die amerikanis­che Polizei verkauft, trotz der War­nung durch Experten.

Bild von Anna Shvets via pexels.com

Warum also funk­tion­ieren diese Algo­rith­men also der­art fehler­haft? Die pro­duzieren­den Fir­men und Soft­ware-Devel­op­er als ras­sis­tisch abzu­tun fühlt sich ein­fach an, doch lösung­sori­en­tiert ist es nicht. Obgle­ich die Abwe­sen­heit von Frauen und Peo­ple of Col­or in Big Tech ein großes Prob­lem darstellt, liegt in den meis­ten Fällen das Prob­lem in dem Daten­satz, mit dem der Algo­rith­mus trainiert wird. Vor allem in Daten­sätzen, die durch die bre­ite Öffentlichkeit bee­in­flusst wer­den kön­nen, kön­nen sich Vorurteile und Diskri­m­inierung abbilden. Das interne Sprich­wort von Pro­gram­mier­ern für solche Fälle lautet: “garbage in, garbage out.” Die Beispiele dafür reichen von Microsofts misog­y­nen Twit­ter-Bot, zu ein­er Studie die zeigte, dass Frauen und Män­nern bei gle­ichen Google Suchen nach Jobs ver­schieden Ange­bote gezeigt wur­den.

Wenn es also oft die Daten­sätze sind, die Diskri­m­inierung doku­men­tieren und so AI dazu führen, diese zu repro­duzieren, stellt sich im Bezug auf Ralphs Word-Prob­lem also die Frage: Welchen Daten­satz bzw. welch­es Wörter­buch benutzt Microsoft Word? Die Inter­ne­trecherche gab wenig bis keine Antworten. Microsoft lässt sich nicht in die Karten schauen. Zwar gibt es die Möglichkeit Wörter­büch­er, seper­ate zu kaufen und als Add-On in Word zu benutzen, doch wer das Stan­dard­wörter­buch schreibt ist schein­bar ein gut gehütetes Geheimnis.

Die Frage danach, warum kün­stliche Intel­li­genz das tut was es tut — weib­liche Berufs­beze­ich­nun­gen nicht anerken­nen, nicht-weiße Gesichter schlechter dif­feren­zieren als weiße Gesichter, LGBTQ-Inhalte prinzip­iell als für Wer­bung ungeeignet markieren — scheint uns als Gesellschaft am Meis­ten zu brin­gen, wenn sie im Hin­blick darauf gestellt wird, für wen die kün­stliche Intel­li­genz arbeitet.

Ist die Repro­duk­tion von Diskri­m­inierung von Robot­ern in den meis­ten Fällen also ein Unfall, aus­gelöst durch ein unglück­lich aus­gewähltes Set von Dat­en? Das würde ein sim­pel zu lösendes Prob­lem darstellen, doch so ein­fach ist es nicht.

YouTube, eine Unter­sek­tion des Inter­net-Gigan­ten Google, benutzt seit Jahren einen Algo­rith­mus um Wer­bun­gen auf Videos zu deak­tivieren, die dieser für poten­tiell ungeeinigt hält. Laut dem Guide für “Adver­tis­er-friend­ly con­tent” für Con­tent Cre­ator sind dies vor Allem Videos die sich mit Dro­gen, Gewalt und Sex auseinan­der­set­zen, doch auch Videos über “kon­tro­verse The­men” kön­nen für Wer­bun­gen block­iert wer­den. Der Ein­satz des Algo­rith­mus bedeutete eine grundle­gende Verän­derung dafür, wie Youtube seine Con­tent Cre­ator bezahlt. Im Angesicht der weitläu­fi­gen Deak­tivierung von Wer­bung gin­gen viele zu Spon­sor­ships und Crowd­fund­ing-Plat­tfor­men wie Patre­on über, statt sich für ihren Leben­sun­ter­halt auf die Wer­beein­nah­men ihrer Videos zu ver­lassen. Der Algo­rith­mus selb­st scheint noch Jahre seit sein­er Ein­führung für viele undurchschaubar.

via pexels.com

In 2019 verk­lagte eine Gruppe von LGBTQ-YouTu­bern aus den USA YouTube auf Diskri­m­inierung, nach­dem sie fest­gestellt hat­ten dass Videos, die im Titel expliz­it die Wörter “gay” oder “trans­gen­der” erwäh­nen, schon vor Veröf­fentlichung für Wer­bung ges­per­rt wurde.   Für Men­schen, die auf YouTube Arbeit zur Aufk­lärung über sex­uelle und geschlechtliche Iden­titäten leis­ten, stellte dies ver­ständlicher­weise ein Prob­lem dar: Ver­mei­det man Trig­ger-Worte in den Meta-Dat­en der Videos, wird es nicht nur schw­er die Ziel­gruppe zu erre­ichen, son­dern eben­so schw­er für poten­tielle Zuschauer passende Videos zu find­en.  Das Vorge­hen des Algo­rith­mus scheint hier zwar anti­thetisch zu dem pro­gres­siv­en Image, das Google für die Plat­form vorge­se­hen hat, doch eines lässt sich nicht leug­nen: In dem der Algo­rith­mus LGBTQ-Inhalte als für Wer­bung ungeeignet markiert, erfüllt er seinen Zweck.  Denn Unternehmen geben beim Schal­ten ihres Wer­be­v­ideos nur eine Ziel­gruppe an, die sie erre­ichen möcht­en. Welche Videos auf welchen Kanälen gezeigt wer­den bes­timmt hier aber­mals kün­stliche Intel­li­genz, die bei­de demografis­chen Daten­sätze ver­gle­icht. Die Lebenssi­t­u­a­tion von LGBTQ-Per­so­n­en ist nach wie vor kon­tro­vers. Erfahrungs­gemäß beken­nen sich große Unternehmen nur an geeigneten Anlässen als queer­fre­undlich — sprich zum Christo­pher Street Day oder Pride-Monat. Im Namen des Geschäftes ist diese Unter­stützung ein Spek­takel. Und den­noch scheint das Schal­ten von Wer­bung auf LGBTQ-zen­tri­erten Videos schlecht fürs Geschäft für Google, denn auch implizite Stel­lung­nahme zu kon­tro­ver­sen The­men ist schlecht fürs Geschäft der Wer­bepart­ner. Also geht man lieber auf Num­mer sich­er. Dieses Beispiel zeigt aber­mals die Pri­or­itätsstel­lung des Prof­ites. Dabei war das große Ver­sprechen der Automa­tisierung doch die Erle­ichterung der tagtäglichen Arbeit für die bre­ite Bevölkerung, nicht nur für Großkonz­erne und die exeku­tive Macht.

Welche Prob­leme mit AI ein­herge­hen zeigt sich erst nach und nach. Wie sich an dem Beispiel YouTube sehen lässt, scheint es schw­er dem Prof­it-Motiv nachzuge­hen und gle­ichzeit­ig dieses Ver­sprechen zu hal­ten. Die Frage danach, warum kün­stliche Intel­li­genz das tut was es tut — weib­liche Berufs­beze­ich­nun­gen nicht anerken­nen, nicht-weiße Gesichter schlechter dif­feren­zieren  als weiße Gesichter, LGBTQ-Inhalte prinzip­iell als für Wer­bung ungeeignet markieren — scheint uns als Gesellschaft am Meis­ten zu brin­gen, wenn sie im Hin­blick darauf gestellt wird, für wen die kün­stliche Intel­li­genz arbeit­et. Es kann sein, dass sich der Algo­rith­mus eigentlich genau­so ver­hält, wie er soll. Vielle­icht kön­nte eine vol­lkom­men vom Prof­it-Motiv gelöste Erforschung von kün­stlich­er Intel­li­genz das Ver­sprechen ein­er Arbeit­ser­le­ichterung für die bre­ite Masse hal­ten – das bedürfte jedoch grundle­gen­der Änderun­gen in der Art wie wir arbeit­en und forschen.

Ferrars & Fields Magazine 

We are a Berlin based bilin­gual mag­a­zine fea­tur­ing cul­ture, pol­i­tics and art.
Insta­gram: @ferrarsfieldsmag Twit­ter: @ferrarsfields

#YOUAREFFMAG