Humane Algorithmen – dafür legt sie sich mit Amazon an
Die nigerianisch-kanadische Forscherin Deborah Raji überprüft Software, die das Leben von Menschen zerstören kann. Das kommt nicht überall gut an. Serie «Digital Warriors», Folge 1.
Von Roberta Fischli (Text) und Jeanne Detallante (Illustration), 04.01.2022
Deborah Raji ist gerade am Flughafen Toronto Pearson in Kanada, als es mal wieder passiert. Sie hat ihr Ticket dabei, das Gepäck aufgegeben, alles ist bereit. Doch jetzt steht sie vor einem Scanner, der ihr Gesicht mit dem Foto auf dem Pass abgleichen soll. Sie dreht und wendet den Kopf, probiert verschiedene Distanzen aus. Ohne Erfolg. «Wahrscheinlich fiel das Licht ungünstig auf mein Gesicht», sagt sie und verdreht die Augen. Nach einigen Minuten muss sie das Personal rufen. Die Maschine hat ihr Gesicht nicht erkannt.
Gesichtserkennungssoftware wird von Digitalunternehmen gerne als «Wundertechnologie» präsentiert. Ausgeklügelte Programme sollen helfen, Betrügerinnen zu erkennen, Terroristen, mögliche Verdächtige. Dass diese Technologien erstaunlich gut auf dem Papier funktionieren und ausgesprochen schlecht für Menschen, die nicht dem weissen Standardtyp entsprechen, den die Silicon-Valley-Forscherinnen vor Augen hatten, wissen wir dank drei Frauen. Eine von ihnen ist Deborah Raji. «Kritiker halten mir vor, ich wisse zu wenig darüber, wie maschinelles Lernen in der Praxis funktioniert», sagt sie und streicht sich eine geflochtene Haarsträhne aus dem Gesicht. «Dabei war es genau diese Arbeit, die mich radikalisierte.»
Deborah Inioluwa Raji: geboren in Nigeria, aufgewachsen in Kanada, radikalisiert in den USA. Wer sich mit ihr treffen möchte, muss geduldig sein – und hartnäckig. Auf die erste Presseanfrage reagiert sie nicht, auf die zweite stark verspätet und mit einer Absage. Dass sie ihre Meinung ändert, liegt nur daran, dass man sich als Doktorandin zu erkennen gegeben hat, die sich für ähnliche Themen interessiert. Die schlechte Erreichbarkeit ist keine Attitüde, sondern die Konsequenz ihrer sich selbst auferlegten Mission, Digitalunternehmen und Programmierer in die Verantwortung zu ziehen.
Digitalisierung wird von Männern geprägt – hört man oft. Doch das ist nur die halbe Wahrheit. Denn die Silicon-Valley-Bros werden zunehmend in Verlegenheit gebracht. Von Frauen. Die Serie «Digital Warriors» stellt fünf von ihnen vor. Zur Übersicht.
Sie lesen: Folge 1
Die Hartnäckige: Deborah Raji, Berkeley
Folge 3
Der Uber-Schreck: Veena Dubal, San Francisco
Folge 4
Die Furchtlose: Timnit Gebru, San Francisco
Folge 5
Die Vordenkerin: Francesca Bria, Rom
Bis jetzt hat es nicht schlecht funktioniert. Während Gleichaltrige von einer ersten Praktikumsstelle träumen, hat die 24-Jährige bereits eine Bildungsinitiative für einkommensschwache Bevölkerungsgruppen gegründet, Algorithmen von Big-Tech-Unternehmen kontrolliert und eine der grössten Technologiefirmen zum Rückzug einer Software gezwungen. Für «Forbes» gehört sie zu den 30 einflussreichsten Tech-Persönlichkeiten unter 30, die «MIT Technology Review» des Massachusetts Institute of Technology (MIT) nennt sie eine der wichtigsten Visionärinnen unter 35. Raji sitzt nun in einem Studentencafé unweit des Universitätscampus im kalifornischen Berkeley und sagt, sie frage sich zunehmend, ob sie eigentlich ein Teil des Problems sei, das sie lösen wolle.
«Viele Systeme, die wir auf die Bevölkerung loslassen, funktionieren nicht richtig», sagt Raji. Mit «wir» meint sie Informatiker und Programmiererinnen wie sich selber, die Algorithmen und Technologien entwickeln, deren genaues Zusammenspiel sie nicht wirklich verstehen, die aber sehr konkrete Auswirkungen für die Betroffenen haben können. «Nur weil wir mit Programmen arbeiten, sind wir nicht aus der Verantwortung entlassen», sagt Raji. Wenn ein Arzt pfusche, könne das über Leben und Tod entscheiden. In der Technologie sei es dasselbe. «Je nach Reichweite eines Algorithmus kann eine Fehlerquote von 0,1 Prozent Hunderttausende von Menschen das Leben kosten.» Weil sie nicht die richtige Gesundheitsversorgung bekommen. Weil ihnen Sozialleistungen aberkannt werden. Weil sie als Terroristinnen verdächtigt werden. Alles schon passiert. Deshalb ist Raji jetzt zu einer Art «digitalem watchdog» geworden. Sie nennt es: algorithmic auditing.
Vielleicht liege es daran, dass sie sich als drittes von fünf Kindern immer habe durchsetzen müssen, sagt Raji, «aber ich identifiziere Ungerechtigkeit ziemlich schnell». Schnell ist sie ohnehin meistens, nicht nur im Denken und Tippen, sondern auch im Sprechen. Wenn sich Raji in Rage redet, gehen teilweise ganze Silben verloren. Dann grinst sie verlegen, trinkt einen grossen Schluck von ihrem Mocha Latte und sieht aus wie jede andere Studentin im lichtdurchfluteten Café – mit der Ausnahme, dass Raji eigentlich nur Dinge macht, welche die klassische Wissenschaftskarriere erst in ein paar Jahren vorsieht: internationale Vorträge, Podcast-Auftritte, Forschungsartikel quasi im Zweiwochentakt. Sie publiziert so viel, dass Timnit Gebru, mittlerweile eine der bekanntesten AI-Ethik-Forscherinnen der Welt, die Ankündigung eines neuen Papiers mit der Frage kommentierte, woher Raji eigentlich all die Zeit nehme; sie habe schon Mühe damit, alle ihre Beiträge überhaupt zu lesen.
Gesichtserkennungs-Technologie funktioniert – für weisse Männer
Ihre Radikalisierung beginnt im Sommer 2016, als sie eine Praktikumsstelle beim Start-up Clarifai antritt, das mithilfe von maschinellem Lernen Bilder und Videos analysiert. Raji gilt als kreative Studentin, die in ihrer Freizeit gerne an Hackathons teilnimmt und eigene Programme schreibt. Bei Clarifai soll sie an einem Algorithmus arbeiten, der unangebrachte Inhalte identifiziert. Sie ist fasziniert vom dynamischen Arbeitsumfeld, der furchtlosen Attitüde ihrer Kollegen. Bis sie feststellt, dass ihr Algorithmus übermässig oft Inhalte markiert, die von Menschen mit dunkleren Hauttönen stammen.
Schuld sind die Trainingsdaten. Weil es schwierig ist, an genügend Material zu kommen, bedienen sich Programmiererinnen bei klassischen Bildarchiven – und Pornografie. Doch während Erstere fast nur Menschen in hellen Hauttönen zeigen, weisen Letztere eine hohe Diversität auf. Deshalb assoziiert der Algorithmus einen dunklen Hautton automatisch mit unangebrachten Inhalten. Darauf angesprochen, reagiert ihr Vorgesetzter mit einem Schulterzucken: Es sei schon schwierig genug, an genügend Trainingsdaten zu gelangen, um ethnische Vielfalt könne man sich nicht auch noch kümmern.
Weil ihr die Sache mit dem Algorithmus keine Ruhe lässt, beginnt sie nach Gleichgesinnten zu suchen. Sie findet: Joy Buolamwini. Die Masterstudentin am MIT Media Lab arbeitet an einer ethnisch ausgewogenen Datenbank, seit sie von einer Gesichtserkennungssoftware fälschlicherweise als Mann eingestuft wurde.
Zusammen mit Timnit Gebru, einer Doktorandin aus Stanford, wollen die Frauen testen, wie gut aktuelle Technologien zur Gesichtserkennung in einer Gesellschaft funktionieren, die aus Menschen mit verschiedenen Hauttönen und Geschlechtern besteht – also in der Realität. Sie testen drei Firmen, die solche Technologien bereits aktiv vertreiben: IBM, Microsoft und die chinesische Firma Megvii. Die Resultate ihrer «Gender Shades»-Studie sind eindeutig: Die Technologie funktioniert fast einwandfrei bei weissen Männern und bis zu 30 Prozent schlechter bei Frauen mit dunkleren Hauttönen. Diverse Medien greifen die Geschichte auf. Die Firmen versprechen, ihre Technologie zu verbessern.
«Bei uns zeigen sich die Mängel im System»
Dass drei schwarze Frauen auf die Mängel der Technologie aufmerksam geworden seien, sei kein Zufall, sagt Raji. «Wir gehören zu jener Gruppe, die nicht in den Daten abgebildet ist. Bei uns zeigen sich die Mängel im System.» Ein Jahr später führen Raji und Buolamwini eine zweite Testrunde durch. Als Kontrollvariablen nehmen sie die Technologien zweier neuer Firmen dazu: Amazon und Kairos. Diesmal leitet Raji die Untersuchung. Sie stellen fest: Während sich die Firmen aus der ersten Runde stark verbessert haben, weisen Amazon und Kairos ähnlich schlechte Resultate auf wie jene im Vorjahr. Kurz nach der Veröffentlichung nimmt die «New York Times» die Geschichte auf, denn die Studie hat brisante Implikationen: Amazon ist dabei, die fehlerhafte Technologie an die amerikanische Immigrations- und Kriminalbehörde zu verkaufen.
Dann wird es richtig hässlich.
Zuerst schickt Amazon hauseigene Forscher vor, die behaupten, die Resultate würden internen Studien widersprechen. Auf die Aufforderung, diese publik zu machen, geht der Konzern nicht ein. Stattdessen werden Buolamwini und Raji mit privaten E-Mails von höchster Stelle unter Druck gesetzt. Und Buolamwinis Betreuer am Massachusetts Institute of Technology, Ethan Zuckerman, versucht man ebenfalls zu beeinflussen.
Gleichzeitig vernehmen die Forscherinnen, dass die Firma intern offenbar fieberhaft versucht, die Technologie zu verbessern, während sie nach aussen jegliche Fehler abstreitet. Als auch noch Spitzenforscher im Bereich künstliche Intelligenz in einem offenen Brief die Studie unterstützen und IBM verkündet, die eigene Software vom Markt zu nehmen, krebst auch Amazon zurück. Die Software wird zuerst suspendiert, dann bis auf weiteres vom Markt genommen. Im Juni 2021 reicht der demokratische Senator Edward Markey einen Gesetzesvorschlag ein, der den staatlichen Einsatz von Gesichtserkennungstechnologien weitgehend verbieten würde.
Die Geschichte mit Amazon habe ihr aufgezeigt, sagt Raji, «dass die Diskussion über Vor- und Nachteile von algorithmischen Systemen überflüssig ist, solange unklar ist, ob sie überhaupt funktionieren». Was klar ist: Fehlerhafte Technologien treffen überproportional oft Minderheiten, die ohnehin schon stärker unter Druck stehen. Die Gefahr ist, mit neuen Systemen alte Probleme zu wiederholen – und sie dank der multiplizierten Reichweite im digitalen Kontext zu verstärken. Das ist auch der Grund, weshalb sich Raji in ihrer Arbeit nur mit Algorithmen beschäftigt, die bereits auf die Bevölkerung losgelassen werden. Über ideale Standards zu sprechen, sei wichtig, sagt sie, aber zuerst müssten Firmen und Programmierer lernen, Verantwortung für jene Produkte zu übernehmen, die sie entwickeln und auf den Markt bringen. «Niemand spricht von idealen Resultaten. Es geht um minimalen Schutz.»
Ohne Ethik keine Technik
Mit ihrer Auffassung, dass ethische Verantwortung und Produktentwicklung nicht zu trennen sind, bringt Raji etablierte disziplinäre Grenzen ins Wanken. Seit Jahrzehnten gibt es in Forschungskreisen eine Diskussion darüber, ob eine Ingenieurin eine ethische Verantwortung für ihre Arbeit übernehmen kann und soll.
Die Antwort verläuft entlang zweier Lager. Im einen geht man von einer disziplinären Gewaltentrennung aus; ethische und philosophische Fragen werden an jene delegiert, die sich bestens damit auskennen. Anhänger des zweiten Lagers sind der Ansicht, dass diese Trennung eine gefährliche Illusion ist und dass jedes technische System implizit die Werte und Vorstellungen von jenen übernimmt, die es entwickelt haben. Bis jetzt verliefen die Trennlinien entlang disziplinärer Stränge: Ingenieurinnen und Programmierer auf der einen Seite, Soziologinnen, Wissenschaftsphilosophen auf der anderen. Raji gehört zu einer kleinen, aber wachsenden Gruppe von Forschenden, die einen technischen Hintergrund haben und sich dennoch für ethische Verantwortlichkeit aussprechen. Oder genau deshalb.
«Deborah ist eine starke Programmiererin, die keine Angst davor hat, unbequeme Fragen zu stellen. Das unterscheidet sie von vielen Zeitgenossen», sagt Janice Wait von der Mozilla Foundation, einer Stiftung, die Forschung im Bereich künstliche Intelligenz, Transparenz und algorithmische Verzerrung fördert. Wait kennt Raji aus diversen Projekten, in denen sie zusammengearbeitet haben. Was Raji auszeichne, sagt sie, sei ihr starkes soziales Engagement in, aber auch abseits der Forschung. So nimmt Raji auf Twitter Stellung zu aktuellen Fragen und erklärt unermüdlich und präzise, warum algorithmische Diskriminierung nicht nur eine Frage von Daten ist, sondern auch eine Frage der Politik.
Dass sich Techniker oft aus der Verantwortungsdebatte rausnähmen, liege nicht an bösem Willen, sagt Raji. «Sondern daran, dass das Verständnis dafür fehlt, welche konkreten Auswirkungen fehlerhafte Systeme haben können.» Entgegen der simplen und eleganten Logik eines mathematischen Befehls sind ethische Fragen oft vielschichtig, widersprüchlich und komplex. Und machen jede Aufgabe um ein Vielfaches komplizierter. Hinzu kommt, dass oft unklar bleibt, was Ideale wie «Fairness», «Gleichheit» und «Autonomie» im digitalen Kontext konkret bedeuten. Aus diesem Grund hat sich Raji entschieden, an die Universität zurückzukehren und zu promovieren. Sie will untersuchen, wie maschinelles Lernen in der Theorie funktioniert und was das für die Probleme in der Praxis bedeutet. Ihr Ziel ist es, herauszufinden, wie Algorithmen so gut wie möglich evaluiert werden können – und welche Fehler bis jetzt nicht gesehen wurden.
Das kommt nicht nur gut an. Sie fühle sich mit ihrem Fokus oft fehl am Platz, sagt Raji und schaut auf ihre Beine, die in pinkfarbenen Leggings stecken. Zum Beispiel, wenn ihr an der Universität mal wieder auffällt, dass sie die einzige Frau in ihrem Jahrgang ist. Oder wenn sie zufällig mithört, wie ihre Kommilitonen bewundernd über Elon Musk sprechen, sie von einem Professor gebeten wird, eine Einführung in das Feld von algorithmischer Verzerrung – algorithmic bias – zu geben, weil kaum jemand im Kurs je davon gehört hat. Oder wenn man in gemeinsamen Forschungsartikeln immer zuerst vorschlägt, die Absätze zur Verantwortung zu streichen.
«Es wird oft vergessen, wie klein der Anteil kritischer Stimmen in unserem Feld ist», sagt Raji. Dass kritische Fragen zur künstlichen Intelligenz auch in der Wissenschaft oft nicht mehr als eine Randnotiz sind, liegt unter anderem daran, dass das Feld in grossem Umfang von Industriepartnern abhängt, welche die Forschung mit grosszügigen Zuschüssen unterstützen – sowohl in Europa als auch in den USA. Dass sie zwischenzeitlich bei grossen Technologiekonzernen wie Google gearbeitet hat, sieht Raji mittlerweile als Vorteil. «Es hilft zu verstehen, wie diese Firmen funktionieren.» Ethik spiele zwar sehr wohl eine Rolle – «aber halt nur so lange, wie sie dem Geschäftsmodell nicht in die Quere kommt».
Sie selbst glaubt nicht mehr an eine Selbstregulierung der Branche, sondern sieht die Verbesserung des Status quo nur noch mittels rechtlicher Standards, Regulierung – und der Emanzipation von jenen Bevölkerungsgruppen, die heute am stärksten unter den negativen Effekten von Algorithmen leiden. Deshalb hat sie Project Include an der Universität Toronto gegründet, eine Initiative, die Kinder und Jugendlichen aus einkommensschwachen Bereichen technische Fähigkeiten wie Programmieren beibringt und ihnen helfen soll, jene Probleme technisch zu lösen, die ihre Gemeinschaft konkret betreffen. Damit soll die Basis für eine ausgeglichenere und fairere Zukunft geschaffen werden.
«Wir stellen nicht nur fest. Wir wollen verändern»
Hoffnungsvoll mache sie, dass es mittlerweile ein wachsendes Netz von Aktivistinnen und Initiativen gebe, die sich auf algorithmische Diskriminierung spezialisieren, sagt Raji. Sie erwähnt die Algorithmic Justice League, eine von Joy Buolamwini gegründete Organisation gegen algorithmische Diskriminierung, die britische Rechtskanzlei Foxglove oder Non-Profit-Medien wie The Markup. Was diese auszeichne, sei neben ihrer Methode auch ihre Mission, sagt Raji. «Wir stellen nicht nur fest. Wir wollen verändern.»
Dass auch die US-Politik algorithmische Diskriminierung als Problem erkannt und wichtige Stellen im Bereich Technologie mit kritischen Stimmen besetzt hat – wie Lina Khan, Alvaro Bedoya oder Tim Wu –, beobachtet sie mit gemischten Gefühlen. Darin liege eine grosse Chance, sagt sie, «aber auch eine grosse Gefahr». Denn ultimativ sei ihr Anliegen mit jenem der grossen Tech-Firmen unvereinbar. Sie präzisiert: «Was gut ist für die Menschen, ist nicht unbedingt gut fürs Geschäft.» Je mehr Aufmerksamkeit ein Thema erhalte, je mehr Ressourcen hineinflössen, desto grösser sei die Gefahr der Verwässerung. Das Schlimmste, was ihrer Mission passieren könne, sei grosse mediale Aufmerksamkeit, blumige Reden und üppige Budgets – «und eine Bewegung, die für die Betroffenen keinen Unterschied mehr macht».
Hinweis: In einer früheren Version stand, staatliche Anwendung von Gesichtserkennungssoftware sei in den USA verboten. Richtig ist, dass ein entsprechender Gesetzesentwurf eingereicht worden ist. Wir haben die Stelle korrigiert.
Roberta Fischli ist Politikwissenschaftlerin und freie Journalistin. Sie doktoriert zur Freiheit in der Datenökonomie an der Universität St. Gallen und forscht zurzeit als visiting researcher an der Georgetown-Universität in Washington D.C. Daneben schreibt sie über Digitalisierung und Gesellschaft.