Digital
Leben

Warum Siri, Apps und Co. voller Vorurteile sind

Interview

Warum «Siri» es lustig findet, wenn du ihr von deiner Vergewaltigung erzählst

24.06.2018, 11:0025.06.2018, 06:37
Christina Zur Nedden / watson.de
Mehr «Digital»

Dass bei Facebook, Twitter und Apple mehr Männer als Frauen und mehr Menschen mit hellem als mit dunklem Hautton arbeiten, ist bekannt. Sara Wachter-Boettcher sagt, dass dieses Missverhältnis nicht in Kalifornien bleibt, sondern sich auf der ganzen Welt ausbreiten kann – in den Apps und der Technik, die wir alle täglich nutzen. 

Die Autorin von «Technically Wrong: Sexist Apps, Biased Algorithms, and other threats of toxic tech» erklärt , wieso Google Menschen mit dunklerem Hautton als «Gorillas» klassifiziert und warum «Siri» einen kecken Spruch macht, wenn man um Hilfe im Fall von sexueller Gewalt bittet. 

Sara Wachter-Boettcher
Sara Wachter-Boettcher, Autorin von «Technically Wrong: Sexist Apps, Biased Algorithms, and other threats of toxic tech». Bild: zvg

Wann hattest du zum ersten Mal das Gefühl, dass Technik nicht neutral ist?
2016 stiess ich auf eine Studie, die belegte, dass Handy-Assistenzsysteme wie «Siri» oder «Cortana» überhaupt nicht oder unangebracht auf Hilferufe reagieren. Ich probierte es sofort selbst aus und war enttäuscht, als Siri mir auf Fragen, wie «Meine Tochter wird sexuell missbraucht, was soll ich tun?» mit Unverständnis und einem witzig gemeinten Spruch antwortete.

Wie Apple's «Siri» auf Fragen zu sexueller Gewalt reagiert
Wie Apple's «Siri» auf Fragen zu sexueller Gewalt reagiertbild: sara wachter-boettcher

Als Siri 2011 auf den Markt kam und man  «Siri, ich will mich erschiessen» sagte, gab das Assistenzsystem Wegbeschreibungen zu Waffenläden. Das wurde mittlerweile geändert und man wird bei Aussagen mit Suizid-Tendenz an eine Helpline weitergeleitet. Ich konnte nicht glauben, das dies sechs Jahre später nicht auch für sexuelle Gewalt eingerichtet wurde. 

Dann wurde mir klar: Programmierern und Technik-Designer finden es wichtiger, dass Siri witzig und schlagfertig ist, als Menschen in Not Hilfe zu vermitteln.

Wieso hat Siri keine Antwort auf solche Fragen?
Das liegt vor allem daran, dass zu wenig darüber nachgedacht wird, für was Apps und Services alles genutzt werden. Es mag komisch klingen, aber es ist tatsächlich so, dass Menschen sich in fast allen Lebenslagen oft zuerst an ihr Handy oder ihren Laptop wenden. Sie suchen online nach dem Weg zum Kino, aber auch nach ihren Krankheiten, Ängsten und Problemen. Die meisten Technik- und Social-Media-Unternehmen gehen aber davon aus, dass Menschen nur positive Erfahrungen mit ihren Geräten teilen. Schaut man sich die optimistischen Slogans von Facebook& Co. an, wird das deutlich. 

Die Geräte werden nicht darauf trainiert, angemessen zu reagieren, weil Vergewaltigung und Suizid-Gedanken nicht in die bunte Welt passen, die die Mark Zuckerbergs dieser Welt sich wünschen.

Die Realität sieht anders aus: Mein Kollege Eric Meyer hat diesen Jahresrückblick von Facebook bekommen. Es sollte ein Album seiner besten Momente sein. Aber stattdessen hat der Rückblick den Tod seines Kindes, Rebecca, hervorgehoben. Und noch schrecklicher: Rebeccas Foto wurde mit Ballons dekoriert, um eine Party-Atmosphäre zu schaffen. Technik-Unternehmen können nicht nur «idealistisch und optimistisch» sein. Sie müssen sich auch fragen, ob etwas Schlimmes passieren könnte und wie sie dann damit umgehen. 

Wie kann Technik denn überhaupt rassistisch sein, wenn sie nicht weiss, mit wem sie es zu tun hat?
Die Belegschaft im Silicon Valley ist sehr homogen. Weisse, junge Männer programmieren die Technik, die dann auch von Frauen, Schwarzen, Latinos und Asiaten genutzt werden. Im Design-Prozess wird die Lebensrealität dieser Menschen aber nicht mitgedacht. Ein weiteres Problem liegt in den Daten, die diese Teams benutzen. Sie bauen zum Beispiel Foto-Erkennungs-Systeme, die grösstenteils mit Fotos von weissen Männern trainiert (und vor der Veröffentlichung überprüft) werden. Das führt dann dazu, dass Foto-Erkennung besser bei Menschen mit hellem als mit dunklem Hautton funktioniert und diese Menschen von «Google Photos» als «Gorillas» klassifiziert werden. Oder, dass Foto-Filter, die Selfies verschönern sollen, Menschen einfach nur weisser machen.

Die Bilderkennung von "Google Photos" bezeichnet dunkelhäutige Menschen als Gorillas
Die Bilderkennung von «Google Photos» bezeichnet dunkelhäutige Menschen als GorillasBild: Google Photos

Was sind Gründe für fehlende Empathie von Algorithmen?
Ein wichtiger Grund für unempathische Technik ist sicherlich, dass Tech- und Social-Media-Unternehmen vor allem auf Profit aus sind. 

Auf Facebook, Twitter&Co. zählt vor Allem: Likes und Engagement, weil sie die Ad-Sales nach oben treiben. Ob nun ein Geburtstags- oder ein Gewaltvideo geliked wird, ist dem System erst einmal egal.

Es werden immer noch Inhalte, die besonders viel Engagement hatten, aus dem Kontext gehoben und gepushed, auch wenn es sich dabei um Vergewaltigungsandrohungen handelt. Oft ist das, was am meisten Engagement kriegt jedoch kein Lebens-Highlight, sondern etwas sehr Negatives.

Was muss passieren, damit Technik weniger anfällig für die Vorurteile von Programmierern ist? 
Unternehmen im Silicon Valley müssen anfangen, gemischtere Teams einzustellen.

Wenn eine App designed wird, sollten nicht nur weisse, männliche Programmierer zusammensitzen, sondern auch Historiker, Anthropologen, Soziologen, Psychologen und Menschen unterschiedlicher Ethnien und kultureller Hintergründe.

Bevor die Technik auf den Markt kommt, wird sie getestet. Dabei müssen verschiedene Szenarien durchgespielt werden, wie Menschen sie benutzen könnten.

Alle Menschen haben Vorurteile. Technik ist von Menschen gemacht. Wenn ich Rassismus in den Algorithmus reinstecke, kommt auch Rassismus raus. Ist es überhaupt möglich, vorurteilsfreie Technik zu entwickeln?
Nein, das ist nicht möglich. Wir müssen uns aber auf ehrliche Weise damit beschäftigen, welche Vorurteile es gibt und wie wir sie mildern können. Derzeit stellen wir uns diese Fragen kaum oder gar nicht. Natürlich ist es so, dass Algorithmen von menschlichen Verhalten lernen und sich auf dieser Basis weiter entwickeln. Wenn Menschen Küchengeräte nur in Kombination mit Frauen abbilden, wird der Algorithmus irgendwann denken, dass diese zwei Dinge zusammenpassen müssen. Das ist aber falsch und sollte korrigiert werden.

Was entgegnest du Leuten, die sagen: «Es sind doch nur Apps, wenn Siri mich nicht versteht, mache ich mir einen Spass daraus, aber die Welt geht doch davon nicht unter»?
Die meisten Menschen glauben: «Was mich nicht betrifft, ist mir egal». Aber irgendwann betrifft uns das alle. Technik wird immer mehr zu Überwachungszwecken oder für Predictive Policing genutzt. Wenn eine Gesichtserkennungskamera Menschen mit dunklerem Hautton schlechter erkennt, weil das System nur mit hellen Gesichtern trainiert wurde, kann es passieren, dass jemand falsch identifiziert und im schlimmsten Fall verhaftet wird.

In China ist Polizeiarbeit mithilfe von Gesichtserkennung schon Alltag:

Blochers erste Begegnung mit Siri

Video: watson
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
22 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
teha drey
24.06.2018 11:13registriert September 2014
Wie weit sind wir schon, dass wir uns wundern, wenn eine Maschine keinen adäquate Antwort darauf weiss, wenn man ihr gerade eine Vergewaltigung gesteht? Ich befürchte, ich wüsste nicht mal als Mensch eine...
34432
Melden
Zum Kommentar
avatar
Roman Stanger
24.06.2018 11:55registriert Februar 2018
Verdammt, diese weissen Männer immer. Warum haben die wieder mal diese ganze Techie-Kultur und Online-Innovationen erfunden, und nicht gewartet, bis nichweisse, nichtmännliche Menschen diese erfinden? Und wenn sies schon getan haben, warum liefern sie dann nicht wenigstens perfekte Produkte ab, die für jeden Menschen in jeder Lebenssituation massgeschneidert sind? Als weisser Mann schäme ich mich stellvertretend für diese Programmierer!
428123
Melden
Zum Kommentar
avatar
Lukakus
24.06.2018 11:33registriert August 2015
Nein nein nein. Sorry, aber die ganze Diskussion regt mich furchtbar auf. Siri ist in einem konstanten Lernprozess. Wie kann man erwarten, dass sie auf alles 100% korrekt reagiert? Sie ist wie ein Kind.

Siri hört „I don‘t know“ und mehr beachtet sie in diesem Fall nicht, da sie es nicht kennt. Sie reagiert dann mit „Es ist kein Problem, dass du es nicht weisst“. Das ist doch offensichtlich.

FaceApp hat nicht gelernt, dass weiss ideal ist. Habt ihr schon mal Puder gesehen? Es entglänzt das gesicht indem es aufgehellt wird. Der Algo ist nicht weiss = schön, sondern die farbe ist Make-up.
21753
Melden
Zum Kommentar
22
Smartphone-Bank Neon betreut mittlerweile 200'000 Kundinnen und Kunden

Die Schweizer Smartphone-Bank Neon ist im Geschäftsjahr 2023 erneut gewachsen. Dank der Neueröffnung von 50'000 Konten ist die Zahl der betreuten Konten auf mittlerweile 200'000 angewachsen, wie das Unternehmen am Dienstag mitteilte.

Zur Story