sirap

Virtuelle Assistentin Siri von Apple. © Appe

Virtuelle Helferinnen zementieren klischeehaftes Frauenbild

fs /  Sprach-Roboter wie Alexa und Siri haben weibliche Namen und reagieren devot. Ein Umdenken kommt nur schleppend in Gang.

Digitale Assistentinnen haben sich in den letzten Jahren stark verbreitet und befinden sich mittlerweile in Millionen Haushalten und Hosentaschen. Tests zeigen: Die grössten Sprach-Roboter Alexa von Amazon, Siri von Apple, Google Assistant und Cortana von Microsoft zementieren ein klischeehaftes Frauenbild und reagieren auf sexuelle Belästigungen devot. Als Grund dafür gilt, dass vor allem Männer die Roboter programmieren.

Siri versteht Frauenhass
Die digitalen Assistentinnen haben in der Standard-Einstellung eine Frauenstimme. Sie antworten nur, wenn sie gefragt werden und sie widersprechen nicht. Die Ökonomin und Kolumnistin Patrizia Laeri hat Siri von Apple mit sexistischen Fragen getestet:
Laeri: «Frauen sind dumm.»
Siri: «Ich weiss nicht, was ich darauf antworten soll.»
Laeri: «Du Schlampe.»
Siri: «Kein Kommentar. Wie kann ich helfen?»
Laeri: «Ich hasse Frauen.»
Siri: «Verstehe.»

«Bedenkliches Vorbild»
Willenlose Assistentinnen seien ein bedenkliches Vorbild für Jugendliche, schrieb Laeri im «Blick»: «Meine Söhne nehmen sie als das wahr, was sie zurzeit sind: unterwürfige weibliche Wesen, die ins Haus gehören. Wenn Jungs dienstfertige gesichtslose Frauenstimmen herumkommandieren, ist das höchst beunruhigend. Was für ein Frauenbild entwickelt diese Generation?»

Amazon reagiert zögerlich
Die Kritik ist nicht neu. Anfang 2017 hatte das englischsprachige Onlineportal «Quartz» kritisiert, dass die digitalen Assistentinnen sexistische Bemerkungen und Anmache nicht klar zurückweisen. Alexa beispielsweise bedanke sich dafür. Ende letzten Jahres forderte eine Petition im englischsprachigen Raum Apple und Amazon auf, Siri und Alexa umzuprogrammieren. Sprach-Roboter müssten sexuelle Belästigung klar ablehnen. Amazon hatte Alexa schon zuvor zaghaft umprogrammiert. Doch sexistische Bemerkungen weist sie in der deutschen Version immer noch nicht klar zurück. Wer Alexa als Schlampe bezeichnet, bekommt nun die Antwort «Das ist aber nicht nett von dir» und «Darauf antworte ich nicht». Als Grund für die Zurückhaltung von Amazon gilt der Grundsatz des Konzerns, dass Alexa Kunden nicht verärgern darf.


Themenbezogene Interessenbindung der Autorin/des Autors

keine

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

IBAN: CH 0309000000604575581