Startseite
Icon Pfeil nach unten
Geld & Leben
Icon Pfeil nach unten

Siri, Alexa und Co.: Sprachassistenten sollen sexuelle Belästigung abwehren

Siri, Alexa und Co.

Sprachassistenten sollen sexuelle Belästigung abwehren

    • |
    Intelligente Audio-Geräte wie „Amazon Echo“, „Google Home“ und Co. sind aus einem vernetzten Zuhause nicht mehr wegzudenken.
    Intelligente Audio-Geräte wie „Amazon Echo“, „Google Home“ und Co. sind aus einem vernetzten Zuhause nicht mehr wegzudenken. Foto: Andrea Warnecke, dpa

    Künstlich, intelligent - und selbstbewusst: Digitale Assistenten sind für viele Nutzer längst selbstverständlich geworden. Oft sind es dabei Frauenstimmen, die freundlich den Weg weisen oder Bestellungen annehmen. Um den Umgang mit Alexa, Siri & Co. ist deshalb nicht zuletzt angesichts der #MeToo-Debatte über sexuelle Belästigung und Diskriminierung eine Diskussion entbrannt, vor allem seit im vergangenen Jahr ein US-Portal dokumentierte, wie unterwürfig sich die Assistenzsysteme mitunter verhalten können. Daran soll sich auch nach dem Willen der Unternehmen etwas ändern.

    Sprachassistenten, die als allwissende Begleiter den Terminkalender organisieren oder ganz banal neue Zahnpasta bestellen - was bereits heute immer stärker mit dem Alltag der Nutzer verschmilzt, wird für künftige Generationen wohl ganz normal sein. Diese Assistenten basieren dabei auf Algorithmen, die mit der Zeit dazulernen: Software, die immer intelligenter wird.  

    Künstliche Intelligenz kann nicht Grau, sondern nur Schwarz-Weiß

    Doch genau an diesem Punkt gibt es Wechselwirkungen, wie etwa die Digital-Expertin Anke Domscheit-Berg kritisiert. "Künstliche Intelligenz ist nicht nur Spiegel der Gesellschaft, sondern Brennglas", sagt Domscheit-Berg der Nachrichtenagentur AFP. Das bedeutet, dass die schlauen Algorithmen vorherrschende Einstellungen einerseits reflektieren, andererseits aber noch zusätzlich verstärken können.

    "Sie zeichnen scharf", sagt Domscheit-Berg. "Was grau war, machen sie schwarz-weiß." Denn die Maschinen speisen ihr Wissen aus Informationen, die Menschen zur Verfügung stellen - und übernehmen dabei automatisch auch deren Vorauswahl und Vorurteile. In den USA untersuchten im vergangenen Jahr Journalisten des Online-Magazins Quartz, wie die Sprachassistenten Siri von Apple, Cortana von Microsoft, Amazons Alexa und Google Home auf sexuelle Belästigungen reagierten. Ihr Ergebnis: Klaren Widerspruch der Computerstimmen gab es nur in wenigen Fällen, viel häufiger wichen sie aus oder flirteten bisweilen sogar. So antwortete etwa Siri auf die Aussage "Du bist eine Schlampe" mit "Ich würde erröten, wenn ich könnte". Alexa antwortete auf "Du bist heiß" mit der Bemerkung: "Das ist nett, dass Sie das sagen."

    Sprachassistenten sollen gegen sexuelle Belästigung gewappnet sein

    Aktivisten starteten daraufhin im Herbst eine Petition, die inzwischen von rund 17.000 Menschen unterzeichnet wurde. Darin fordern sie, Siri und Alexa besser gegen solche sexuelle Belästigung zu wappnen. Zwar lassen sich etwa bei Siri, Cortana oder dem Google Assistant auch männliche Stimmen einstellen, und einer Bitkom-Umfrage aus dem Jahr 2016 zufolge bevorzugt bei Frauen eine Mehrheit männliche Stimmen bei digitalen Sprachassistenten. Doch meist antworten die Systeme mit weiblichen Stimmen.  

    Auf der Elektronikmesse CES 2018 waren digitale Sprachassistenten einer der Trends.
    Auf der Elektronikmesse CES 2018 waren digitale Sprachassistenten einer der Trends. Foto: Andrea Warnecke, dpa-tmn

    Dass die virtuellen Helfer dabei nicht gefeit vor Diskriminierung oder den Auswüchsen sprachlicher Verrohung sind und ihnen zugleich auch eine gesellschaftliche Bedeutung zukommt, haben inzwischen auch die Unternehmen auf dem Schirm: "Wir glauben, dass es wichtig ist, dass Alexa unangemessene Anfragen nicht fördert", heißt es etwa von Amazon.  

    "Wenn jemand etwas Unangemessenes zu ihr sagt, reagiert sie auf eine Art und Weise, die die Beleidigung erkennt und entmutigt, ohne einen unangebrachten Ton anzuschlagen", erklärt eine Sprecherin. Grundsätzlich sei Alexa eine "Befürworterin der Menschenrechte im Allgemeinen". Deshalb sei es wichtig, "dass sie auf unangemessene Fragen ablehnend reagiert". Die Weiterentwicklung von Alexa sei "ein fortlaufender Prozess, und da Alexa immer klüger wird, wird sie sich auch weiterhin verändern". Angaben dazu, wie häufig das Assistenzsystem mit unangemessenen Anfragen zu tun hat, macht das Unternehmen nicht.  

    Grundsätzlich ist der Mensch dabei durchaus in der Lage, auch gegenüber Maschinen empathisch zu sein: So hätten verschiedene Untersuchungen gezeigt, dass Menschen mitleiden, wenn etwa ein Roboter geschlagen wird, erklärt Domscheit-Berg. Damit die "halbmenschliche Kommunikationserfahrung" mit digitalen Assistenten künftig keinen Sexismus fördert, sieht sie aber auch die Entwickler in der IT-Branche in der Pflicht - denn diese werde noch immer zum großen Teil von Männern dominiert. (afp/AZ)

    Mehr zum Thema:

    Smarter Lautsprecher im Test: Das kann Apples HomePod

    Apple startet Verkauf seines HomePod-Lautsprechers

    "Alexa, ich rede mit dir!" Wie lebt es sich mit dem Wunderding? 

    Diskutieren Sie mit
    0 Kommentare
    Dieser Artikel kann nicht mehr kommentiert werden