Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

▌▉▍▉▉▍▉▌▌▉▍▉▌ ▉▌▌▉▍▉▌▌▉▍▉▍▉▍ ;▌▉▍▉▉▍▉▌▌▉▍▉▌
  1. Startseite
  2. Digital
  3. Siri, Alexa und Co.: Sprachassistenten sollen sexuelle Belästigung abwehren

Siri, Alexa und Co.
17.02.2018

Sprachassistenten sollen sexuelle Belästigung abwehren

Intelligente Audio-Geräte wie „Amazon Echo“, „Google Home“ und Co. sind aus einem vernetzten Zuhause nicht mehr wegzudenken.
Foto: Andrea Warnecke, dpa

Sprachassistenten sind auf dem Weg in den Alltag der Menschen. Sie arbeiten mit künstlicher Intelligenz. Neutral sind sie deshalb aber noch lange nicht - im Gegenteil.

Künstlich, intelligent - und selbstbewusst: Digitale Assistenten sind für viele Nutzer längst selbstverständlich geworden. Oft sind es dabei Frauenstimmen, die freundlich den Weg weisen oder Bestellungen annehmen. Um den Umgang mit Alexa, Siri & Co. ist deshalb nicht zuletzt angesichts der #MeToo-Debatte über sexuelle Belästigung und Diskriminierung eine Diskussion entbrannt, vor allem seit im vergangenen Jahr ein US-Portal dokumentierte, wie unterwürfig sich die Assistenzsysteme mitunter verhalten können. Daran soll sich auch nach dem Willen der Unternehmen etwas ändern.

Sprachassistenten, die als allwissende Begleiter den Terminkalender organisieren oder ganz banal neue Zahnpasta bestellen - was bereits heute immer stärker mit dem Alltag der Nutzer verschmilzt, wird für künftige Generationen wohl ganz normal sein. Diese Assistenten basieren dabei auf Algorithmen, die mit der Zeit dazulernen: Software, die immer intelligenter wird.  

Künstliche Intelligenz kann nicht Grau, sondern nur Schwarz-Weiß

Doch genau an diesem Punkt gibt es Wechselwirkungen, wie etwa die Digital-Expertin Anke Domscheit-Berg kritisiert. "Künstliche Intelligenz ist nicht nur Spiegel der Gesellschaft, sondern Brennglas", sagt Domscheit-Berg der Nachrichtenagentur AFP. Das bedeutet, dass die schlauen Algorithmen vorherrschende Einstellungen einerseits reflektieren, andererseits aber noch zusätzlich verstärken können.

"Sie zeichnen scharf", sagt Domscheit-Berg. "Was grau war, machen sie schwarz-weiß." Denn die Maschinen speisen ihr Wissen aus Informationen, die Menschen zur Verfügung stellen - und übernehmen dabei automatisch auch deren Vorauswahl und Vorurteile. In den USA untersuchten im vergangenen Jahr Journalisten des Online-Magazins Quartz, wie die Sprachassistenten Siri von Apple, Cortana von Microsoft, Amazons Alexa und Google Home auf sexuelle Belästigungen reagierten. Ihr Ergebnis: Klaren Widerspruch der Computerstimmen gab es nur in wenigen Fällen, viel häufiger wichen sie aus oder flirteten bisweilen sogar. So antwortete etwa Siri auf die Aussage "Du bist eine Schlampe" mit "Ich würde erröten, wenn ich könnte". Alexa antwortete auf "Du bist heiß" mit der Bemerkung: "Das ist nett, dass Sie das sagen."

Sprachassistenten sollen gegen sexuelle Belästigung gewappnet sein

Aktivisten starteten daraufhin im Herbst eine Petition, die inzwischen von rund 17.000 Menschen unterzeichnet wurde. Darin fordern sie, Siri und Alexa besser gegen solche sexuelle Belästigung zu wappnen. Zwar lassen sich etwa bei Siri, Cortana oder dem Google Assistant auch männliche Stimmen einstellen, und einer Bitkom-Umfrage aus dem Jahr 2016 zufolge bevorzugt bei Frauen eine Mehrheit männliche Stimmen bei digitalen Sprachassistenten. Doch meist antworten die Systeme mit weiblichen Stimmen.  

Dass die virtuellen Helfer dabei nicht gefeit vor Diskriminierung oder den Auswüchsen sprachlicher Verrohung sind und ihnen zugleich auch eine gesellschaftliche Bedeutung zukommt, haben inzwischen auch die Unternehmen auf dem Schirm: "Wir glauben, dass es wichtig ist, dass Alexa unangemessene Anfragen nicht fördert", heißt es etwa von Amazon.  

Auf der Elektronikmesse CES 2018 waren digitale Sprachassistenten einer der Trends.
Foto: Andrea Warnecke, dpa-tmn

"Wenn jemand etwas Unangemessenes zu ihr sagt, reagiert sie auf eine Art und Weise, die die Beleidigung erkennt und entmutigt, ohne einen unangebrachten Ton anzuschlagen", erklärt eine Sprecherin. Grundsätzlich sei Alexa eine "Befürworterin der Menschenrechte im Allgemeinen". Deshalb sei es wichtig, "dass sie auf unangemessene Fragen ablehnend reagiert". Die Weiterentwicklung von Alexa sei "ein fortlaufender Prozess, und da Alexa immer klüger wird, wird sie sich auch weiterhin verändern". Angaben dazu, wie häufig das Assistenzsystem mit unangemessenen Anfragen zu tun hat, macht das Unternehmen nicht.  

Grundsätzlich ist der Mensch dabei durchaus in der Lage, auch gegenüber Maschinen empathisch zu sein: So hätten verschiedene Untersuchungen gezeigt, dass Menschen mitleiden, wenn etwa ein Roboter geschlagen wird, erklärt Domscheit-Berg. Damit die "halbmenschliche Kommunikationserfahrung" mit digitalen Assistenten künftig keinen Sexismus fördert, sieht sie aber auch die Entwickler in der IT-Branche in der Pflicht - denn diese werde noch immer zum großen Teil von Männern dominiert. (afp/AZ)

Mehr zum Thema:

Themen folgen

Die Diskussion ist geschlossen.