Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

▌▉▍▉▉▍▉▌▌▉▍▉▌ ▉▌▌▉▍▉▌▌▉▍▉▍▉▍ ;▌▉▍▉▉▍▉▌▌▉▍▉▌
  1. Startseite
  2. Kultur
  3. Künstliche Intelligenz: Wie Maschinen zu Rassisten werden können

Künstliche Intelligenz
03.05.2019

Wie Maschinen zu Rassisten werden können

Wie die Rechenmaschine zu ihren Schlüssen gelangt, ist für Menschen nicht selten undurchsichtig: Das Kunstwerk "Bion" des US-amerikanischen Künstlers Andrew H. Fagg, der sich mit den immer komplexer werdenden Technologien und dem Thema künstliche Intelligenz beschäftigt.
Foto: dpa

Von den Datenquellen, mit denen Computer gefüttert werden, hängt es ab, ob Künstliche Intelligenzen anfällig für Klischees und Vorurteile sind.

Ein Selbstversuch. Computer an, Doppelklick auf den Browser und eine Suchmaschine öffnen. Google, Bing oder Yahoo, ist egal. Den ersten Begriff in der Bildersuche eingeben: Hände. Schlagartig tauchen die Fotos auf, Frauenhände, Kinderhände, mal mit aufgespreizten Finger, mal ineinander verschränkt. Und nahezu alle sind weiß. Der zweite Versuch mit dem Schlagwort „Augen“. Zu sehen sind lange, geschwungene Wimpern, kunstvoll geschminkte Lider und Iris in unterschiedlichen Farben. Dazwischen ab und zu ein Katzen- oder Hundepaar. Doch fast jedes menschliche Auge gehört zu einem weißen Gesicht. Letzter Versuch: Füße. Nicht alle Ergebnisse sind besonders ästhetisch, aber so gut wie alle Bilder zeigen weiße Füße.

Hände, Augen, Füße – es sind Beispiele dafür, wie scheinbar objektive Programme Vorurteile von Menschen übernehmen und auf dieser Grundlage keine neutralen Entscheidungen mehr treffen. Stattdessen liefern sie Ergebnisse, die rassistisch und diskriminierend sind. Die intelligente Bilderkennung der Suchmaschinen filtert lediglich die Körperteile weißer Menschen heraus, Bilder von dunkelhäutigen oder asiatischen Menschen tauchen unter den Ergebnissen so gut wie nicht auf. Wie kommt es dazu, dass künstliche Intelligenzen (KI) solche Zusammenhänge herstellen?

Für Experten liegt eine Antwort auf diese Frage in der Art und Weise, wie Computerprogramme lernen. Das funktioniert entweder über das sogenannte maschinelle Lernen. Eine Technik, bei der Computer sich selbst etwas beibringen, indem sie riesige Datenmengen nach Mustern durchsuchen. Oder über sogenannte neuronale Netzwerke, die versuchen, die Lernprozesse im Gehirn nachzubilden. Den Maschinen gelingt es damit, auf eine ähnliche Art wie der Mensch zu lernen. Allerdings können die Entwickler solcher Systeme oft nicht nachvollziehen, wie die Maschinen zu ihren Schlussfolgerungen kommen. Für die Wissenschaftler ist das wie eine Blackbox, eine schwarze Kiste: Sie sehen, was sie reinstecken und was wieder herauskommt. Aber der Vorgang im Inneren bleibt den Entwicklern verborgen.

Die Gefahr ist, dass die Maschinen während dieser Lernprozesse menschliche Vorurteile, Rollenbilder und diskriminierende Ansichten aufnehmen. Das kritisieren die Informatikerinnen Joanna Bryson von der University of Bath und Aylin Caliskan von der George Washington University.

Ein Beispiel: Im Jahr 2015 machte eine Foto-App von Google negative Schlagzeilen. Sie hatte bei der automatischen Verschlagwortung von Fotos Schwierigkeiten, dunkelhäutige Menschen auf Bildern zu erkennen und klassifizierte sie stattdessen als Gorillas. Experten vermuten, dass das Problem der App eine verzerrte Datenbank war, mithilfe derer die künstliche Intelligenz gelernt hatte, Menschen zu erkennen. Das heißt, dass der KI viel mehr Bilder von hellhäutigen als von dunkelhäutigen Menschen gezeigt wurden. Der Fall verdeutlicht: Sobald Maschinen von Menschen programmiert werden oder Daten zur Verfügung gestellt bekommen, können Vorurteile, Klischees, Rollenbilder oder Stereotype von künstlichen Intelligenzen übernommen werden.

Chatbot Tay setzte rassistische Tweets in die Welt

So wie im Jahr 2016, als Microsoft den Chatbot Tay für das soziale Netzwerk Twitter entwickelte. Die künstliche Intelligenz von Tay sollte auf der Plattform mit Menschen interagieren, und je mehr sie mit den Nutzern kommunizierte, desto mehr sollte sie dazulernen. Doch Tay wurde von den Twitternutzern gewissermaßen umprogrammiert und setzte nach wenigen Stunden nur noch antifeministische, rassistische und hetzerische Tweets wie „Hitler hatte Recht“ oder „Ich hasse Juden“ ab. Das Projekt scheiterte, nach 16 Stunden schaltete Microsoft den Chatbot ab.

Künstliche Intelligenzen können sich also nur dann gerecht und objektiv verhalten, wenn die verfügbare Datenbasis neutral und nicht verzerrt ist. Ansonsten können die Entscheidungen der Maschine gefährlich werden – vor allem im sozialen Bereich. Denn wenn die Maschine bereits daran scheitert, einen Menschen von einem Gorilla zu unterscheiden, wie zuverlässig ist sie dann bei komplexeren Sachverhalten?

In der Banken- und Versicherungsbranche kommen bereits künstliche Intelligenzen zum Einsatz, die die Kreditwürdigkeit von Kunden prüfen. Die Datenbasis besteht hier unter anderem aus Informationen über Personen, die bereits einen Kredit genehmigt bekommen haben, sowie Informationen darüber, wie schnell und zuverlässig diese den Kredit wieder zurückgezahlt haben. Anhand dieser Daten lernt die KI, dass Menschen mit bestimmten Eigenschaften eher zahlungsfähig sind als andere, denen eben diese Eigenschaften fehlen.

Wenn die Maschine über die Kreditwürdigkeit der Menschen ein Urteil gesprochen hat, kann der Einzelne dagegen kaum etwas ausrichten. Das führt zu einer gesellschaftlichen Benachteiligung, gegen die Betroffene nur schwer vorgehen können. Denn das Problem ist, dass der Mensch oft nicht nachvollziehen kann, welche Eigenschaften die Maschine auswählt, um einen Kredit zu gewähren. So kann es schnell passieren, dass der Name oder Wohnort zu einem entscheidenden Faktor werden kann, wenn in der Vergangenheit etwa andere Personen mit einem ähnlichen Namen oder dem gleichen Wohnort besonders zahlungsfähig oder -unfähig waren.

Für Schwarze berechnete die Software ein hohes Rückfallrisiko

In den USA ist seit einigen Jahren eine Software auf dem Markt, die bereits in mehreren Bundesstaaten zum Einsatz kommt und zur Risikobewertung von Straftätern eingesetzt wird. Sie heißt Compas und soll verlässlich berechnen können, wie wahrscheinlich es ist, dass Kriminelle rückfällig werden. Das Programm bewertet Faktoren wie Kindheit, Ausbildung, Gewalterfahrungen, Vorstrafen, Drogen- und Alkoholkonsum und berechnet dann sein Ergebnis. Wie das System allerdings zu seinem Schluss kommt, bleibt Angeklagten, Verteidigern, Richtern und Polizei verschlossen. 2016 überprüfte die US-Rechercheorganisation ProPublica tausende von Compas-Prognosen. Sie stellte fest, dass Compas auffällig oft schwarzen Straftätern zu Unrecht ein hohes Rückfallrisiko berechnete, während weißen Kriminellen, die schwere Straftaten begangen hatten, dagegen viel öfter ein geringeres Risiko berechnet wurde.

Die beiden Beispiele von der Schufa und der Software Compas zeigen, welche gravierenden Auswirkungen ein nicht neutraler Datensatz, auf dessen Grundlage KI lernt, auf die Gesellschaft haben kann. Besonders dann, wenn die Menschen, die mit solchen Programmen arbeiten, sich dieser Verzerrung nicht bewusst sind oder ihre eigene Verantwortung auf die Software abschieben.

Themen folgen

Die Diskussion ist geschlossen.