Wie Maschinen zu Rassisten werden können
Von den Datenquellen, mit denen Computer gefüttert werden, hängt es ab, ob Künstliche Intelligenzen anfällig für Klischees und Vorurteile sind.
Ein Selbstversuch. Computer an, Doppelklick auf den Browser und eine Suchmaschine öffnen. Google, Bing oder Yahoo, ist egal. Den ersten Begriff in der Bildersuche eingeben: Hände. Schlagartig tauchen die Fotos auf, Frauenhände, Kinderhände, mal mit aufgespreizten Finger, mal ineinander verschränkt. Und nahezu alle sind weiß. Der zweite Versuch mit dem Schlagwort „Augen“. Zu sehen sind lange, geschwungene Wimpern, kunstvoll geschminkte Lider und Iris in unterschiedlichen Farben. Dazwischen ab und zu ein Katzen- oder Hundepaar. Doch fast jedes menschliche Auge gehört zu einem weißen Gesicht. Letzter Versuch: Füße. Nicht alle Ergebnisse sind besonders ästhetisch, aber so gut wie alle Bilder zeigen weiße Füße.
Hände, Augen, Füße – es sind Beispiele dafür, wie scheinbar objektive Programme Vorurteile von Menschen übernehmen und auf dieser Grundlage keine neutralen Entscheidungen mehr treffen. Stattdessen liefern sie Ergebnisse, die rassistisch und diskriminierend sind. Die intelligente Bilderkennung der Suchmaschinen filtert lediglich die Körperteile weißer Menschen heraus, Bilder von dunkelhäutigen oder asiatischen Menschen tauchen unter den Ergebnissen so gut wie nicht auf. Wie kommt es dazu, dass künstliche Intelligenzen (KI) solche Zusammenhänge herstellen?
Für Experten liegt eine Antwort auf diese Frage in der Art und Weise, wie Computerprogramme lernen. Das funktioniert entweder über das sogenannte maschinelle Lernen. Eine Technik, bei der Computer sich selbst etwas beibringen, indem sie riesige Datenmengen nach Mustern durchsuchen. Oder über sogenannte neuronale Netzwerke, die versuchen, die Lernprozesse im Gehirn nachzubilden. Den Maschinen gelingt es damit, auf eine ähnliche Art wie der Mensch zu lernen. Allerdings können die Entwickler solcher Systeme oft nicht nachvollziehen, wie die Maschinen zu ihren Schlussfolgerungen kommen. Für die Wissenschaftler ist das wie eine Blackbox, eine schwarze Kiste: Sie sehen, was sie reinstecken und was wieder herauskommt. Aber der Vorgang im Inneren bleibt den Entwicklern verborgen.
Die Gefahr ist, dass die Maschinen während dieser Lernprozesse menschliche Vorurteile, Rollenbilder und diskriminierende Ansichten aufnehmen. Das kritisieren die Informatikerinnen Joanna Bryson von der University of Bath und Aylin Caliskan von der George Washington University.
Ein Beispiel: Im Jahr 2015 machte eine Foto-App von Google negative Schlagzeilen. Sie hatte bei der automatischen Verschlagwortung von Fotos Schwierigkeiten, dunkelhäutige Menschen auf Bildern zu erkennen und klassifizierte sie stattdessen als Gorillas. Experten vermuten, dass das Problem der App eine verzerrte Datenbank war, mithilfe derer die künstliche Intelligenz gelernt hatte, Menschen zu erkennen. Das heißt, dass der KI viel mehr Bilder von hellhäutigen als von dunkelhäutigen Menschen gezeigt wurden. Der Fall verdeutlicht: Sobald Maschinen von Menschen programmiert werden oder Daten zur Verfügung gestellt bekommen, können Vorurteile, Klischees, Rollenbilder oder Stereotype von künstlichen Intelligenzen übernommen werden.
Chatbot Tay setzte rassistische Tweets in die Welt
So wie im Jahr 2016, als Microsoft den Chatbot Tay für das soziale Netzwerk Twitter entwickelte. Die künstliche Intelligenz von Tay sollte auf der Plattform mit Menschen interagieren, und je mehr sie mit den Nutzern kommunizierte, desto mehr sollte sie dazulernen. Doch Tay wurde von den Twitternutzern gewissermaßen umprogrammiert und setzte nach wenigen Stunden nur noch antifeministische, rassistische und hetzerische Tweets wie „Hitler hatte Recht“ oder „Ich hasse Juden“ ab. Das Projekt scheiterte, nach 16 Stunden schaltete Microsoft den Chatbot ab.
Künstliche Intelligenzen können sich also nur dann gerecht und objektiv verhalten, wenn die verfügbare Datenbasis neutral und nicht verzerrt ist. Ansonsten können die Entscheidungen der Maschine gefährlich werden – vor allem im sozialen Bereich. Denn wenn die Maschine bereits daran scheitert, einen Menschen von einem Gorilla zu unterscheiden, wie zuverlässig ist sie dann bei komplexeren Sachverhalten?
In der Banken- und Versicherungsbranche kommen bereits künstliche Intelligenzen zum Einsatz, die die Kreditwürdigkeit von Kunden prüfen. Die Datenbasis besteht hier unter anderem aus Informationen über Personen, die bereits einen Kredit genehmigt bekommen haben, sowie Informationen darüber, wie schnell und zuverlässig diese den Kredit wieder zurückgezahlt haben. Anhand dieser Daten lernt die KI, dass Menschen mit bestimmten Eigenschaften eher zahlungsfähig sind als andere, denen eben diese Eigenschaften fehlen.
Wenn die Maschine über die Kreditwürdigkeit der Menschen ein Urteil gesprochen hat, kann der Einzelne dagegen kaum etwas ausrichten. Das führt zu einer gesellschaftlichen Benachteiligung, gegen die Betroffene nur schwer vorgehen können. Denn das Problem ist, dass der Mensch oft nicht nachvollziehen kann, welche Eigenschaften die Maschine auswählt, um einen Kredit zu gewähren. So kann es schnell passieren, dass der Name oder Wohnort zu einem entscheidenden Faktor werden kann, wenn in der Vergangenheit etwa andere Personen mit einem ähnlichen Namen oder dem gleichen Wohnort besonders zahlungsfähig oder -unfähig waren.
Für Schwarze berechnete die Software ein hohes Rückfallrisiko
In den USA ist seit einigen Jahren eine Software auf dem Markt, die bereits in mehreren Bundesstaaten zum Einsatz kommt und zur Risikobewertung von Straftätern eingesetzt wird. Sie heißt Compas und soll verlässlich berechnen können, wie wahrscheinlich es ist, dass Kriminelle rückfällig werden. Das Programm bewertet Faktoren wie Kindheit, Ausbildung, Gewalterfahrungen, Vorstrafen, Drogen- und Alkoholkonsum und berechnet dann sein Ergebnis. Wie das System allerdings zu seinem Schluss kommt, bleibt Angeklagten, Verteidigern, Richtern und Polizei verschlossen. 2016 überprüfte die US-Rechercheorganisation ProPublica tausende von Compas-Prognosen. Sie stellte fest, dass Compas auffällig oft schwarzen Straftätern zu Unrecht ein hohes Rückfallrisiko berechnete, während weißen Kriminellen, die schwere Straftaten begangen hatten, dagegen viel öfter ein geringeres Risiko berechnet wurde.
Die beiden Beispiele von der Schufa und der Software Compas zeigen, welche gravierenden Auswirkungen ein nicht neutraler Datensatz, auf dessen Grundlage KI lernt, auf die Gesellschaft haben kann. Besonders dann, wenn die Menschen, die mit solchen Programmen arbeiten, sich dieser Verzerrung nicht bewusst sind oder ihre eigene Verantwortung auf die Software abschieben.
Die Diskussion ist geschlossen.