Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

▌▉▍▉▉▍▉▌▌▉▍▉▌ ▉▌▌▉▍▉▌▌▉▍▉▍▉▍ ;▌▉▍▉▉▍▉▌▌▉▍▉▌
  1. Startseite
  2. Wissenschaft
  3. Künstliche Intelligenz: Fieser Code? Wenn Algorithmen Vorurteile ausspucken

Künstliche Intelligenz
23.06.2019

Fieser Code? Wenn Algorithmen Vorurteile ausspucken

Oftmals spucken Algorithmen Vorurteile aus - wie hier bei der Suchmaschine Google. Gibt man "Frauen können" ein, wird es an dritter Stelle mit "nicht Autofahren" ergänzt.
3 Bilder
Oftmals spucken Algorithmen Vorurteile aus - wie hier bei der Suchmaschine Google. Gibt man "Frauen können" ein, wird es an dritter Stelle mit "nicht Autofahren" ergänzt.
Foto: Screenshot Google

Algorithmen sollen überlegte Entscheidungen treffen und menschliche Fehlleistungen möglichst vermeiden. Doch das geht, zum Ärger vieler, häufig schief.

Algorithmen können Autos lenken, Verbrecher überführen, Bankgeschäfte prüfen - und manchmal ziemlich plump daher kommen. Die Geschichten dazu sind so zahlreich wie schmerzlich: Ein Algorithmus, der Amazon bei der Bewerberauswahl unterstützen sollte, schlug vor allem Männer vor, die Google-Bilderkennung verwechselte schwarze Menschen mit Gorillas und forderte asiatisch Aussehende Menschen dazu auf, die Augen zu öffnen. Und bei YouTube wurden zum Großbrand von Notre-Dame Videos des 9/11-Terroranschlags aus New York zugeordnet. Einfach ein schlechter Algorithmus?

Die Kritik an Algorithmen haben jüngst auch die Frauen- und Gleichstellungsministerinnen der Länder aufgegriffen. Sie stören sich besonders an der Auto-Vervollständigung bei Suchmaschinen. Wer in das Suchfeld der Microsoft-Suchmaschine Bund "Frauen können" tippt, bekommt an erster Stelle vorgeschlagen, den Satz mit "nicht Auto fahren" zu ergänzen. Die Bundesregierung soll nun prüfen, ob den Algorithmen "Diskriminierungsmechanismen" zugrunde liegen.

Können Algorithmen diskriminieren?

Diesen Ansatz findet Lorena Jaume-Palasí falsch. Sie ist Gründerin der Ethical Tech Society in Berlin, die sich mit der sozialen Dimension von Technologie beschäftigt. "Die Ursache von Diskriminierung sind immer Menschen", sagt Jaume-Palasí der Deutschen Presse-Agentur . "Anstelle des Regulierens der Ursachen, die Diskriminierung verursachen, fokussiert man sich auf die Technologie, die menschliches Diskriminierungsverhalten widerspiegelt."

Lorena Jaume-Palasi ist Gründerin der Ethical Tech Society in Berlin, die sich mit der sozialen Dimension von Technologie beschäftigt.
Foto: Steffen Leidel, dpa

Um Jaume-Palasís Kritik zu verstehen, muss man Algorithmen verstehen. Ein Algorithmus sind Anweisungen zur Lösung eines bestimmten Problems - wie ein Rezept. Er definiert, wie ein bestimmter Vorgang ausgeführt werden soll. Künstliche Intelligenz (KI) basiert auf Algorithmen. Dabei wird intelligentes Verhalten nachgebildet. Die Maschine soll informierte Entscheidungen treffen. Damit sie das kann, wird sie mit Datensätzen gefüttert. Die Technologie erkennt Zusammenhänge und kann fortan, basierend auf diesem Hintergrundwissen, zum Beispiel Entscheidungsempfehlungen geben.

Das liefert eine Erklärung für die voreingenommenen Ergebnisse, etwa bei der Suche nach geeignetem Personal: "In der Vergangenheit gab es in Unternehmen die Einstellungspraxis, dass vermehrt weiße Männer eingestellt wurden", sagt Susanne Dehmel vom Digital-Verband Bitkom. Trainiere man den Algorithmus mit diesen historischen Daten, suche er die Kandidaten eben auch entsprechend aus. Auch bei der Gesichtserkennung, die schwarze und asiatisch aussehende Menschen diskriminierte, liegt die Vermutung nahe, dass das Problem nicht beim Algorithmus liegt. Fragwürdig war wohl vielmehr die Auswahl der Bilder, mit der die Maschine trainiert wurde.

Lesen Sie dazu auch
Susanne Dehmel sieht die Schuld nicht bei den Algorithmen, sondern bei den Datensätzen, mit denen der Algorithmus trainiert wurde.
Foto: Till Budde/Bitkom, dpa

Technologien halten der Gesellschaft einen Spiegel vor

Dem Anspruch, Probleme wie oder besser als Menschen zu lösen, wird künstliche Intelligenz in vielen Fällen also noch nicht gerecht. Dehmel kann den Ergebnissen etwas Positives abgewinnen: Die Technologien hielten der Gesellschaft einen Spiegel vor, und zeigten, wie akut Diskriminierung noch sei. Suchmaschinenanbietern nun einen erzieherischen Auftrag zu erteilen, möglichst diskriminierungsfreie Inhalte auszuspucken, findet Dehmel falsch. Sie filterten nach Relevanz, Ergebnisse ergäben sich aus dem, was Leute anklicken. "Die Anforderung würde die Funktion überfrachten."

Dass Google durchaus in die Präsentation der Ergebnisse eingreift, zeigen verschiedene Beispiele, etwa das der US-amerikanischen Professorin Safiya Umoja Noble. In ihrem 2018 erschienenen Buch "Algorithms of Oppression" kritisierte sie unter anderem rassistische und stereotype Vorschläge für die Autovervollständigung des englischen Satzes "Warum sind schwarze Frauen so". Wer heute den Satz in die Suchmaschine tippt, bekommt keine Ergänzungen mehr vorgeschlagen.

Große Aufmerksamkeit erfuhr in Deutschland 2015 auch der Streit zwischen Bettina Wulff und Google über die Kombination ihres Namens mit ehrabschneidenden Begriffen in der Autocomplete-Funktion. Der Konzern lenkte ein und entfernte die Ergänzungen zur Frau des damaligen Bundespräsidenten. Unabhängig davon hat Google im Juni 2018 angekündigt, künftig ein besonderes Augenmerk darauf zu legen, dass Software keine "unfairen Vorurteile" aufweist oder nach Hautfarbe, Geschlecht, sexueller Orientierung oder Einkommen diskriminiert.

Künsliche Intelligenz geht nicht nur Informatiker etwas an

Eine, die die Dinge selbst in die Hand nehmen wollte, ist Johanna Burai. Die Designerin aus Schweden hat sich an Suchergebnissen bei der Recherche nach Fotos von Händen gestört. Burai fand bei Google hauptsächlich Bilder von weißen Händen. 2015 hat sie darum eine Kampagne mit dem Titel "World White Web" ins Leben gerufen, um gegen "die weiße Norm" im Netz vorzugehen. Auf einer Website hat sie seither zahlreiche Fotos von Händen unterschiedlichster Hautfarben hochgeladen, damit andere sie teilen können, und will so auf lange Sicht andere Bilder ins System spülen.

Doch wie kann sichergestellt werden, dass auch KI-Technologien künftig klügere und fairere Entscheidungen treffen? Rechtlichen Handlungsbedarf sieht Expertin Dehmel nicht. "Es ist ein Kompetenzproblem. Erst wenn man versteht, wie die Technologie funktioniert, kann man auch Diskriminierung sorgfältig entgegentreten", meint Dehmel. Dass es nicht ausreicht, Angaben zu Gender und Hautfarbe aus den Datensätzen zu nehmen, haben Beispiele aus der Vergangenheit gezeigt. Algorithmen fanden Stellvertreter-Variabeln in den historischen Daten und kamen so zu den gleichen diskriminierenden Ergebnissen. Dehmel schlägt darum diverse Datensätze, eine sorgfältige Konzeption der Trainings sowie Testläufe vor.

Jaume-Palasí fordert vor allem kontinuierliche Kontrolle der algorithmischen Systeme. Hinter KI müsse mehr als ein Entwickler und ein Datenwissenschaftler stehen. Für die Kontrolle "braucht man Soziologen, Anthropologen, Ethnologen, Politologen. Leute, die die Ergebnisse in dem jeweiligen Sektor, in dem die Technologie angewendet wird, besser kontextualisieren können", sagt die Datenethikerin. "Wir müssen endlich abkommen von dem Glauben, dass KI ein informatisches Thema ist. Es sind soziotechnische Systeme und die Berufsprofile, die wir da brauchen, sind wesentlich vielfältiger." (dpa)

Wir benötigen Ihre Einwilligung, um die Umfrage von Civey anzuzeigen

Hier kann mit Ihrer Einwilligung ein externer Inhalt angezeigt werden, der den redaktionellen Text ergänzt. Indem Sie den Inhalt über „Akzeptieren und anzeigen“ aktivieren, kann die Civey GmbH Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten. Die Einwilligung kann jederzeit von Ihnen über den Schieberegler wieder entzogen werden. Datenschutzerklärung

Wir wollen wissen, was Sie denken: Die Augsburger Allgemeine arbeitet daher mit dem Meinungsforschungsinstitut Civey zusammen. Was es mit den repräsentativen Umfragen auf sich hat und warum Sie sich registrieren sollten, lesen Sie hier .

Themen folgen

Die Diskussion ist geschlossen.