Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

  1. Startseite
  2. Panorama
  3. Interview: Medienethikerin: "Wir brauchen eine Kennzeichnungspflicht für KI-Bilder"

Interview
15.04.2023

Medienethikerin: "Wir brauchen eine Kennzeichnungspflicht für KI-Bilder"

Jessica Heesen leitet den Forschungsschwerpunkt Medienethik und Informationstechnik an der Universität Tübingen.
Foto: Thilo Schoch, Plattform Lernende Systeme

Es wird immer schwerer, künstlich generierte Bilder zu erkennen. Die Wissenschaftlerin Jessica Heesen erklärt, wie wir mit dieser Herausforderung umgehen können.

Frau Heesen, haben Sie Tipps, wie man Bilder erkennt, die von einer Künstlichen Intelligenz (KI) generiert wurden?

Jessica Heesen: KI-Bilder haben häufig Probleme mit Schatten, die unnatürlich aussehen. Sie sind oft an manchen Stellen hyperscharf und an anderen weniger scharf. Inzwischen gibt es aber auch täuschend echt aussehende KI-Bilder. Diese haben noch manchmal Probleme bei der realistischen Darstellung von Händen und Fingern, auch bei Haaren wird es für die KI kritisch. Aber viele KI-Bilder sind für Menschen sehr schwer zu erkennen.

Wir benötigen Ihre Einwilligung, um den Inhalt von Twitter anzuzeigen

Hier kann mit Ihrer Einwilligung ein externer Inhalt angezeigt werden, der den redaktionellen Text ergänzt. Indem Sie den Inhalt über „Akzeptieren und anzeigen“ aktivieren, kann die Twitter International Company Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten, auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz Niveau, worin Sie ausdrücklich einwilligen. Die Einwilligung gilt für Ihren aktuellen Seitenbesuch, kann aber bereits währenddessen von Ihnen über den Schieberegler wieder entzogen werden. Datenschutzerklärung

Dieses Bild von Papst Franziskus in stylischer Winterjacke hielten viele für echt – es wurde aber mit einer KI generiert.

Wie problematisch ist das?

Heesen: Die Suggestionskraft von Bildern und Videos ist extrem groß. Deshalb kann man Personen dadurch sehr schaden. Ein Beispiel: Es gibt viele manipulierte Pornodarstellungen von Frauen, die dabei nie mitgewirkt haben. Und dann haben wir den politischen Bereich – dort sind Manipulationen besonders heikel. Die Öffentlichkeit ist eine Keimzelle der Demokratie. Hier drücken wir als Bürgerinnen und Bürger unsere Meinungen aus, es werden Positionen verhandelt und man verständigt sich auf gemeinsame gesellschaftliche Handlungsregeln. In diesem Bereich der politischen Meinungsbildung sind falsche, manipulierte Bilder und Videos sehr gefährlich.

Bild-Manipulationen sind aber nichts Neues. Die Sowjetunion etwa hat schon Leo Trotzki aus dem Foto einer Lenin-Rede herausretuschiert.

Heesen: Man muss unterscheiden zwischen Fälschungen, die auf echten Fotografien beruhen, und Bildern, die komplett neu durch KI generiert werden. Bilder, die auf echtem Material basieren, kann man mit einfachen Mitteln manipulieren. Allein die Auswahl des Bildausschnitts ist eine Form der Manipulation, auch die Art der Beleuchtung. Es wird oft vergessen, dass letztendlich jedes Bild eine Komposition ist und immer etwas Künstliches hat – ein Foto kann nie die gesamte Wirklichkeit abbilden. Schon hier brauchen wir Medienkompetenz. Mit KI-generierten Bildern gibt es nun viel mehr Möglichkeiten, noch stärker in das einzugreifen, was gesehen werden soll.

Umso interessanter sind Ihre Tipps, wie man KI-Bilder erkennen kann. Nur sind die vermutlich gar nicht so lange aktuell, wenn Künstliche Intelligenz immer besser wird?

Heesen: Wir sind jetzt schon überfordert, echte Bilder von denen zu unterscheiden, die KI-generiert sind. Deswegen ist es enorm wichtig, dass es eine verpflichtende Kennzeichnung für solche Bilder gibt.

Lesen Sie dazu auch

Wie könnte so etwas aussehen?

Heesen: Erst einmal brauchen wir eine Kennzeichnungspflicht, wie sie im Journalismus beispielweise schon üblich ist. Symbolbilder etwa werden gekennzeichnet und man schreibt auch dazu, wenn ein Foto mit einem Programm wie Photoshop verändert wurde. Solche Kennzeichnungen könnte man auch bei KI-generierten Bildern einführen. Aber das machen dann natürlich nur diejenigen, die gute Absichten haben und die Öffentlichkeit informieren wollen.

Und was kann man gegen diejenigen tun, die Fälschungen als echt verbreiten wollen?

Heesen: Hier könnte KI selbst ermitteln, welche Bilder durch KI erzeugt wurden. Dafür gibt es verschiedene Möglichkeiten, etwa eine Art unsichtbares Wasserzeichen. Beim Erstellen kann das Programm die Information, dass es sich um ein KI-Bild handelt, mittransportieren – nicht so, dass das menschliche Auge das sieht, sondern auf einer anderen Ebene. Das kann wiederum durch Maschinen erkannt werden.

So ein Programm könnte man zum Beispiel in sozialen Netzwerken integrieren. Die könnten dann bei jedem Bild anzeigen, ob es von einer KI erzeugt wurde oder nicht.

Heesen: Genau, aber das ist noch Zukunftsmusik. Ganz generell wird die Authentifizierung von Bildern wichtiger. In sozialen Medien gibt es Häkchen, damit man weiß, dass ein Account wirklich von einer bestimmten Person ist. Nach diesem Vorbild könnte man auch für authentische Bilder eine Art Echtheitszertifikat ausgeben, damit Nutzerinnen und Nutzer sicher sein können, dass sie echt sind.

Wer könnte solche Vorschriften erlassen?

Heesen: Auf europäischer Ebene wird ein KI-Regulierungsvorschlag der Kommission von vergangenem Jahr beraten, der eine Verpflichtung zur Kennzeichnung von KI enthält. Nicht nur in Bezug auf Bilder, Videos, Texte oder Audiodateien, sondern auf alle möglichen Prozesse, an denen KI beteiligt ist. Das ist alles noch relativ vage. Auch der Digital Services Act der EU soll dafür sorgen, dass Plattformbetreiber ein großes Interesse daran haben, nicht an der Verbreitung von Falschnachrichten beteiligt zu sein. Die gesetzlichen Vorgaben können dazu führen, dass sie Systeme nutzen, die KI-generierte Bilder kennzeichnen oder Fakes aussortieren. Letztendlich kann man aber nie sicher sein, dass man alle kriegt. Es wird also immer Probleme mit KI-generierten Bildern geben, die wir nicht erkennen.

Und wenn niemand mehr sicher sagen kann, welche Bilder falsch sind, kann auch bei einem echten Bild jeder behaupten, es wäre ein Fake.

Heesen: Das ist die sogenannte Lügner-Dividende. Dann behauptet man einfach – so wie Donald Trump das auch schon in Bezug auf Videos gemacht hat –, es wäre alles manipuliert. Deswegen ist es wichtig, authentische Bilder nach einem vertrauenswürdigen System als echt zu kennzeichnen. Es ist eine zunehmend wichtige Aufgabe des Journalismus, Texte und Bilder zu verifizieren. Es gibt Spezialisten, die so etwas können – mit entsprechender Software, aber auch mit viel Recherchearbeit.

Und wo können Privatpersonen ansetzen?

Heesen: Zu den Gegenmaßnahmen gehört auch die kritische Medienkompetenz. Was steckt eigentlich hinter einem Bild? Wie ist es komponiert? Und auch: Was kann man mit KI eigentlich alles machen? Das müssten wir einerseits an den Schulen vermitteln. Damit müssen wir uns aber andererseits auch alle in Form des lebenslangen Lernens beschäftigen.

Zur Person: Jessica Heesen leitet den Forschungsschwerpunkt Medienethik und Informationstechnik an der Universität Tübingen. Die Philosophin forscht unter anderem zum Thema Ethik der Künstlichen Intelligenz. 

Themen folgen

Die Diskussion ist geschlossen.

16.04.2023

Ich hoffe, dass ich falsch liege. Aber mit der KI wird der Gesetzgeber genauso hilflos umgehen wie mit Schusswaffen. “Illegale Waffen gehören verboten” - Aussagen dieser Art hört man zuhauf von der Politik. Und was wird gemacht? Der reguläre Waffenbesitz von Sportschützen und Jägern wird immer stärker kontrolliert. Gleichzeitig strömen immer mehr illegale Schusswaffen unkontrollierbar ins Land und es kommt immer häufiger zum Schusswaffeneinsatz in den Städten.

Mit der KI wird es genau so laufen. In 5 Jahren werde ich mich in einem Videochat mit der Arztpraxis XY über meine Wehwehchen unterhalten. Mein Gesprächspartner wird dabei eindeutig als Avatar zu erkennen sein. Ich kann sogar selbst festlegen, ob ich mit einem männlichen, weiblichen oder geschlechtsneutralen Avatar sprechen will. Trotzdem wird alle 3 Minuten ein Button aufploppen: "Warnhinweis! Sie reden mit einer künstlichen Intelligenz!" Warum? Einfach weil es der Gesetzgeber so verlangt.

Kurz darauf klingelt mein Smartphone. Ein Call meiner Enkelin. Sie ruft ganz aufgeregt aus ihrem Urlaub in Thailand an. So wurde von der Polizei wegen einer Nichtigkeit verhaftet und braucht ganz dringend 1.000,- € für die Kaution. Im Chat ist eindeutig meine Nichte zu erkennen, auch ihre Stimme klingt vertraut. Im Hintergrund sieht man Polizisten in thailändischen Uniformen. Alle 3 Minuten ploppt ein Button auf: “Dieser Chat ist gemäß den Richtlinien für europäische Datensicherheit zertifiziert". Ja, auch Enkeltrick-Betrüger gehen mit der Zeit.

Die Politik wird dieser Entwicklung wie in fast allen Lebensbereichen hinterherlaufen. Mangelnder Sachverstand wird durch Bürokratie und sinnvolle Regelungen durch Bevormundung ersetzt. Die italienische Datenschutzaufsichtsbehörde „Garante per la protezione dei dati personali“ hat den Zugang zum KI-Chatbot ChatGPT in Italien untersagt. Dies sollten auch Unternehmen und Arbeitgeber zum Anlass nehmen, den Umgang mit Chatbots wie ChatGPT genau in den Blick zu nehmen, um Bußgeldrisiken zu minimieren. Die Cosa Nostra sowie die Ndrangheta haben ihre vertrauensvolle Mitarbeit bereits zugesagt.

16.04.2023

Habe gerade die Diskussion "Wie ChatGPT und KI unser Leben verändern Philosophischer Stammtisch SRF Kultur" zu diesem Thema in YouTube gesehen/gehört. Aus meiner Sicht lohnt es sich, da mal reinzuhören, wenn man sich für das Thema interessiert.