Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

▌▉▍▉▉▍▉▌▌▉▍▉▌ ▉▌▌▉▍▉▌▌▉▍▉▍▉▍ ;▌▉▍▉▉▍▉▌▌▉▍▉▌
  1. Startseite
  2. Wirtschaft
  3. Sora von OpenAI: Neue KI-Softwares schüren die Sorge um Fake News im Wahlkampf

Sora von OpenAI
06.04.2024

Neue KI-Softwares schüren die Sorge um Fake News im Wahlkampf

OpenAI hat den Text-zu-Video-Generator Sora bekannt gegeben. Die KI kann aus reinem Textinput ein realistisches Kurzvideo erschaffen (Symbolbild).
Foto: Peter Steffen, dpa

Sora, die neue KI von OpenAI, hat mit täuschend echten Videos für Aufsehen gesorgt. Aufgrund jüngster Deepfakes stellt sich die Frage, inwieweit sie Wahlkämpfe beeinflussen könnte.

Als OpenAI, die Firma hinter ChatGPT, den Video-Generator "Sora" und die Sprach-Software "Voice Engine" öffentlich bekannt gab, war die Aufregung groß. Nach Chatbot und Bildgenerator hat OpenAI nun das nächste Level erreicht: Eine Software, mit der sich mühelos Videos generieren lassen. Doch Expertinnen und Experten äußern Bedenken. Denn ein solches Programm erleichtert es, Falschinformationen im Internet zu verbreiten.

Das erste KI-generierte Video, das OpenAI auf der Webseite vorführt, zeigt eine Frau in Lederjacke und rotem Kleid, die auf einer hell beleuchteten Straße läuft – und es wirkt auf den ersten Blick täuschend echt. Erst bei genauerer Betrachtung fallen einige Fehler auf, die das Video als KI-generiert enttarnen. Die Frau macht zu einem Zeitpunkt im Video beispielsweise zwei linke Schritte und ihr Kleid wechselt das Aussehen. Außerdem gleiten ihre Füße über den Boden, als wäre sie nachträglich eingefügt worden. Expertinnen und Experten sprechen bei solchen Fehlern von "Artefakten". Häufig treten sie bei Konturen und Gesichtsübergängen auf. Laut dem Bundesamt für Sicherheit in der Informationstechnik kann es hilfreich sein, auf Details oder den Hintergrund zu zoomen, um solche KI-Artefakte zu erkennen.

Wie kann man KI-generierte Videos erkennen?

Allerdings gelingt es Sora anders als vielen anderen Programmen, Personen im Hintergrund auch dann akkurat wiederherzustellen, wenn die Frau im roten Kleid sie zeitweise komplett verdeckt hat. So wird es immer schwieriger, die erstellten Videos von authentischen zu unterscheiden, sofern sie keine offensichtlichen Fehler macht.

Bislang sind die von OpenAI veröffentlichten Videos mit einem Wasserzeichen in der unteren rechten Ecke versehen. Jedoch ist es möglich, Wasserzeichen durch Zuschneiden zu entfernen. Um dagegen vorzugehen, diskutiert die Politik bereits über eine Kennzeichnungspflicht für KI-erstellte Inhalte. Einheitliche Regeln gibt es aber noch nicht. 

Noch ist Sora nicht öffentlich verfügbar. Der technische Bericht zeigt auf, wohin eine Weiterentwicklung von KI führen könnte, da Sora bereits zum jetzigen Zeitpunkt sehr potent ist – und dadurch auch gefährlich. Denn es gibt andere KI-Werkzeuge, die bereits zur Manipulation genutzt werden. KI-Bilder werden häufig in sozialen Netzwerken geteilt und können die öffentliche Meinung beeinflussen. Auch deutsche Politikerinnen und Politiker haben sich bereits solcher Bilder im Wahlkampf bedient. Erst kürzlich hat ein KI-generierter Joe Biden im US-Bundesstaat New Hampshire Anrufe getätigt, in denen er aufforderte, nicht zur Vorwahl zu gehen. Seither sind die Sorgen über potenzielle Einflüsse von KI auf Wahlkämpfe groß. Auch für die anstehende Bundestagswahl 2025 könnte KI eine Rolle spielen.

Lesen Sie dazu auch

Wir benötigen Ihre Einwilligung, um den Inhalt von Twitter anzuzeigen

Hier kann mit Ihrer Einwilligung ein externer Inhalt angezeigt werden, der den redaktionellen Text ergänzt. Indem Sie den Inhalt über „Akzeptieren und anzeigen“ aktivieren, kann die Twitter International Company Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten, auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz Niveau, worin Sie ausdrücklich einwilligen. Die Einwilligung gilt für Ihren aktuellen Seitenbesuch, kann aber bereits währenddessen von Ihnen über den Schieberegler wieder entzogen werden. Datenschutzerklärung

Zwar arbeiten große Tech-Firmen an Gegenmaßnahmen für Wahlmanipulation durch KI und Deepfakes. Expertinnen und Experten zweifeln aber an deren Effektivität. Dazu zählen auch diverse Kennzeichnungsverfahren wie digitale Wasserzeichen. Laut eigener Aussage versucht OpenAI die eigenen Programme sicherer und transparenter zu machen sowie die Nutzungsbedingungen regelmäßig anzupassen. Hierdurch soll die Verbreitung von Fehlinformationen und "Halluzination" von vermeintlichen Fakten durch KI verringert werden.

KI-Experte Florian Rampelt sagt: "Ein grundlegendes Verständnis der Technologie ist zentral"

Florian Rampelt leitet die Geschäftsstelle des KI-Campus, einer Lernplattform mit dem Ziel, KI- und Datenkompetenzen zu erweitern. Ein Themenschwerpunkt ist KI und Demokratiebildung. Laut Rampelt solle man die Entwicklungen weder verteufeln noch in den Himmel loben. Da generierte Inhalte mittlerweile zum medialen Alltag gehören, könne KI "zu einer verzerrten Darstellung der Realität führen und die öffentliche Meinungsbildung beeinflussen". Rampelt erklärte, dass viele Bürgerinnen und Bürger Deepfakes kaum von Fakten unterscheiden können und sagte: "Dadurch kann künstliche Intelligenz gezielt für Propaganda und Wahlmanipulation missbraucht werden."

KI könne den politischen Diskurs aber auch positiv beeinflussen, sagt Rampelt, beispielsweise auch durch das Zusammenfassen komplexer Sachinhalte. Für einen souveränen Umgang mit KI jedoch sei ein "grundlegendes Verständnis der Technologie zentral". Es bedarf einer Zusammenarbeit von Politik und Unternehmen, Regelungen zu finden, die den Missbrauch von Text-zu-Video-KI verhindern.

Themen folgen

Die Diskussion ist geschlossen.