Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

▌▉▍▉▉▍▉▌▌▉▍▉▌ ▉▌▌▉▍▉▌▌▉▍▉▍▉▍ ;▌▉▍▉▉▍▉▌▌▉▍▉▌
  1. Startseite
  2. Bayern
  3. Interview: Medienethikerin über KI: "Verteufelung bringt nichts"

Interview
04.03.2023

Medienethikerin über KI: "Verteufelung bringt nichts"

Roboter, ausgestattet mit Künstlicher Intelligenz oder einem Programm wie ChatGPT, können unter anderem im Pflegebereich zum Einsatz kommen.
Foto: Boris Roessler, dpa (Archivfoto)

Exklusiv Mit ChatGPT gibt es nun ein Programm, das zeigt, wozu Künstliche Intelligenz fähig ist. Medienethikerin Claudia Paganini über Chancen, Risiken und neue Probleme.

Frau Paganini, ist Künstliche Intelligenz, auf der zum Beispiel der Chatbot ChatGPT basiert, die nächste technische Revolution? Eine, die unser Leben tiefgreifend verändern wird?

Claudia Paganini: Ob es ein Meilenstein sein wird, wird man erst später sagen können. Aber ich glaube, dass hier etwas Neues mit einer großen Eigendynamik entsteht. Schon jetzt zeigt sich anhand von ChatGPT, dass wir unsere bisherige Praxis in vielen Bereichen infrage stellen müssen. Denken Sie nur an den Bildungsbereich.

ChatGPT ist ein Sprachprogramm, das mit riesigen Datenmengen trainiert wurde. Es besteht Hochschulprüfungen und schreibt Uni-Arbeiten. Viele reagieren fasziniert und zugleich beängstigt darauf.

Paganini: Mich persönlich ängstigt es nicht. Es war eine Frage der Zeit, bis dieser Punkt erreicht würde. Dennoch stellt ChatGPT eine Kränkung des Menschen dar.

Weil ihm Künstliche Intelligenz haushoch überlegen ist?

Lesen Sie dazu auch

Paganini: Richtig, wenn auch nicht in allen Bereichen. Ich finde ja: Diese Kränkung kann dem Menschen durchaus guttun.

Wie das?

Paganini: Es bringt ihn zum Nachdenken darüber, was ihn ausmacht. Und vielleicht zu der Frage: Ist der Mensch wirklich so vernünftig, wie er sich sieht?

Medienethikerin Claudia Paganini sagt: Eine Verteufelung einer neuen Technologie wie ChatGPT bringe nichts – "weil das kein Problem löst".
Foto: C. Lais/HFPH

Was macht uns Menschen aus?

Paganini: Wir sind empathische Wesen, wir können uns in andere hineinfühlen und sie in Entscheidungen einbeziehen – und all das sollten wir, gerade angesichts der Möglichkeiten Künstlicher Intelligenz, wieder stärker in den Vordergrund rücken. Schließlich können Maschinen allenfalls den Anschein von Emotionen erwecken.

Man kann sich mit ChatGPT unterhalten wie mit einem Menschen ...

Paganini:... und es soll auch Leute geben, die glauben, sie hätten eine Liebesbeziehung zu ihrem Auto. So etwas hat aber weniger mit dem zu tun, wozu Technik imstande ist, als vielmehr mit unserer Psyche und damit, was wir in Technik sehen wollen.

Also keine Ängste?

Paganini: Wir haben es in der Hand, Software zu programmieren und zu kontrollieren. Ich stelle mir eher eine andere Frage: Ist es überhaupt unser Ziel, am Alten festzuhalten? Wir stehen vor einer Richtungsentscheidung: Reagieren wir auf die neuen technischen Möglichkeiten, indem wir uns ihnen anpassen? Oder wollen wir das nicht? Es wird entscheidend sein, welchen Rahmen wir ihnen setzen. Eine Verteufelung jedenfalls bringt nichts, weil das kein Problem löst.

Möglicherweise werden unzählige Jobs überflüssig.

Paganini: Und darauf müssen wir frühzeitig, schon jetzt reagieren als Gesellschaft, als Politik, als Wirtschaft. Ich habe einmal mit einer Ingenieurin diskutiert, die KI-Anwendungen entwickelt. Die meinte: Es sei nur eine Frage von ein, zwei Generationen, dann gäbe es ohnehin andere Jobs, der Verlust der weggefallenen würde gewissermaßen ausgeglichen. Das kann ich als Ethikerin nicht akzeptieren, denn das ist zynisch gegenüber jenen Menschen, die ihre Arbeit jetzt verlieren könnten, die "wegrationalisiert" werden.

Welchen Rahmen müssen wir ChatGPT setzen?

Paganini: Zunächst einmal müssen wir uns vergewissern: Was sind typisch menschliche Fähigkeiten und Kompetenzen, die wir hochhalten wollen – und was wollen wir Künstliche Intelligenz übernehmen lassen? Darüber gilt es jetzt ins Gespräch zu kommen, und zwar nicht nur in Universitäten oder Medien, sondern zum Beispiel auch mit Menschen, deren Jobs potenziell bedroht sind. Wir müssen einer kapitalistischen Logik des "Schneller-Effektiver-Mehr" auf Anbieterseite die Forderung einer Qualitätsverbesserung unseres Lebens entgegensetzen.

Ich habe ChatGPT gefragt: "Welche Fragen zu ChatGPT würdest du einer Ethikerin stellen?" Das Programm formulierte sieben Fragen, darunter diese: "Wie kann ich dazu beitragen, dass Entscheidungen, die ich treffe, transparent und nachvollziehbar sind, damit es möglich ist, Verantwortlichkeit für meine Handlungen zu übernehmen?"

Paganini: Das sagt ChatGPT?

Ja.

Paganini: Theoretisch müsste offengelegt werden, auf welche Quellen sich das Programm bezieht und wie es zu Entscheidungen kommt. Praktisch ist das so gut wie unmöglich – nicht nur, weil der Anbieter daran kein Interesse haben dürfte, sondern auch, weil es viel zu viele Informationen wären. Man könnte jedoch einfordern, dass die wichtigsten Quellen genannt werden müssen.

Das wird schwierig, wenn die Entwickler und Anbieter in den USA oder China sind.

Paganini: Stimmt, und noch schwieriger wird es dadurch, dass neue Entwicklungen in vielen Fällen in militärischen Kontexten entstehen.

"Sollte ich als KI überhaupt Entscheidungen treffen dürfen, die das Leben von Menschen beeinflussen können?", fragte ChatGPT weiter.

Paganini: Ja, aber nur in einem sehr klar definierten Bereich.

Zum Beispiel?

Paganini: Denken Sie an Sprachunterricht in der Schule: Die Künstliche Intelligenz macht Schülerinnen und Schülern Vorschläge zum Vokabel-Lernen und trifft hier diesbezügliche Entscheidungen – während sich die Lehrkraft im Idealfall Lernschwächeren zuwenden kann.

Video: AFP

Im Bereich der Pflege wird es heikler: Was darf ein mit ChatGPT ausgestatteter Roboter Pflegebedürftigen sagen?

Paganini: Ich habe mich mit der Frage beschäftigt: Darf Künstliche Intelligenz Pflegebedürftige anlügen?

Darf sie?

Paganini: Ich würde in diesem speziellen Fall sagen: Ja.

Warum?

Paganini: Menschen in der Pflege sagen jeden Tag Dinge wie: "Das wird schon wieder!" Oder: "Nehmen Sie diese Medizin, dann geht es Ihnen besser!" Streng genommen sind das Formen der Lüge, denn ich weiß ja nicht, ob es "schon wieder wird" oder ob die gereichte Medizin zu einer Besserung führt, erst recht nicht, wenn es um Schwerkranke oder Sterbende geht. Aber diese Formulierungen haben einen Sinn. Man würde in solchen Fällen doch nicht sagen: "Sie haben maximal zwei Monate, das bringt eh nichts mehr." Man würde sagen: "Diese Diagnose liegt vor und mit dieser Therapie könnte dies oder das noch erreicht werden." Der Mensch reagiert empathisch, und das sollte Künstliche Intelligenz in dieser konkreten Situation ebenfalls. Allerdings: So etwas muss für den jeweiligen Anwendungsfall diskutiert werden, natürlich auch mit Angehörigen. Und: Es muss dem eine positive Gesinnung zugrunde liegen.

Insofern können Maschinen "moralisch" handeln, aber können sie Verantwortung tragen?

Paganini: Das ist eine schwierige Frage. In der Praxis wird es auf eine Mischung aus Hersteller- und Anwenderverantwortung hinauslaufen. Neue Entwicklungen bringen stets auch neue ethische oder juristische Probleme mit sich. Deutlich schwieriger wird es übrigens, wenn ausschließlich Maschinen miteinander kommunizieren und kein Mensch mehr eine Entscheidung trifft.

Zur Person Claudia Paganini, 1978 in Innsbruck geboren, ist Professorin für Medienethik an der Hochschule für Philosophie München. 2019 wurde die Philosophin und katholische Theologin in Österreich mit dem "Ars Docendi-Staatspreis für exzellente Lehre" ausgezeichnet. Zusammen mit ihrem Mann, dem katholischen Theologieprofessor Simone Paganini, verfasste sie eine Reihe populärwissenschaftlicher Bücher, darunter eines über "Star Wars und die Bibel".

Themen folgen

Die Diskussion ist geschlossen.