Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

▌▉▍▉▉▍▉▌▌▉▍▉▌ ▉▌▌▉▍▉▌▌▉▍▉▍▉▍ ;▌▉▍▉▉▍▉▌▌▉▍▉▌
  1. Startseite
  2. Kultur
  3. Künstliche Intelligenz: Julian Nida-Rümelin: "Wir müssen die Kontrolle zurückgewinnen"

Künstliche Intelligenz
15.05.2019

Julian Nida-Rümelin: "Wir müssen die Kontrolle zurückgewinnen"

Der Philosoph Julian Nida-Rümelin.
Foto: Matthias Balk, dpa

Was bringt die Zukunft? Der Philosoph Julian Nida-Rümelin und seine Frau erklären, worauf es wirklich ankommt.

Ihre Mission ist klar: Es geht um die ganz großen Fragen der Zukunft – und um die ganz großen Missverständnisse, die in der Gegenwart den Diskurs darüber prägen.

Julian Nida-Rümelin und Natalie Weidenfeld haben darum ein aufklärerisches Buch über die Künstliche Intelligenz veröffentlicht. Sie als Kulturwissenschaftlerin, die sich mit all den dramatischen Übertreibungen auskennt, von denen unsere Vorstellungen des Kommenden infiziert sind; er als einer der bekanntesten Philosophen Deutschlands, der schon mal Kulturstaatsminister war, sich immer wieder in gesellschaftlichen Debatten zu Wort meldet und auch in staatliche Einrichtungen Bayerns zu der Herausforderungen der Digitalisierung berufen ist (im „Zentrum Digitalisierung.Bayern“ wie im „Bayerischen Forschungsinstitut für Digitale Transformation“).

Aber das Paar tritt wie an diesem Abend Mitte Mai mit seinen Antworten auch an, um die großen Ängste und großen Hoffungen auch im kleinen Rahmen persönlich mit den Menschen zu besprechen. Auf Einladung der Volkshochschule im Filmsaal des Augsburger Zeughauses – ein passender Rahmen, denn mit dem Film haben diese Ängste und Hoffnungen eben sehr viel zu tun. Das zu erläutern, ist der Part von Natalie Weidenfeld. Sie spricht von „primitivistischen Projektionen“ und meint damit, dass die Fiktionen von Künstlicher Intelligenz die an sich komplizierten Fragen schon immer zu mächtigen Visionen unselig vereinfacht hätten. Und dass das in Zeiten des Science-Fiction-Kinos nicht nur besondere Konjunktur habe, sondern im Digital-Zeitalter auch besonders prekäre Folgen zeitige. Selbst wenn die im Durchnitt älteren Zuhörer dieses Abends die Filme womöglich nicht kennen, die die Kulturwissenschaftlerin und Autorin zitiert – Filme wie „I, Robot“ oder „Blade Runner“, „Ex Machina“, „A. I.“ oder „Matrix“ … –, die darin enthaltenen Visionen kennt heute jeder.

Fiktionen bestimmen unsere Sicht auf die Zukunft

Dämonische, überlegene Roboter, die die Macht übernehmen und den Menschen versklaven; Roboter, die von Menschen nicht mehr unterscheidbar sind und die Gesellschaft unterwandern; Menschen, die mit Künstlicher Intelligenz verschmelzen und dadurch perfekt, unsterblich werden; ein erlösender Fortschritt dank Künstlicher Intelligenz in paradiesische Zustände. Denn die positiven Projektionen werden nicht selten von den Ideologen aus dem Silicon Valley ins Spiel gebracht, die negativen von deren Kritikern. „Der Diskurs“, sagt Weidenfeld, „ist infiziert von Fiktionalität.“

Und die Antwort, die darauf nötig ist, so formuliert das Paar gemeinsam, ist eben eine aufklärerische: „Wir müssen die Kontrolle zurückgewinnen.“ Die doppelte Bedeutung dieses von den Brexit-Befürwortern entlehnten Mottos erklärt Julian Nida-Rümelin. Auch hier besser ein Exit also? Nein, es geht zum einen um den klaren Blick auf das, was Künstliche Intelligenz wirklich ist und kann, und darum, sie nur zu unserem Wohl zu nutzen. Das Buch heißt „Digitaler Humanismus“. Und wenn seine Frau gezeigt hat, dass „wir in Wirklichkeit nicht von der Dynamik einer überlegenen Intelligenz überrollt oder erlöst werden“, so betont der Philosoph: „Der Mensch allein besitzt die Fähigkeit zur Freiheit zur Vernunft – das heißt aber auch, wir allein tragen die Verantwortung.“

Für die Gesellschaften der Gegenwart bedeutet das: Wir können steuern, aber wir müssen es auch. In der aktuellen Situation seien, so Nida-Rümelin, die Entwicklungen „außer Kontrolle geraten“. Die Europäische Union habe die Entwicklung verschlafen. Und so erlebe die Welt eine in der Industriegeschichte bislang einzigartige Monopolisierung. Und die führe nicht nur zum Bruch von Bürgerrechten wie der „informationellen Selbstbestimmung“, der Herrschaft über die eigenen Daten also – sondern stehe mit seiner Sinnhaftigkeit überhaupt in Frage. Es gebe entgegen der vorigen Welle der Digitalisierung in den Neunzigern keinen Produktivitätszuwachs, stattdessen sei der Weltzufriedensheitsindex erstmals seit langem wieder gesunken …

Wenn der Straßenverkehr automatisch läuft

Die Nachfragen im kleinen Raum dieses Abends zu den großen Fragen sind meist konkret. Es geht zum Beispiel um die Möglichkeiten des autonomen Fahrens, wenn doch jährlich über 3000 Menschen auf unseren Straßen durch Verkehrsunfälle sterben. Der Philosoph: „Wir haben uns als Gesellschaft dazu entschieden, die Risiken des Individualverkehrs zu akzeptieren – aber ganz etwas anderes wäre es zuzulassen, einem automatischen System die Steuerung zu überlassen und dabei durch Wahrscheinlichkeit eine gewisse Opferzahl in Kauf zu nehmen – selbst wenn die um das Zehnfache niedriger läge.“

Es geht um die zunehmende Ähnlichkeit von Robotern zu Menschen. Nida-Rümelin plädiert für eine funktionale Gestaltung der Maschinen, um die Grenzen mit rechtlich und seelisch unabsehbaren Folgen nicht zu verwaschen. Darum müsse es auch das Recht geben zu wissen, wann wir es in einer Kommunikation am Telefon oder im Netz mit einem Bot zu tun haben. Es geht um die Übermacht der Suchmaschine Google. Der Philosoph verweist auf Alternativen wie Ecosia, aber auch finanzielle Steuerungsideen: So könnte jede Nutzung von Nutzerdaten mit einem Kleinbetrag bezahlt werden müssen, was Verkehr und Wertschöpfung reguliere. So könnte auch, wenn Europa etwa endlich eine eigene, freie Plattform geschaffen habe, für jede Suchfrage ein Kleinstbetrag fällig sein. Für das bislang Kostenlose bezahlen? „Verglichen mit den längerfristigen gesellschaftlichen Kosten könnte das um einiges billiger sein.“

Bis hinein in die kleinen Räume und ins ganz Konkrete also scheint zur Lösung der großen Fragen eine Selbstbehauptung des Menschen auf dem Weg in die Zukunft nötig zu sein – soll sie denn human sein. Das vernunftbegabte, zur Freiheit fähige Wesen Mensch steht als Einzelner wie als Ganzes vor einer Herausforderung. Darum warnt Julian Nida-Rümelin auch davor, dass, wie im Europäischen Parlament bereits mit Mehrheit vorgeschlagen, „intelligenten Robotern“ verfassungsrechtlich der Rang einer „elektronischen Person“ eingeräumt werden soll: „Wenn wir hier eine personale Identität zuschreiben, beginnen wir damit etwas, das sich nicht mehr einfangen lässt – und das sieht dann ganz anders aus als die Silicon-Valley-Visionen.“ Es geht dabei nicht einfach um Dämonen oder Erlöser, sondern um die komplizierte Frage der Würde des Menschen.

Julian Nida-Rümelin und Nathalie Weidenfeld: Digitaler Humanismus – Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper, 224 S., 24 €.

Themen folgen

Die Diskussion ist geschlossen.