Newsticker
Nato startet Aufnahmeverfahren für Finnland und Schweden
  1. Startseite
  2. Wissenschaft
  3. Digital: Lesen wir bald Romane, die eine Künstliche Intelligenz geschrieben hat?

Digital
07.09.2021

Lesen wir bald Romane, die eine Künstliche Intelligenz geschrieben hat?

Künstliche Intelligenz birgt großes Potenzial: Sie kann leichte Schreibaufgaben übernehmen. Doch bahnbrechende Fähigkeiten sollten ihr aktuell noch nicht zugeschrieben werden.
Foto: Axel Heimken, dpa

Kritiker warnen im Zusammenhang mit Künstlicher Intelligenz vor einer Diktatur der Daten. Doch wird ihr Vermögen zum Teil überschätzt?

Als böse, manipulierende Kreatur, die die Menschheit kontrollieren will, wird sie in Romanen wie "Die Tyrannei des Schmetterlings" von Frank Schätzing dargestellt. Entscheidungen soll sie besser treffen können als Menschen. Bei Bewerbungsverfahren soll sie sicherstellen, dass die Teilnehmenden beispielsweise nicht nach ihrem Geschlecht beurteilt werden. Sie gilt als lernfähig und soll den Alltag erleichtern - die Rede ist von Künstlicher Intelligenz (KI). Doch was kann KI wirklich? Was bedeutet ihr Können für den Umgang mit Information in Textform?

Der Schriftsteller Daniel Kehlmann hat im Rahmen eines Experiments versucht, gemeinsam mit einer KI einen literarischen Text zu verfassen. Heraus kam: Die KI konnte zwar gute Einleitungssätze verfassen, aber dem Plot fehlte es an narrativer Konsistenz. "Wir sind geneigt, Maschinen zu unterstellen, dass die denken können", sagt Bernd Beckert vom Fraunhofer-Institut für System- und Innovationsforschung (ISI) in Karlsruhe. Beckert ist stellvertretender Leiter des Competence Centers "Neue Technologien".

Was kann Künstliche Intelligenz leisten?

Die Schwierigkeit, zu fassen, was sich hinter dem Begriff Künstliche Intelligenz verbirgt und was sie leistet, beginnt schon damit, dass der Ausdruck für viele verschiedene maschinelle Verfahren verwendet wird. Ziel der KI-Forschung ist es, Systeme zu entwickeln, deren intellektuelle Fähigkeiten denen eines Menschen gleichen oder sogar überbieten.

Künstliche Intelligenz gibt es in zwei Formen: die schwache und die starke KI. Eine schwache KI - schwach in Bezug auf die Kreativität und die Fähigkeit, selbstständig zu lernen - kann nur auf einen stark eingegrenzten Bereich angewendet werden. Ihr werden Datensätze verabreicht. Auf deren Basis kann eine KI unter anderem Voraussagen entwickeln. Schwache KI wird zum Beispiel dafür genutzt, zu erkennen, ob ein Beitrag in einem sozialen Netzwerk Hassrede enthält. Von einer starken KI ist die Rede, wenn das System selbstständig Aufgabenstellungen erkennen, sich Wissen aneignen und kreative Problemlösungen finden kann. Die momentan verwendeten Systeme sind als schwache KI zu kategorisieren, eine starke KI existiert bisher nicht.

Künstliche Intelligenz wird bei Übersetzungsprogrammen, Spracherkennung, für Chat-Bots und Argumentationssystemen eingesetzt. "Project Debater" ist ein Beispiel für Argumentationssysteme: Das KI-System trägt aus einer großen Menge an Texten Informationen zusammen und baut daraus Argumente, die sachlich und möglichst unvoreingenommen sein sollen. Entwickelt wurde es von dem amerikanischen IT-Konzern IBM. Wissenschaftler Beckert erklärt, man könnte dem System die Aufgabe stellen, alle Aspekte, die für und gegen eine zusätzliche Straßenbahnlinie durch ein Stadtviertel sprechen, zu finden. Es würde sich die Nachrichten aus der lokalen Presse und Dokumente der wissenschaftlichen Stadtplanung ansehen und aus den Informationen eine Rede erstellen. Beckert sagt: "Das sieht aus wie eine menschliche Tätigkeit, aber das ist es nicht. Es entscheidet einfach aus einer Masse an Daten."

Lesen Sie dazu auch

Eine KI lernt nicht wie ein Mensch

Die Übersetzungsprogramme liefern inzwischen ähnlich gute Übersetzungen, wie Menschen sie leisten. Man könnte denken, KI-basierte Anwendungen verstünden unsere Wünsche, meint Beckert. Eine KI, die über menschliche Kreativität und Problemlösungsfähigkeiten verfügt, sei aber noch nicht erfunden und mit den aktuellen Technologien nicht möglich. Der Experte sagt: "'Wissen', 'Verstehen', 'Lernen' muss immer in Anführungszeichen stehen." Die Lernprozesse, die eine KI ausführt, kämen dem menschlichen Lernen nicht gleich. Die Lernabläufe einer KI sind im Vergleich zu den menschlichen weniger effizient. Kinder lernen zum Beispiel die Kategorien von Objekten oft nur anhand weniger Beispiele, was KI-Systeme nicht können. Sie benötigen viele Beispiele. Textgeneratoren brauchen beispielsweise viele Textbeispiele.

OpenAI, ein Unternehmen, das intensiv an Künstlicher Intelligenz forscht, hatte im Jahr 2019 sein Sprachverarbeitungsmodell GTP-2 (Generative Pretrained Transformer), ein Machine Learning Modell, dass aus großen Mengen von Textdaten neue Texte generiert, nur in Teilen veröffentlicht. Als Grund dafür gab es an, dass es fürchte, das Programm werde für Manipulationen benutzt. Mittlerweile ist GTP-3 auf dem Markt. Der Textgenerator erziele gute Ergebnisse, meint Beckert. Das reicht für einfache Informationsaufbereitung, Analysen zu einem Thema liegen jedoch außerhalb des Möglichen. Die Textgenerierung funktioniert nicht reibungslos: Oftmals lassen Forschende die KI den Schreibvorgang ein paar Mal wiederholen und suchen dann die beste Version aus.

Was hat die Forschung also hervorgebracht? Bisher reicht das Können der Künstlichen Intelligenz dafür, sie für die Berichterstattung über Sportereignisse einzusetzen. Bei Nachrichten über Aktienkurse und das Wetter wäre ihre Anwendung ebenfalls möglich, meint Beckert.

Manipulationsgefahr besteht bei neuen Technologien häufig

Die Technologie birgt allerdings auch Missbrauchspotenzial. "Tatsächlich können die Folgen neuer Technologien nie ganz überblickt werden, Menschen machen andere Dinge mit ihnen als das, wofür sie vorgesehen waren", sagt Beckert. Bei KI sei es schwierig zu durchschauen, wo sie genutzt wird. Uns begegnen Manipulationen in Form von Fake News, Deep Fakes mit Sprachverfälschung und Videomanipulationen. Beckert meint, die Gefahr, dass Entwicklerinnen und Entwickler etwas auf die Menschheit loslassen, das nicht mehr einzufangen ist, aber genutzt wird trotz ungewollter Folgewirkungen oder obwohl es ethisch bedenklich ist, existiere unzweifelhaft.

Was bedeutet der Einsatz von KI für den Umgang mit Quellen? Einen Chatbot könne man mit Quatschaussagen und Ironie überführen, denn eine KI "weiß" nichts von der Sprechsituation, in der sich Nutzende und die KI befinden. Sie könne ironische Sätze nicht lustig kommentieren, erklärt Beckert. An einen von einer Maschine geschriebenen Text können Leserinnen und Leser jedoch keine Fragen richten. Sie seien auf eine Kennzeichnung, dass es sich um einen automatisch generierten Text handelt, angewiesen. Eine zu frühe Regulierung des Einsatzes von Künstlicher Intelligenz jedoch könnte Innovationen einschränken, die man durchaus ermöglichen wollen würde. Die Expertendiskussion über die ethische Dimension gebe es, sie habe ihren Weg in die Öffentlichkeit nur noch nicht gefunden, meint Beckert.

Soweit, dass Internetnutzerinnen und -nutzer sich jetzt ständig fragen müssten, ob sie gerade einen automatisch geschriebenen Text lesen, ist die Technologie noch nicht. Für Reportagen und das Erzählen persönlicher Geschichten brauche es weiterhin Redakteurinnen und Redakteure, weil diese Art von Texten eine Meta-Kommunikation voraussetzen würden, die eine KI nicht leisten könne bisher, erklärt der Experte. Was Beckert bisher gesehen habe, seien rudimentäre Geschichten. Er sagt: "Wirklich kreative Sachen kann keine KI, Entwicklung steht aber nicht still".

Themen folgen

Die Diskussion ist geschlossen.