Deep Dive: Für eine Zukunft nach ChatGPT und Co.

ChatGPT und Co. scheinen, eine Vorstufe zur allgemeinen künstlichen Intelligenz zu sein. Die KI-Expertin und Buchautorin Katharina Zweig ist skeptisch.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 2 Min.

AGI, allgemeine künstliche Intelligenz, also eine KI, die menschenähnliche oder gar übermenschliche Fähigkeiten hat, galt lange als komplett unrealistisch, oder zumindest als sehr, sehr ehrgeiziges Ziel – je nachdem, mit wem man gesprochen hat. Aber jetzt fragen sich viele, wenn ChatGPT schon so viel kann, was kommt da danach? Vielleicht wirklich so etwas wie eine AGI?

In der neusten Podcast-Folge des Deep Dive diskutiert TR-Redakteur Wolfgang Stieler mit Katharina Zweig über die Frage, wie intelligent oder dumm die jetzt schon existierenden großen Sprachmodelle denn nun wirklich sind, wie wir sie jetzt und zukünftig nutzen sollten und wovon wir besser die Finger lassen.

Katharina Zweig ist Professorin an der TU Kaiserslautern-Landau und dort auch Leiterin des Algorithmic Accountability Lab. Sie ist nicht nur als Wissenschaftlerin tätig, sondern auch sehr gefragte Speakerin und Autorin populärwissenschaftlicher Bücher zum Thema KI.

MIT Technology Review Podcast

Hier finden Sie die Übersicht unserer drei Podcast-Formate: der wöchentliche News-Podcast "Weekly" sowie die monatlichen Podcasts "Unscripted" und "Deep Dive".

Damit etwas als intelligent bezeichnet werden könne, sagt sie unter Berufung auf den Philosophen Brian Cantwell-Smith, müsse es "existenziell von seinem Weltbild abhängen". "Ich bin jetzt gerade mit dem Fahrrad gefahren und da muss ich ständig abschätzen, ob Autos hinter mir sind, ob die mich sehen, ob ich noch eben über die Straße fahren kann. Ich bin existenziell davon abhängig, dass ich die Geschwindigkeiten von Autos richtig einschätze." Bei einem Sprachmodell sieht sie diese Fähigkeit nicht: "Die technologische Basis gibt das gar nicht her, dass ein Sprachmodell irgendein Interesse an der Korrektheit seines Weltbildes hat", sagt Zweig. "Deswegen kommt es eben auch zu Halluzinationen, weil es zum Beispiel keine Repressalien gibt".

Damit wir ChatGPT und seine möglicherweise noch smarteren Nachfolger auch möglichst verantwortungsvoll nutzen können, müssten wir über unser Verhältnis zur KI nachdenken. "Wir haben für das, was die Sprachmodelle im Moment können, noch kein gutes Wort. Denn natürlich steckt eine Art Verständnis drin", sagt Zweig. "Ich glaube, wir müssen neue Wörter erfinden für die Art von vermeintlichem Verständnis, die das Sprachmodell uns widerspiegelt. Was aber den Unterschied zum Verstehen von einem Kind oder einem erwachsenen Menschen nochmal deutlich macht". Denn nur, wenn wir gut verstehen würden, was diese Technologie kann und, wo sie nicht so verlässlich ist oder anders ist als wir, "dann werden wir ganz hervorragend damit zusammenarbeiten."

Die ganze Folge – als Audio-Stream (RSS-Feed):

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(wst)