c't 9/2023
S. 126
Wissen
Grenzen der Sprach-KI
Bild: KI Midjourney | Bearbeitung: c't

Schneller als gedacht

ChatGPT zwischen wirtschaftlicher Effizienz und menschlichem Wunschdenken

Sprachmodelle wie ChatGPT erklären die Welt, ohne sie zu verstehen. Aber ist semantisches Verständnis wirklich nötig? Oder wäre es für KI-Firmen sogar ein Hindernis auf dem Weg zum wirtschaftlichen Erfolg? Die Geschichte lehrt, dass der Durchbruch neuer Technologien von anderen Faktoren abhängt.

Von Philipp Schönthaler

Die aktuellen Debatten um Sprachmodelle wie ChatGPT erwecken den Eindruck, dass der maschinellen Sprachverarbeitung kaum Grenzen gesetzt sind. Ob Geschäftsbericht, Zeitungsartikel, Hausarbeit oder Roman – Chatbots beherrschen scheinbar alles. Viele Stimmen gehen davon aus, dass maschinengenerierte Texte schon bald die Norm darstellen werden und nicht mehr von Menschen geschriebene. Die Erwartungshaltung beim Lesen von Texten würde sich dadurch verändern: KI-Produkte wären die Regel, menschliche Texte die Ausnahme. Sie würden aus der Reihe tanzen, wie es heute eine Postkarte tut.

Noch haben die Systeme allerdings gravierende Mängel. Jeder, der mit ChatGPT experimentiert, stößt auf Fehler. Das Grundproblem ist, dass die KI nicht versteht, worüber sie spricht. Was für das menschliche Gehirn semantische Zeichen sind, die eine Bedeutung transportieren, verarbeitet die Software in syntaktischen und mathematischen Beziehungen, die sich aus Trainingsdaten und statistischen Berechnungen ableiten. Systeme wie ChatGPT wetten darauf, dass sich die Bedeutungsebene von Sprache über numerische Relationen erschließen lässt. Sind Sprechen und Schreiben also Funktionen, die sich wie Routen bei Google, wie Matches bei Parship, wie die Wettervorhersage berechnen lassen?

Kommentieren