Bigger, better, faster, more: OpenAI zündet den GPT-4 Turbo​

Neue Turbo-Varianten von GPT 3.5 und 4 können mehr und sind günstiger. Großkunden können sogar auf eigene Sprachmodelle aus dem Hause OpenAI hoffen.

In Pocket speichern vorlesen Druckansicht 99 Kommentare lesen
Digitales Schild warnt: "GPT-4 Ahead"

(Bild: Urban Images/Shutterstock.com)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Die generativen Sprachmodelle GPT-3.5 und GPT-4 erhalten jeweils eine "Turbo" genannte Version, die mehr kann und billiger zu nutzen ist. Ist das bisherige GPT-4 mit Informationen mit Stand September 2021 trainiert, wurde GPT-4 Turbo bis April 2023 mit Daten gefüttert. Bei der Beantwortung von Befehlen (Prompts) kann GPT 4 Turbo Kontext mit bis zu 131,072 Token (128K) auswerten (statt 8,096 bei GPT-4 8K respektive 32,768 bei GPT-4 32K).

Das hat Betreiber OpenAI am Montag im Rahmen seiner ersten Entwicklerkonferenz OpenAI DevDay bekannt gegeben. Token sind kleine Textschnipsel, die einzelne Wörter oder auch nur deren Bestandteile enthalten können. Context werden bei generativen Sprachmodellen jene vom User vorgegebenen Daten genannt, die für das Errechnen einer Ausgabe ausgewertet werden. Bei ChatGPT beispielsweise sind das die aktuelle Konversation und vorangegangene Mitteilungen. Je größer der Kontext, umso detailliertere Prompts sind möglich und umso mehr Daten kann ein Anwender zur Auswertung einspeisen.

Im Falle des GPT 4 Turbo schlägt sich der größere Kontext auch auf den davon abgeleiteten Chatbot ChatGPT durch. Für seinen Chatbot hat OpenAI am Montag ebenfalls zahlreiche Neuerungen angekündigt. Kunden können sich nun ihren eigenen ChatGPT-Bot machen.

Zahlende Entwickler können ab sofort eine Vorschauversion von GPT-4 Turbo über eine Programmierschnittstelle mit dem Parameter gpt-4-1106-preview abrufen. Ein wesentlicher Vorteil der Turbo-Version ist, dass sie beim sogenannten Function Calling aus einem einzigen Prompt des Nutzers mehrere unterschiedliche Befehle abarbeiten kann.

Bei Function Calling beschreibt der Anwender eine Funktion einer dritten Anwendung; GPT übersetzt den Wunsch des Users in eine Sprache, die diese dritte Anwendung versteht, beispielsweise JSON, und übergibt den entsprechenden Befehl an eine Schnittstelle dieser Anwendung. "Öffne das Autofenster und schalte die Klimaanlage ab", nennt OpenAI als konkretes Beispiel, das jetzt anstatt mit mehreren, mit nur einem Prompt ausgelöst werden kann.

Zudem wird die Nutzung schneller und billiger. OpenAI verdoppelt das Eingabelimit (Token pro Minute) und senkt die Preise erheblich: GPT-4 Turbo verrechnet pro 1.000 Eingabetoken von drei US-Cent (GPT-4 8K) respektive sechs Cent (GPT-4 32K) auf nur noch einen Cent. Bei der Ausgabe fällt der Preis von sechs respektive zwölf Cent auf drei Cent.

Zum Debugging gedacht ist eine Funktion, die bei gleichem Prompt möglichst die gleiche Ausgabe liefert. Im Normalbetrieb sind generative Sprachmodelle nicht konsistent. Derselbe Befehl zeitigt laufend unterschiedliche Ergebnisse. In diesem Zusammenhang möchte OpenAI bald ermöglichen, Einblick in die Wahrscheinlichkeiten für bestimmte Ausgaben zu erhalten.

GPT-4 Turbo ist multimodal. Es kann nicht nur Text oder Bilder oder Stimmen ausgeben, sondern alles zusammen. Für die Bilderzeugung ist Dall-E 3 integriert, wobei pro errechnetem Bild vier bis zwanzig US-Cent anfallen. Außerdem kann GPT-4 Turbo Bilder auch als Eingabe verarbeiten. Die Kosten dafür liegen, abhängig von der Bildgröße, um einen US-Cent.

Für die Sprachausgabe (Text to Speech, TTS) hat OpenAI zwei Modelle aufgelegt, eines für Echtzeit-Sprachausgabe und eines, das mehr Wert auf Qualität legt. Jedes gibt es in sechs unterschiedlichen Stimmen.

Whisper large-v3 ist eine neue Version der von OpenAI betriebenen Spracherkennung. Sie soll bald auch über eine Programmierschnittstelle in GPT-4 Turbo aufgerufen werden können.

Kunden, die für GPT Enterprise bezahlen, sollen sich nicht mehr vor Copyright-Klagen fürchten müssen, wen sie GPT-Ausgaben veröffentlichen. OpenAI verspricht, etwaig anfallende Kosten zu übernehmen. Damit folgt das Unternehmen dem Beispiel Microsoft, das seine Kunden gegen Copyright-Klagen versichert. Auch Google-Nutzer werden bei Copyright-Verletzungen durch Duet AI und Vertex AI entschädigt.

Die neue Assistants API ist laut OpenAI ein erster Schritt dazu, dass GPT-Kunden eigene virtuelle Assistenten bauen können. Über diese Schnittstelle sollen sich ganz unterschiedliche Funktionen mit Zugriff auf zusätzliche Datensätze aufrufen lassen; Unterhaltungen mit Endanwendern sollen gar kein Tokenlimit mehr haben.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Zu den aufrufbaren Funktionen zählen die neuen Code Interpreter (Schreiben und Ausführen von Python-Code), Retrieval (Abruf externer Daten) und das bereits erwähnte Function Calling. Noch handelt es sich bei Assistants API um eine Betaversion, Developer dürfen damit auf dem Assistants-Spielplatz spielen.

Das bereits bestehende GPT-3.5 Turbo erhält eine Turbo-Variante mit Versionsummer 1106. Wie bei GPT-4 Turbo gehen damit niedrigere Preise und erweiterter Context (bis 16,384 Token) einher. Das bisherige GPT-3-5 Turbo Version 0613 läuft zum 13. Juni 2024 aus. OpenAI verspricht verbesserter Befolgung von Anweisungen, JSON-Ausgaben und paralleles Function Calling.

Von GPT-3.5 übernommen wird bei GPT-4 das sogenannte fine tuning. Dabei können Entwickler das Sprachmodell an ihre Bedürfnisse anpassen. Um namhafte Verbesserungen der Ausgaben zu erreichen, sei bei GPT 4 allerdings wesentlich mehr Aufwand nötig als bei GPT 3.5, warnt OpenAI. Nicht jedermann darf zugreifen: Wer Erfahrung mit GPT-3.5 fine tuning hat, soll eine Einladung zu GPT-4 fine tuning erhalten.

Großkunden, die GPT-4 mit besonders umfangreichen Datenmengen an ihre Einsatzszenarien anpassen möchten, können sich jetzt um Zugang zu einem sogenannten Custom Model für den konzerninternen Einsatz bewerben. OpenAI erwartet dabei Datensätze mit mindestens mehreren Milliarden Token.

(ds)