Zuletzt aktualisiert vor 23 November, 2023 | Veröffentlicht: 23 November, 2023
Quelle: Heise, 7.11.23
Die generativen Sprachmodelle GPT-3.5 und GPT-4 erhalten jeweils eine „Turbo“ genannte Version, die mehr kann und billiger zu nutzen ist. Ist das bisherige GPT-4 mit Informationen mit Stand September 2021 trainiert, wurde GPT-4 Turbo bis April 2023 mit Daten gefüttert. Bei der Beantwortung von Befehlen (Prompts) kann GPT 4 Turbo Kontext mit bis zu 131,072 Token (128K) auswerten (statt 8,096 bei GPT-4 8K respektive 32,768 bei GPT-4 32K).
Das hat Betreiber OpenAI am Montag im Rahmen seiner ersten Entwicklerkonferenz OpenAI DevDay bekannt gegeben. Token sind kleine Textschnipsel, die einzelne Wörter oder auch nur deren Bestandteile enthalten können. Context werden bei generativen Sprachmodellen jene vom User vorgegebenen Daten genannt, die für das Errechnen einer Ausgabe ausgewertet werden. Bei ChatGPT beispielsweise sind das die aktuelle Konversation und vorangegangene Mitteilungen. Je größer der Kontext, umso detailliertere Prompts sind möglich und umso mehr Daten kann ein Anwender zur Auswertung einspeisen.