Zwischenschritt vor GPT-5: GPT-4.1 ist für ChatGPT Plus, Pro und Teams verfügbar
Bislang waren die GPT-4.1-Modelle nur über die API nutzbar, nun hat OpenAI diese auch in ChatGPT integriert. Wer diese verwenden will, benötigt eines der kostenpflichtigen Plus-, Pro- und Teams-Abonnements. GPT-4.1 ist im Vergleich zu den Spitzenmodellen vor allem auf Effizienz getrimmt.
Trotz der geringeren Größe schneidet GPT-4.1 laut OpenAIs internen Benchmarks besser ab als das ältere GPT-4o sowie das deutlich größere GPT-4.5. Präzise soll es etwa Anweisungen befolgen und Aufgaben in Bereichen wie Coding und Webentwicklung lösen. Insbesondere bei einfachen Aufgaben sei es daher die Alternative zu den Reasoning-Modellen o3 und o4-mini.
Die kleinere Variante GPT-4.1 mini ersetzt zudem GPT-4o mini. Bei Nutzern mit einem kostenpflichtigen Abonnement gilt das für das Modellauswahlmenü. In der freien Version von ChatGPT ist GPT-4.1 mini ab jetzt das Fallback-Modell, wenn das Nutzungslimit mit GPT-4o erreicht ist.
Fortschritte verkündete OpenAI auch bei o4-mini. Das wurde nun um ein Reinforcement Fine-Tuning (RFT) erweitert, das unter anderem Chain-of-Thought-Reasoning nutzt. Das heißt: Das Modell kann eine Art „Gedankenkette“ bilden, um Aufgaben in mehrere Schritte zu untergliedern. Vorteile soll RTF in komplexen Anwendungsbereichen bringen.
Warten auf GPT-5 und den großen Sprung
OpenAI optimiert also weiter die Modellauswahl. Was auffällig ist: GPT-4.5, das einst als vermeintliches Spitzenmodell angekündigt wurde, rückt immer weiter in den Hintergrund. GPT-4o sowie nun GPT-4.1 sind die Standardmodelle, an der Spitze stehen die Reasoning-Modelle o3 und o4-mini.
GPT-4.5 ist als herkömmliches Sprachmodell ohne Reasoning-Fähigkeiten hingegen zu groß – und damit offenkundig zu teuer für den Betrieb. Es mangelt an Anwendungszwecken.
Grundlegend ändern soll sich OpenAIs Modellpalette mit GPT-5, das sowohl die Fähigkeiten herkömmlicher Sprachmodelle als auch die von Reasoning-Modellen vereinen soll. Je nach Abo-Paket soll es dann auch nicht mehr unterschiedliche Modelle geben, sondern die Leistungsfähigkeit von GPT-5 skalieren – wer mehr zahlt, bekommt also mehr Rechenpower.
Inwieweit der aktuelle Reasoning-Ansatz trägt, ist derzeit aber strittig. Reasoning heißt: Teile der Berechnungen werden auf die Inferenzphase verlegt, Berechnungen finden also statt, nachdem der Nutzer die Anfrage eingegeben hat. Einige Studien legen nahe, dass die Modelle damit aber nicht intelligenter werden, sondern vor allem effizienter. Und auch OpenAI ist bei o3 und o4-mini auf ein erstaunliches Problem gestoßen: Beide Modelle liefern in einem auf Fehlerprovokation ausgelegten Benchmark zwar mehr richtige Antworten, halluzinieren aber auch mehr – die Fehlerrate steigt also. Denkbar ist, dass diese Probleme auch einer der Gründe für den verzögerten GPT-5-Start sind.