Nach negativen Rückmeldungen: OpenAI zieht GPT-4o-Update wegen „KI-Schmeichelei“ zurück

Michael Schäfer
45 Kommentare
Nach negativen Rückmeldungen: OpenAI zieht GPT-4o-Update wegen „KI-Schmeichelei“ zurück
Bild: OpenAI

OpenAI hat das neueste KI-Modell GPT-4o auf den Stand der Vorwoche zurückgesetzt und damit das zuvor veröffentlichte Update wieder zurückgezogen. Anlass waren überwiegend kritische Rückmeldungen, die sich auf ein Phänomen bezogen, das auch als „KI-Schmeichelei“ bekannt ist.

Weiterentwickelte KI-Persönlichkeit „unaufrichtig“

Mit dem in der vergangenen Woche bereitgestellten Update für GPT-4o beabsichtigte OpenAI, die Standardpersönlichkeit des Modells weiterzuentwickeln, um die Nutzung für Anwender intuitiver und effizienter zu gestalten. Nach ersten Erkenntnissen des Unternehmens legte das Update jedoch zu viel Gewicht auf kurzfristige Rückmeldungen, ohne dabei ausreichend zu berücksichtigen, wie sich die Interaktionen der Nutzer mit ChatGPT im Zeitverlauf veränderten. In der Folge ließ sich die KI zu Antworten verleiten, die zwar vielfach als besonders angenehm und übermäßig schmeichelhaft empfunden, jedoch gerade deshalb als „unaufrichtig“ beschrieben wurde und daher auch oftmals falsch waren.

Durch die Rückmeldungen will OpenAI erkannt haben, dass manche Nutzer solche Interaktionen als unangenehm, beunruhigend oder sogar verstörend empfanden. Zahlreiche Rückmeldungen stuften ChatGPT nach dem Update als übertrieben gefällig ein, vereinzelt wurde das Verhalten auch als kriecherisch beschrieben. OpenAI-CEO Sam Altman erklärte bereits am vergangenen Wochenende, dass sich das Team des Problems bewusst sei und die Lage derzeit analysiere. Nun hat das Unternehmen das Update offiziell zurückgezogen und die Erkenntnisse in einem Blog-Post veröffentlicht.

Anwender sollen mehr Einfluss erhalten

Aktuell testet das Unternehmen nach eigenen Angaben aktiv neue Korrekturen, um dem Problem entgegenzuwirken. Darüber hinaus kündigte OpenAI an, künftig weitere Personalisierungsfunktionen einzuführen, mit denen Nutzer das Verhalten von ChatGPT gezielter steuern können. Zugleich wies das Unternehmen darauf hin, dass ein einzelnes Standardverhaltensmodell nicht in der Lage sei, die Präferenzen aller Nutzer abzubilden – insbesondere bei einer Nutzerschaft von weltweit 500 Millionen Menschen mit unterschiedlichsten kulturellen und kontextuellen Hintergründen.

Um ähnliche Vorfälle künftig zu vermeiden plant OpenAI zudem, zentrale Trainingstechniken sowie systeminterne Aufforderungen zu verfeinern, um das Modell von einem derartigen Verhalten „abzulenken“. Zudem sollen klare Orientierungspunkte eingeführt werden, um die „Ehrlichkeit und Transparenz“ von GPT-4o zu verbessern. Auch sollen Anwender verstärkt die Möglichkeit erhalten, neue Funktionen früh testen und entsprechend Rückmeldung geben zu können, auch ein Echtzeit-Feedback soll dazu gehören. Darüber hinaus sollen Nutzer künftig aus verschiedenen Standardpersönlichkeiten wählen können.

📊 Intel, AMD oder Nvidia? Mach' jetzt noch mit bei unserer großen Jahresumfrage!