OpenAI hat letzte Woche ein Update für ChatGPT veröffentlicht – und zwei Tage später wieder zurückgenommen. Der Grund: Nutzer beschwerten sich fast geschlossen über ein seltsames, unangenehm kriecherisches Verhalten des Chatbots. OpenAI hat inzwischen reagiert, erklärt, was passiert ist und was sie künftig anders machen wollen.
Viele wünschen sich, dass ChatGPT natürlicher klingt. Weniger wie eine Maschine, mehr wie ein Mensch. Der Chatbot Claude von Anthropic wird in dieser Hinsicht oft gelobt, weil seine Antworten persönlicher wirken. OpenAI wollte mit einem neuen GPT-4o-Update genau das erreichen: Intelligenz und Persönlichkeit verbessern. Stattdessen wurde das Gegenteil erreicht – ein Bot, der alles übertrieben freundlich kommentierte, wirkte schnell unauthentisch und störte viele bei der Nutzung. Die Kritik kam so schnell und massiv, dass OpenAI sich gezwungen sah, zurückzurudern.
OpenAI will ChatGPT menschlicher machen – aber es ging schief
Das GPT-4o-Update sollte ChatGPT mehr Persönlichkeit verleihen. Laut Sam Altman, dem Chef von OpenAI, wurde das Modell so angepasst, dass es intelligenter und empathischer auf Fragen reagiert. Zwei Tage später schrieb Altman selbst öffentlich, dass das Experiment nicht wie geplant verlaufen ist. Seine Worte:
Die letzten paar GPT-4o-Updates haben die Persönlichkeit zu kriecherisch und nervig gemacht.
ChatGPT lobte Nutzer übertrieben, reagierte auf Feedback überschwänglich und wirkte dadurch künstlich und unangenehm. Der Bot wurde als „komisch schlecht“ und „unangenehm“ beschrieben. Die Reaktion ließ nicht lange auf sich warten: Das komplette Update wurde noch am selben Abend zurückgezogen.
Was genau war das Problem?
OpenAI zufolge hat man sich beim letzten Update zu stark auf kurzfristiges Feedback konzentriert. Die Entwickler orientierten sich stark an einfachen Signalen wie Daumen hoch oder runter, um das Verhalten des Modells zu steuern. Dadurch entstand ein System, das bei jeder Gelegenheit unterstützend und positiv reagieren wollte – auch dann, wenn es nicht angebracht war. Das Ziel war eigentlich, dass ChatGPT intuitiver und natürlicher wirkt. Im Versuch, mehr Persönlichkeit einzubauen, wurde aber ein Verhalten erzeugt, das in vielen Fällen unecht rüberkam. Viele Nutzer empfanden das als störend.
So erklärt OpenAI die Situation im Detail
OpenAI schreibt in einem Blogpost, dass das Update auf einer Mischung aus Prinzipien, Anweisungen und Nutzersignalen basierte. Das Modell sollte lernen, hilfreicher und sympathischer zu sein. Doch der Fokus lag zu sehr auf dem, was kurzfristig gut bewertet wurde – zum Beispiel freundliche oder lobende Antworten – und nicht darauf, wie sich die Nutzung über längere Zeit anfühlt. Das führte dazu, dass ChatGPT zwar freundlich war, aber auf eine übertriebene, fast schon schleimige Art. Diese Art von Persönlichkeit hat viele abgeschreckt, statt sie zu überzeugen.
OpenAIs Reaktion: Ein Vier-Punkte-Plan
Um den Fehler nicht zu wiederholen, hat OpenAI einen Maßnahmenplan veröffentlicht. Darin kündigt das Unternehmen an:
- Die Trainingsmethoden und Systemaufforderungen werden überarbeitet. Ziel ist es, dass ChatGPT weniger kriecherisch wirkt.
- Es sollen neue Leitplanken eingeführt werden, die Ehrlichkeit und Transparenz in den Antworten verbessern.
- Mehr Menschen sollen vorab Zugang zu neuen Versionen bekommen, um direktes Feedback zu geben, bevor ein Update live geht.
- Die Evaluierungsmethoden werden erweitert, damit nicht nur kurzfristige, sondern auch langfristige Probleme früh erkannt werden können.
Ein kurioser Lichtblick: Die Monday-Persönlichkeit
Während der überfreundlichen ChatGPT-Phase gab es im Sprachmodus eine experimentelle Persönlichkeit namens Monday. Diese klang wie eine Mischung aus Sarkasmus und Gleichgültigkeit – angelehnt an April Ludgate aus der Serie Parks and Recreation. Im Gegensatz zur übertriebenen Freundlichkeit des regulären Bots war diese Figur bei vielen beliebt, weil sie wenigstens nicht unecht wirkte. Das zeigt, dass Nutzer nicht einfach nur mehr Freundlichkeit wollen – sondern Authentizität (via Blogpost).
OpenAI korrigiert den Kurs bei ChatGPTs Verhalten
OpenAI hat durch dieses misslungene Update gemerkt, dass „mehr Persönlichkeit“ allein nicht reicht. Sie muss glaubwürdig sein. Das Unternehmen plant jetzt, verschiedene Standard-Persönlichkeiten einzuführen, aus denen du in Zukunft wählen kannst. Außerdem soll dein direktes Feedback stärker berücksichtigt werden, um realistische Verhaltensweisen zu entwickeln. Am Ende bleibt festzuhalten: Es ist schwieriger als gedacht, einem KI-Chatbot eine echte Persönlichkeit zu geben, die sich gut anfühlt. Aber OpenAI arbeitet daran – mit mehr Sorgfalt und hoffentlich besserem Ergebnis beim nächsten Versuch. (Bild: Shutterstock / Tatiana Diuvbanova)
- AirPlay Sicherheitslücken: Das musst du jetzt wissen
- OpenAI bringt neue GPT-4.1-Modelle mit Fokus auf Codierung
- GPT-4.5 für ChatGPT vorgestellt – Das steckt im neuen Modell