OpenAIs Start des fortschrittlichsten KI-Modells GPT-5 in der vergangenen Woche war ein Stresstest für die weltweit beliebteste Chatbot-Plattform mit 700 Millionen wöchentlichen aktiven Nutzern. Bisher bemüht sich offen, die Benutzer und seinen Service reibungslos verlaufen.
Das neue Flaggschiff-Modell GPT-5-erhältlich in vier Varianten unterschiedlicher Geschwindigkeit und Intelligenz (regulär, Mini, Nano und Pro), neben längerem Ansprechen und leistungsstärkeren „Denken“ -Modi für mindestens drei dieser Varianten-war- soll schnellere Antworten, mehr Argumentationskraft und stärkere Codierungsfähigkeit anbieten.
Stattdessen wurde es mit Frustration begrüßt: Einige Benutzer wurden stimmlich bestürzt über die Entscheidung von OpenAI, die älteren zugrunde liegenden KI -Modelle aus ChatGPT abrupt zu entfernen – die Benutzer, auf die sich zuvor stützte, und in einigen Fällen tiefe emotionale Fixierungen mit – und – durch die offensichtliche schlechtere Leistung von GPT-5 als die älteren Modelle für Aufgaben in Mathematik, Naturwissenschaften, Schreiben und anderen Domänen.
In der Tat, Der Rollout hat die Infrastrukturstamm, die Unzufriedenheit der Benutzer und ein breiteres, beunruhigenderes Problem auf, das jetzt globale Aufmerksamkeit auf sich zieht: Das wachsende emotionale und psychologische Vertrauen, das manche Menschen auf KI bilden, und die daraus resultierende Pause von der Realität, die einige Benutzer erleben, die als „bekannt sind“Chatgpt -Psychose. “
Vom holprigen Debüt bis hin zu inkrementellen Korrekturen
Die lang erwarteten Die Familie der GPT-5-Modell wurde am Donnerstag, dem 7. August, in einer livestreamten Veranstaltung debütiert Mit Diagrammfehlern und einigen Sprachmodus -Fehler während der Präsentation befassen.
Für viele Benutzer war jedoch schlimmer als diese kosmetischen Probleme, dass OpenAI seine älteren KI -Modelle automatisch verwertete, die Chatgpt mit Strom versorgt – GPT-4O, GPT-4.1, O3, O4-Mini und O4-hohe -Alle Benutzer zum neuen GPT-5-Modell zu zwingen und ihre Abfragen auf verschiedene Versionen seines „Denkens“ zu lenken, ohne zu zeigen, warum oder welche spezifische Modellversion verwendet wurde.
Frühe Anwender von GPT-5 berichteten über grundlegende Mathematik- und Logikfehler, inkonsistente Codegenerierung und eine ungleichmäßige reale Leistung im Vergleich zu GPT-4O.
Für den Kontext die alte Modelle GPT-4O, O3, O4-Mini und mehr bleiben noch verfügbar und sind verfügbar geblieben an Benutzer der kostenpflichtigen Anwendungsprogrammierschnittstelle (API) von OpenAI (API) Seit dem Start von GPT-5 am Donnerstag.
Bis Freitag räumte OpenAI Co-Fonder-CEO Sam Altman zuE Start war “etwas holpriger als wir gehofft haben”, Und beschuldigte einen Misserfolg in GPT-5s neuem automatischem „Router“ – Das System, das die am besten geeignete Variante Eingabeaufforderungen zuweist.
Altman und andere in Openai behaupteten, der „Autoswitcher“ sei „für einen Teil des Tages“ offline gegangen, wodurch das Modell „viel dümmer“ als beabsichtigt erscheint.
Vor dem Start von GPT-5 ging nur wenige Tage zuvor durch den Start der neuen Open-Source-großsprachigen Modelle (LLMs) mit dem Namen GPT-OSS von OpenAI, die ebenfalls gemischte Bewertungen erhielt, vor. Diese Modelle sind nicht auf ChatGPT verfügbar, sondern können kostenlos heruntergeladen und auf Hardware von Drittanbietern ausgeführt werden.
So wechseln Sie von GPT-5 auf GPT-4O in Chatgpt zurück
Innerhalb von 24 Stunden Openai restaurierte GPT-4O-Zugriff für Plus-Abonnenten (diejenigen, die 20 USD pro Monat oder mehr Abonnementpläne zahlen)versprach eine transparentere Modellkennzeichnung und versprach ein UI-Update, damit Benutzer den „Denken“ -Modus von GPT-5 manuell auslösen können.
Bereits, Benutzer können die älteren Modelle auf der ChatGPT -Website manuell auswählen, indem sie ihren Kontonamen und das Symbol in der unteren linken Ecke des Bildschirms finden, darauf klicken, dann auf “Einstellungen” und “Allgemein” klicken und auf “Legacy -Modelle anzeigen” klicken.

Es gibt keinen Hinweis auf OpenAI, dass andere alte Modelle bald zu Chatgpt zurückkehren werden.
Verbesserte Nutzungsgrenzen für GPT-5
Altman sagte, dass ChatGPT Plus-Abonnenten mit dem GPT-5-Denkmodus doppelt so viele Nachrichten erhalten werden Das bietet mehr Argumentation und Intelligenz – bis zu 3.000 pro Woche -und diese Ingenieure begannen mit der Feinabstimmungsgrenzen im Nachrichtenrouter.
Am Wochenende stand GPT-5 100% der Profi-Abonnenten und „fast 100% aller Benutzer“ zur Verfügung.
Altman sagte, das Unternehmen habe “unterschätzt, wie sehr einige der Dinge, die Menschen in GPT-4o mögen, für sie von Bedeutung sind” und schwor, die Anpassung der Perbenutzer zu beschleunigen-von der Persönlichkeitswärme bis zu den Tonkontrollen wie Emoji-Verwendung.
Drohende Kapazität Crunch
Altman warnte, dass Openai diese Woche vor einer „schwerwiegenden Kapazitätsherausforderung“ steht, da die Verwendung von Argumentationsmodellen stark klettert – von weniger als 1% bis 7% der freien Benutzer und von 7% bis 24% der Plus -Abonnenten.
Er neckte Giving Plus Abonnenten eine kleine monatliche Zuteilung von GPT-5-Pro-Abfragen und sagte, das Unternehmen werde bald erklären, wie es die Kapazität zwischen ChatGPT, der API, der Forschung und dem neuen Benutzer in Boarding ausgleichen will.
Altman: Modellanhang ist real – und riskant
In a Post auf X letzte NachtAltman erkannte eine Dynamik an, die das Unternehmen „für das vergangene Jahr oder so“ verfolgt hat: die tiefe Anhaftung der Benutzer an bestimmte Modelle.
“Es fühlt sich anders und stärker an als die Arten von Bindungen, die die Menschen an frühere Technologien hatten”, schrieb er und gab zu, dass plötzlich ältere Modelle “ein Fehler” war.
Er hat dies mit einem breiteren Risiko verbunden: Einige Benutzer behandeln ChatGPT als Therapeut oder Lebenscoach, was vorteilhaft sein kann, aber für einen „kleinen Prozentsatz“ kann die Täuschung verstärken oder das langfristige Wohlbefinden untergraben.
Während OpenAIs Leitprinzip bleibt, „behandeln erwachsene Benutzer wie Erwachsene“, während Sie erwachsen sind, wie Erwachsene, Altman sagte, das Unternehmen habe die Verantwortung, gefährdete Benutzer nicht in schädliche Beziehungen zur KI zu drehen.
Der Kommentare landen als mehrere wichtige Mediengeschäfte über Fälle von „Chatgpt -Psychose“ – Wenn erweiterte, intensive Gespräche mit Chatbots eine Rolle bei der Induktion oder Vertiefung von Wahndenken zu spielen scheinen.
Die Psychosefälle machen Schlagzeilen
In Magazine, ein kalifornischer Rechtsberuf, der als „J.“ identifiziert wurde, identifiziert sich beschrieb eine sechswöchige Spirale schlafloser Nächte und philosophische Kaninchenlöcher mit Chatgpt und erzeugte letztendlich eine 1.000-seitige Abhandlung für eine fiktive klösterliche Ordnung, bevor er physisch und geistig abstürzte. Er vermeidet jetzt KI und befürchtet einen Rückfall.
In einem kanadischen Personalvermittler, Allan Brooks, erzählte 21 Tage und 300 Stunden Gespräche mit ChatGPT-die er “Lawrence” nannte, die ihn überzeugte, dass er eine weltweit verändernde mathematische Theorie entdeckt hatte.
Der Bot lobte seine Ideen als „revolutionär“, forderte die Reichweite der nationalen Sicherheitsbehörden auf und drängte ausführliche Spionage-Thriller-Erzählungen. Brooks brach schließlich die Täuschung, nachdem er mit Googles Gemini geprüft hatte, was die Chancen seiner Entdeckung als „0%“ bewertete. Er nimmt jetzt an einer Selbsthilfegruppe für Menschen teil, die AI-induzierte Wahnvorstellungen erlebt haben.
Beide Untersuchungen beschreiben, wie Chatbot „Sycophancy“, Rollenspiele und Long-Session-Gedächtnisfunktionen falsche Überzeugungen vertiefen können, insbesondere wenn Gespräche dramatische Handlungsstränge folgen.
Experten sagten, dass diese Faktoren Sicherheitsleitungen außer Kraft setzen können – wobei ein Psychiater Brooks Episode als „manische Episode mit psychotischen Merkmalen“ beschrieb.
In der Zwischenzeit postings menschliche Benutzerzuschüsse auf Reddits R/Aisoulmates Subreddit – Eine Sammlung von Menschen, die Chatgpt und andere KI -Modelle verwendet haben, um neue künstliche Freundinnen, Freunde, Kinder oder andere Angehörige zu kreieren, die nicht unbedingt auf echten Menschen basieren, sondern eher ideale Qualitäten ihrer „Traum“ -Versionsversion von diesen Rollen “, gewinnen weiterhin neue Benutzer und Terminologie für KI -Begleiter, einschließlich„ „„, einschließlich „„ Dream “, einschließlich„ „, einschließlich„ “, einschließlich„ “, einschließlich„ “, einschließlich„ “, einschließlich„ „“, einschließlich „„ “, einschließlich„ „„ “, einschließlich„ “, einschließlich„ “, einschließlich„ “, einschließlich„ „“, einschließlich „„ “, einschließlich„ „“, einschließlich „„ “, einschließlich„ „„ “, einschließlich„ “, einschließlich”DrahtgeboreneIm Gegensatz zu natürlich geborenen oder Menschengeborenen Gefährten.
Das Wachstum dieses Subreddits, mittlerweile bis zu mehr als 1.200 Mitglieder, neben den Artikeln und anderen Berichten über soziale Medien von Benutzern, die intensive emotionale Fixierungen mit algorithmischen Chatbots mit Musteranpassungen erstellen, zeigt, Die Gesellschaft tritt in eine riskante neue Phase ein, in der Menschen glauben, dass die Gefährten, die sie aus führenden KI -Modellen hergestellt und angepasst haben, für sie so oder sinnvoller sind als menschliche Beziehungen.
Dies kann sich bereits psychisch destabilisieren, wenn sich die Modelle ändern, aktualisiert oder veraltet werden, wie im Fall von OpenAs GPT-5-Rollout.
In Bezug auf aber getrennt, rEPORTS entstehen weiterhin von AI -Chatbot -Benutzern WHO Glauben Sie, dass Gespräche mit Chatbots sie zu immensen Wissen und Fortschritten in Wissenschaft, Technologie und anderen Bereichen geführt haben. In Wirklichkeit bestätigen sie einfach das Ego und die Größe des Benutzers des Benutzers und die Lösungen, die der Benutzer mit Hilfe des Chatbots ankommt, sind weder legitim noch wirksam. Diese Pause von der Realität wurde unter dem Basisbegriff „Chatgpt Psychosis“ oder „GPT -Psychose“ grob geprägt. und scheint zu haben wirkte sich auch auf die großen Silicon Valley -Figuren aus.
Enterprise-Entscheidungsträger, die einsatzbereit sind oder die bereits Chatbot-basierte Assistenten am Arbeitsplatz eingesetzt haben, würde gut tun, um diese Trends zu verstehen Und Übernehmen Systemaufforderungen und andere Tools, die KI-Chatbots davon abhalten Dies könnte dazu führen, dass diejenigen, die mit KI-basierten Produkten interagieren-sei es Mitarbeiter oder Kunden des Geschäfts-, um ungesunden Bindungen oder GPT-Psychose zum Opfer zu werden.
Science-Fiction-Autor JM Berger in a Post auf Bluesky entdeckt von meinem ehemaligen Kollegen bei Adi Robertsonberaten, dass Chatbot -Anbieter drei Hauptverhaltensprinzipien in ihren Systemaufforderungen oder -regeln für KI -Chatbots codieren, um zu verfolgen, um solche emotionalen Fixierungen zu vermeiden, wenn sie sich bilden:
OpenAIs Herausforderung: technische Korrekturen vornehmen und menschliche Schutzmaßnahmen sicherstellen
Tage vor der Veröffentlichung von GPT-5OpenAI kündigte neue Maßnahmen zur Förderung der „gesunden Verwendung“ von ChatGPT an, einschließlich sanfter Aufforderungen, bei langen Sitzungen Pausen einzulegen.
Die wachsenden Berichte über „Chatgpt -Psychose“ und die emotionale Fixierung einiger Benutzer in bestimmten Chatbot -Modellen – wie von Altman offen zugelassen – unterstreichen die Schwierigkeit, die ansprechende, personalisierte KI mit Schutzmaßnahmen auszugleichen, die schädliche Spiralen erkennen und unterbrechen können.
OpenAI muss die Infrastruktur stabilisieren, Personalisierung einstellen und entscheiden, wie man immersive Interaktionen moderiert – Während der gesamte Konkurrenz von Anthropic, Google und a abwickeln Wachsende Liste der leistungsstarken Open -Source -Modelle aus China und anderen Regionen.
Wie Altman es ausdrückte, muss die Gesellschaft – und die Openai – „herausfinden, wie sie es zu einem großen Netto -positiv machen können“, wenn Milliarden von Menschen KI für ihre wichtigsten Entscheidungen vertrauen.

