Auf einen Blick
Zahlreiche ChatGPT-Nutzer berichten aktuell über ein frustrierendes Phänomen: Der KI-Chatbot von OpenAI ignoriert zunehmend gespeicherte Erinnerungen, persönliche Profilinformationen (“Über mich”) sowie benutzerdefinierte Systemanweisungen. Eine Reddit-Diskussion mit 190 Upvotes und 43 Kommentaren zeigt, dass das Problem weit verbreitet ist und viele Nutzer betrifft. Im direkten Vergleich mit Alternativen wie Claude (Anthropic) und Gemini (Google) zeigt sich, dass andere KI-Assistenten dieses Problem unterschiedlich stark haben – und teilweise sogar das gegenteilige Extrem aufweisen. Dieser Artikel bündelt den aktuellen Stand, erklärt mögliche Ursachen und zeigt, was Nutzer tun können.
Was die Quellen sagen
Die einzige verfügbare Quelle – ein Reddit-Thread im Subreddit r/ChatGPT mit dem Titel “Anybody else noticed that ChatGPT never uses memories, about me, or instructions anymore?” – hat innerhalb kurzer Zeit bemerkenswert hohe Resonanz erzielt: 190 Upvotes und 43 Kommentare deuten darauf hin, dass es sich nicht um ein Einzelphänomen handelt, sondern um ein strukturelles Problem, das viele Nutzer betrifft.
Der Konsens aus dieser Quelle lässt sich klar benennen: 1 von 1 untersuchten Quellen bestätigt das Problem und deutet auf eine systemische Fehlfunktion oder eine still eingeführte Verhaltensänderung bei ChatGPT hin. Die Tatsache, dass sich der Thread so schnell verbreitet hat, unterstreicht, wie verbreitet das Phänomen ist.
Das dreifache Ignorier-Problem
Nutzer berichten konkret von drei verschiedenen Bereichen, in denen ChatGPT die Personalisierung schlicht ignoriert:
1. Gespeicherte Erinnerungen (Memories): ChatGPT verfügt über eine Funktion, die es dem Modell erlaubt, persönliche Informationen über den Nutzer langfristig zu speichern – etwa Beruf, Präferenzen, laufende Projekte oder individuelle Schreibstile. Viele Nutzer beobachten, dass diese Erinnerungen zwar im System hinterlegt sind, aber in den Antworten keinerlei Rolle mehr spielen.
2. “Über mich”-Angaben: Im ChatGPT-Profil können Nutzer beschreiben, wer sie sind und wie das Modell mit ihnen interagieren soll. Diese Angaben sollen das Verhalten von ChatGPT grundlegend anpassen. Auch diese Funktion scheint zunehmend wirkungslos zu werden.
3. Benutzerdefinierte Anweisungen (Custom Instructions): OpenAI hat Custom Instructions eingeführt, damit Nutzer ChatGPT persistent Anweisungen geben können – “Antworte immer auf Deutsch”, “Sei präzise und technisch” oder “Erkläre alles wie für einen Einsteiger”. Auch hier berichten Nutzer, dass das Modell diese Vorgaben regelmäßig missachtet.
Mögliche Erklärungen aus der Community
Innerhalb des Reddit-Threads haben sich mehrere Erklärungsversuche herauskristallisiert, die die Community diskutiert. Ein technischer Erklärungsansatz lautet, dass OpenAI durch Modell-Updates oder serverseitige Änderungen das Verhalten des Kontextfensters angepasst hat – und dabei die Priorisierung der Personalisierungsdaten unbeabsichtigt geschwächt hat. Ein weiterer Erklärungsansatz ist intentionaler: Um Serverkosten zu senken, könnte OpenAI bewusst oder unbewusst den Kontext-Overhead durch Memories und Custom Instructions reduziert haben.
Manche Nutzer vermuten auch, dass das Problem nur unter bestimmten Bedingungen auftritt – etwa bei längeren Gesprächen, bei denen der verfügbare Kontextraum des Modells bereits stark ausgelastet ist. In solchen Fällen könnte das Modell de facto “vergessen”, was im Systemkontext steht, wenn der eigentliche Gesprächsverlauf zu lang wird.
Vergleich: KI-Assistenten mit Personalisierungsfunktionen
Die drei großen KI-Assistenten gehen mit dem Thema Personalisierung grundlegend unterschiedlich um. Ein direkter Vergleich zeigt die Stärken und Schwächen:
| Tool | Preis | Personalisierungsansatz | Bekannte Probleme |
|---|---|---|---|
| ChatGPT | Kostenlos; Plus ab $20/Monat | Memories, Custom Instructions, “Über mich”-Profil | Ignoriert Einstellungen zunehmend; Community meldet Regression |
| Claude | Keine Angabe (Preise laut Anbieter-Website prüfen) | Liest den gesamten Gesprächsverlauf bei jeder Antwort neu | Keine persistenten Memories; Kontext nur innerhalb einer Session |
| Gemini | Keine Angabe (Preise laut Anbieter-Website prüfen) | Erinnerungen vorhanden; laut Nutzern sehr aggressiv eingesetzt | Übermäßiger Einsatz von Erinnerungen kann störend wirken |
Was die Tabelle deutlich macht: Jedes der drei Systeme hat seinen eigenen Ansatz – und jeder kommt mit eigenen Problemen. ChatGPT hat die technisch ausgefeilteste Personalisierungsstrategie, aber aktuell auch die größten Umsetzungsprobleme. Claude setzt bewusst auf einen anderen Ansatz und verzichtet auf langfristige Erinnerungen zugunsten eines vollständigen Kontext-Reredings – was in mancher Hinsicht zuverlässiger ist, aber keine sessionübergreifende Kontinuität bietet. Gemini hingegen setzt Erinnerungen laut Nutzerberichten sehr intensiv ein – was als Stärke oder Schwäche wahrgenommen werden kann, je nach persönlichen Präferenzen.
Preise und Kosten
Bei der Preisfrage gibt es zwischen den drei Plattformen eine erhebliche Transparenzdifferenz:
ChatGPT ist das einzige der drei verglichenen Tools mit klar kommunizierter Preisstruktur: Die Basisversion ist kostenlos verfügbar, während das Plus-Abo bei $20 pro Monat liegt. Es ist allerdings zu beachten, dass die in diesem Artikel diskutierten Personalisierungsfunktionen – Memories, Custom Instructions und “Über mich”-Angaben – zumindest teilweise auch im kostenlosen Tier verfügbar sind. Das macht das Problem noch dringlicher: Nutzer, die für das Plus-Abo zahlen, erwarten eine besonders zuverlässige Nutzung dieser Funktionen.
Claude und Gemini werden in den verfügbaren Quellen ohne konkrete Preisangaben gelistet. Für aktuelle und verbindliche Preise empfiehlt sich ein direkter Blick auf die jeweiligen Anbieter-Websites unter https://claude.ai und https://gemini.google.com.

Was die Kostenperspektive für Nutzer bedeutet: Wer für ein KI-Abo zahlt – insbesondere $20/Monat für ChatGPT Plus – hat eine berechtigte Erwartung, dass zugesagte Personalisierungsfunktionen tatsächlich funktionieren. Das Scheitern dieser Funktionen ist nicht nur ein technisches Problem, sondern auch eine Frage des Nutzerwerts.
Warum ist das Problem so hartnäckig?
Das Kernproblem liegt in der Architektur großer Sprachmodelle. Selbst wenn Memories oder Custom Instructions im sogenannten System-Prompt hinterlegt sind, bedeutet das nicht, dass das Modell diese Informationen in jeder Antwort gleichwertig berücksichtigt. Sprachmodelle sind keine deterministischen Systeme – sie “entscheiden” implizit, welche Teile des Kontexts sie bei der Antwortgenerierung stärker gewichten.
Hinzu kommt die Kontextfenster-Problematik: Selbst wenn Erinnerungen und Anweisungen am Beginn des Kontexts stehen, können sie in langen Gesprächen faktisch in den Hintergrund treten, weil der aktuelle Dialog-Teil des Kontexts dominanter wird. Dieses Phänomen ist in der KI-Forschung als “lost in the middle” bekannt – Informationen in der Mitte eines langen Kontexts werden statistisch weniger gut verarbeitet als Informationen am Anfang oder Ende.
OpenAI hat auf solche Berichte bisher keine öffentliche Stellungnahme abgegeben, was die Frustration in der Community weiter anheizt. Nutzer wünschen sich zumindest eine Erklärung, ob es sich um einen bekannten Bug, eine geplante Änderung oder ein grundlegendes Architekturproblem handelt.
Praktische Workarounds für betroffene Nutzer
Auch wenn OpenAI selbst noch keine Lösung kommuniziert hat, haben Nutzer in der Community verschiedene Workarounds entwickelt:
Explizite Erinnerungsaufforderung: Am Beginn jedes neuen Gesprächs kann man ChatGPT direkt darauf hinweisen: “Bitte beachte meine gespeicherten Erinnerungen und Custom Instructions für diese Konversation.” Diese manuelle Aktivierung ist zwar ein Umweg, hilft aber in vielen Fällen.
Kürzere Gespräche: Da das Problem in langen Gesprächen häufiger auftritt, kann es helfen, neue Themen in separaten Chats zu beginnen, anstatt alles in eine einzige Konversation zu packen.
Redundante Angaben im Chat: Wenn bestimmte Informationen aus dem Profil oder den Erinnerungen besonders wichtig sind, können sie direkt in der Nachricht wiederholt werden: “Als [Beruf], brauche ich…”
Alternative KI-Assistenten testen: Claude bietet durch sein Kontext-Reread-Modell eine andere Art der Informationsverarbeitung, die innerhalb einer Session sehr zuverlässig ist. Gemini hingegen setzt auf aggressive Erinnerungsnutzung, die für manche Nutzer besser funktioniert.
Fazit: Für wen lohnt es sich?
ChatGPT bleibt trotz der aktuellen Probleme mit den Personalisierungsfunktionen ein mächtiges Werkzeug. Die Grundfunktionalität ist stark, und die $20/Monat für das Plus-Abo sind für viele Nutzer gut investiert – wenn man bereit ist, mit gelegentlichen Enttäuschungen bei Memories und Custom Instructions umzugehen. Wer stark auf persistente Personalisierung angewiesen ist, sollte aktuell jedoch Alternativen in Betracht ziehen oder regelmäßig prüfen, ob OpenAI das Problem behoben hat.
Claude empfiehlt sich besonders für Nutzer, die Wert auf konsistentes Verhalten innerhalb einer Session legen. Der Ansatz, den gesamten Gesprächsverlauf bei jeder Antwort neu zu lesen, sorgt für eine hohe Kohärenz – auch wenn keine sessionübergreifenden Erinnerungen möglich sind.
Gemini ist eine interessante Alternative für Nutzer, die aktiv mit dem Google-Ökosystem arbeiten und von der tiefen Integration in andere Google-Dienste profitieren möchten. Die laut Nutzerberichten aggressive Nutzung von Erinnerungen kann sowohl Stärke als auch Schwäche sein.
Das übergeordnete Signal aus der Reddit-Community mit ihren 190 Upvotes ist eindeutig: Nutzer erwarten, dass KI-Assistenten ihre Einstellungen zuverlässig respektieren. Das ist keine Luxusanforderung, sondern eine grundlegende Usability-Erwartung. Bis OpenAI das Problem systematisch adressiert, lohnt es sich, die eigenen Nutzungsgewohnheiten anzupassen und gegebenenfalls auf Alternativen auszuweichen – zumindest für Aufgaben, bei denen Personalisierung kritisch ist.
Quellen
- Reddit-Diskussion: “Anybody else noticed that ChatGPT never uses memories, about me, or instructions anymore?” (Score: 190, 43 Kommentare) – https://reddit.com/r/ChatGPT/comments/1rof4zw/anybody_else_noticed_that_chatgpt_never_uses/
- ChatGPT (OpenAI) – https://chatgpt.com
- Claude (Anthropic) – https://claude.ai
- Gemini (Google) – https://gemini.google.com
Empfohlene Tools
KI-Plattform mit GPT-4o, Claude 3.5 und Gemini in einer Oberfläche. KI-Texte, Bildgenerierung und Marketing-Workflows.
Dieser Artikel enthält Affiliate-Links. Wenn du über diese Links ein Produkt kaufst oder dich anmeldest, erhalten wir eine kleine Provision — für dich entstehen keine Mehrkosten.