Auf einen Blick
KI-Sprachmodelle wie Claude oder GPT verlieren in langen Gesprächen systematisch den Faden – ein Phänomen, das Forscher als „Lost in the Middle"-Problem bezeichnen. Eine Reddit-Diskussion mit 47 Upvotes und 40 Kommentaren im Subreddit r/artificial hat jetzt einen faszinierenden Vergleich aufgeworfen: Die Art, wie LLMs Anweisungen vergessen, ähnelt strukturell dem, was im ADHS-Gehirn beim Arbeitsgedächtnis passiert. Die zugrunde liegende Forschung zeigt, dass dies kein zufälliger Fehler ist, sondern ein architektonisches Merkmal moderner Transformer-Modelle. Für Entwickler und Teams, die täglich mit KI-Assistenten arbeiten, hat dieses Wissen direkte praktische Konsequenzen – von der Prompt-Gestaltung bis zur Wahl des richtigen Workflow-Frameworks.
Was die Quellen sagen
Die einzige verfügbare Quelle für diesen Artikel ist eine Reddit-Diskussion aus dem Subreddit r/artificial, die das Thema präzise auf den Punkt bringt: „LLMs forget instructions the same way ADHD brains do. The research on why is fascinating." Mit einem Score von 47 und 40 Kommentaren hat der Thread in der KI-Community offensichtlich einen Nerv getroffen – die Resonanz zeigt, dass viele Nutzer das beschriebene Phänomen aus ihrem Alltag kennen.
1 von 1 verfügbaren Quellen beschreibt das Problem direkt aus der Nutzerperspektive und verknüpft es mit neurologischer Forschung. Das ist bemerkenswert, weil es die Diskussion von der reinen Frustrations-Ebene („Das Modell macht wieder, was es will") auf eine erklärende Ebene hebt.
Was bedeutet das konkret? Wer lange Coding-Sessions mit Claude führt – einem der im Quellen-Paket genannten Tools –, kennt das Phänomen: Man gibt zu Beginn präzise Anweisungen über Coding-Style, Dateinamenkonventionen oder Architekturentscheidungen. 800 Tokens später ignoriert das Modell genau diese Vorgaben. Das ist kein Bug. Das ist Physik.
Das „Lost in the Middle"-Phänomen
Die Forschung hinter dem Reddit-Thread bezieht sich auf ein gut dokumentiertes Muster in Transformer-Architekturen: Informationen am Anfang und am Ende eines Kontextfensters werden deutlich besser verarbeitet als Informationen in der Mitte. Dieser Effekt wurde in mehreren akademischen Arbeiten untersucht und hat den treffenden Namen „Lost in the Middle" bekommen.
Das Attention-Mechanismus-Prinzip, das modernen LLMs zugrunde liegt, gewichtet Token-Beziehungen über die gesamte Sequenz – aber nicht gleichmäßig. Je länger der Kontext, desto stärker verdünnt sich die Aufmerksamkeit auf früh gesetzte Anweisungen. Das Modell „vergisst" sie nicht im menschlichen Sinne – es priorisiert sie statistisch geringer.
Die ADHS-Analogie: Mehr als eine Metapher
Der Reddit-Thread stellt einen interessanten Vergleich zur ADHS-Neurologie an, und dieser Vergleich ist wissenschaftlich nicht weit hergeholt. Bei ADHS ist das Arbeitsgedächtnis strukturell beeinträchtigt: Informationen, die für eine Aufgabe relevant sind, werden zwar initial verarbeitet, aber nicht stabil im präfrontalen Kortex gehalten. Die Folge ist dieselbe wie beim LLM – Anweisungen, die zu Beginn einer Aufgabe gegeben wurden, verlieren im Verlauf an Einfluss auf das Verhalten.
Der entscheidende Unterschied: Beim menschlichen ADHS-Gehirn kann gezieltes Coaching, externe Struktur und Reminder-Systeme helfen. Bei LLMs gibt es analoge Lösungsansätze – und genau hier werden Tools wie Agently relevant.
Konsens aus der Community: Die Diskussion im Reddit-Thread spiegelt eine breite Frustration wider, die jeder kennt, der regelmäßig mit KI-Assistenten arbeitet. Das Phänomen ist real, reproduzierbar und betrifft alle großen Modelle – unabhängig davon, ob man mit dem inzwischen eingestellten GPT-4o oder mit aktuellen Modellen wie Claude 4.6 oder GPT-5 arbeitet.
Vergleich: Tools für Agentic Workflows und Kontext-Management
Die Frage, die sich aus dem Phänomen ergibt, ist praktischer Natur: Welche Tools helfen dabei, das „Lost in the Middle"-Problem zu umgehen oder zu kompensieren? Das Quellen-Paket nennt zwei relevante Lösungsansätze.
| Tool | Preis | Besonderheit | Zielgruppe |
|---|---|---|---|
| Agently | Keine Angabe | KI-Framework für Agentic Workflows; beschrieben als „Cursor für Unternehmen" | Entwicklungsteams, Unternehmen |
| Claude (Anthropic) | Keine Angabe | KI-Assistent, bei dem Nutzer das „Lost in the Middle"-Problem in langen Coding-Sessions beobachten | Entwickler, Content-Creator |
Wichtiger Hinweis zu den Preisen: Beide Tools listen aktuell keine konkreten Preise im Quellen-Paket. Aktuelle Preisinformationen sollten direkt auf den jeweiligen Anbieter-Websites geprüft werden (agently.dev bzw. claude.ai).
Agently: Der strukturelle Ansatz
Agently positioniert sich als Framework, das Agentic Workflows für Unternehmen verwaltet – und adressiert damit indirekt genau das Kernproblem: Statt zu hoffen, dass ein einzelnes LLM alle Anweisungen über einen langen Kontext hinweg behält, werden Aufgaben in kleinere, kontrollierbare Einheiten aufgeteilt. Die Beschreibung „Cursor für Unternehmen" deutet auf eine IDE-ähnliche Erfahrung hin, bei der der Kontext aktiv gemanagt wird, anstatt passiv zu hoffen, dass das Modell sich erinnert.
Das ist architektonisch clever: Anstatt gegen die Schwächen von LLMs anzukämpfen, baut man ein System um sie herum, das diese Schwächen strukturell kompensiert.

Claude: Direkt konfrontiert mit dem Problem
Claude (aktuell in Version 4.5/4.6) ist laut den Quellen eines der Modelle, bei dem Nutzer das „Lost in the Middle"-Problem in langen Coding-Sessions konkret beobachten. Das ist keine Kritik an Anthropic – es ist eine Eigenschaft der zugrundeliegenden Transformer-Architektur, die alle modernen Modelle betrifft. Claude hat durch seine Constitutional-AI-Trainingsmethodik einige Stärken bei der Befolgung von Anweisungen entwickelt, aber auch Claude unterliegt den physikalischen Grenzen des Attention-Mechanismus.
Preise und Kosten
Für beide im Quellen-Paket genannten Tools liegen keine konkreten Preisangaben vor. Dies ist bei Enterprise-orientierten Tools wie Agently häufig der Fall – Preise werden individuell verhandelt oder sind an Nutzungsvolumen gebunden.
Für Nutzer, die das „Lost in the Middle"-Problem pragmatisch angehen wollen, sind folgende Kostenfaktoren relevant:
- Claude.ai: Verschiedene Abo-Stufen, aktuelle Preise direkt auf claude.ai prüfen
- Agently: Enterprise-Framework, Preisanfrage über agently.dev
1 von 1 Quellen enthält keine konkreten Preisangaben – eine vollständige Preistransparenz ist in diesem Segment noch nicht üblich.
Praktische Strategien gegen das Vergessen
Auch wenn das Problem architektonisch bedingt ist, gibt es etablierte Workarounds, die aus der Community bekannt sind:
1. Anweisungen ans Ende des Prompts stellen Da LLMs den Anfang und das Ende besser verarbeiten als die Mitte, gehören kritische Anweisungen ans Ende des System-Prompts – nicht in die Mitte.
2. Wiederholung als Feature nutzen Was beim menschlichen ADHS-Gehirn durch externe Erinnerungssysteme funktioniert, funktioniert beim LLM durch periodische Wiederholung der wichtigsten Anweisungen. Frameworks wie Agently können diese Wiederholung automatisieren.
3. Kontextfenster bewusst managen Lange Gespräche aufteilen statt endlos fortzuführen. Bei einem neuen Subtask einen frischen Kontext starten – mit den relevanten Anweisungen am Anfang und Ende.
4. Strukturierte Systemprompts statt Fließtext Anweisungen in nummerierte Listen oder klare Abschnitte aufteilen erhöht statistisch die Wahrscheinlichkeit, dass sie über längere Kontexte hinweg befolgt werden.
Die Forschung dahinter: Attention als begrenztes Gut
Das Reddit-Posting verweist auf Forschungsergebnisse, die das Phänomen erklären – und dieser wissenschaftliche Unterbau ist tatsächlich faszinierend, wie der Thread-Titel verspricht.
Transformer-Modelle berechnen für jedes Token eine gewichtete Aufmerksamkeit über alle anderen Token im Kontext. Bei kurzen Kontexten ist das trivial – alle Token „sehen" sich gegenseitig mit hoher Gewichtung. Bei langen Kontexten verdünnt sich diese Aufmerksamkeit mathematisch. Die Architektur selbst ist das Limit.
Die Analogie zum ADHS-Arbeitsgedächtnis ist dabei nicht nur metaphorisch. In beiden Systemen – dem menschlichen präfrontalen Kortex unter ADHS-Bedingungen und dem Attention-Mechanismus eines LLMs – gibt es eine begrenzte „Bandbreite" für aktive Verarbeitung. In beiden Fällen gewinnen saliente, wiederholte oder kürzlich präsentierte Informationen die Aufmerksamkeit auf Kosten früher gegebener, statischer Anweisungen.
Der wesentliche Unterschied bleibt bestehen: Das menschliche Gehirn kann durch Motivation, Interesse und emotionale Relevanz die Aufmerksamkeit selektiv verstärken. LLMs kennen keine Motivation – sie folgen dem statistischen Muster ihres Trainings.
Wie gravierend dieses Vergessen in der Praxis werden kann, zeigt ein konkretes Beispiel aus dem Trading-Bereich, wo KI-Memory-Fehler zu echten Verlusten geführt haben.
Fazit: Für wen lohnt es sich?
Für Entwickler und Teams, die täglich lange Coding-Sessions mit KI-Assistenten führen, ist das Verständnis des „Lost in the Middle"-Phänomens kein akademisches Interesse – es ist praktisches Handwerkszeug. Wer versteht, warum das Modell vergisst, kann Prompts so strukturieren, dass das Problem minimiert wird.
Für Unternehmen, die KI in produktive Workflows integrieren, ist ein Framework wie Agently interessant, weil es das Kontext-Management aus den Händen einzelner Nutzer nimmt und strukturell löst. Die „Cursor für Unternehmen"-Positionierung deutet auf einen Ansatz hin, der das Vergessen-Problem durch Workflow-Design umgeht statt durch Prompt-Tüfteln.
Für alle anderen gilt: Die ADHS-Analogie ist eine hilfreiche Intuition. Gebt eurem KI-Assistenten externe Struktur, wiederholt wichtige Anweisungen, und vertraut nicht darauf, dass er sich an alles erinnert – genau wie ihr einem ADHS-Gehirn helft, indem ihr Erinnerungssysteme baut statt einfach zu erwarten, dass es sich alles merkt.
1 von 1 Quellen legt nahe: Das Problem ist real, bekannt und lösbar – wenn man die Mechanik dahinter versteht.
Quellen
- Reddit-Diskussion (Score: 47, 40 Kommentare): „LLMs forget instructions the same way ADHD brains do. The research on why is fascinating." – https://reddit.com/r/artificial/comments/1rwkj5j/llms_forget_instructions_the_same_way_adhd_brains/
- Agently – KI-Framework für Agentic Workflows: https://agently.dev
- Claude – KI-Assistent von Anthropic: https://claude.ai
Empfohlene Tools
Deutscher Affiliate-Marktplatz: KI-Kurse, SEO-Kurse, Trading-Coaching. Über 8.000 digitale Produkte.
KI-Plattform mit GPT-4o, Claude 3.5 und Gemini in einer Oberfläche. KI-Texte, Bildgenerierung und Marketing-Workflows.
Dieser Artikel enthält Affiliate-Links. Wenn du über diese Links ein Produkt kaufst oder dich anmeldest, erhalten wir eine kleine Provision — für dich entstehen keine Mehrkosten.