Auf einen Blick
Die Transformer-Architektur, die seit 2017 die KI-Landschaft dominiert, bekommt zunehmend Konkurrenz. State Space Models (SSMs) und insbesondere die Mamba-Architektur versprechen deutlich effizientere Verarbeitung langer Sequenzen ohne die quadratische Komplexität der Attention-Mechanismen. Während Transformer weiterhin bei den führenden Modellen wie GPT-5.2, Claude 4.6 und Gemini 2.5 zum Einsatz kommen, entwickelt sich parallel eine neue Generation von Architekturen, die besonders für ressourcenschonende und schnelle Inferenz interessant sind. Die Community diskutiert intensiv, ob SSMs die nächste große Revolution darstellen oder ob Hybrid-Ansätze die Zukunft prägen werden.
Was die Quellen sagen
Die Diskussion über die Post-Transformer-Ära wird hauptsächlich von einer aktiven Reddit-Diskussion im Machine Learning Subreddit getragen, die 82 Upvotes und 28 Kommentare verzeichnete. Diese Quelle bildet das Fundament für die aktuelle Debatte über State Space Models und deren potenzielle Rolle als Transformer-Nachfolger.
Die zentrale Frage lautet: Können State Space Models die Dominanz der Transformer-Architektur brechen? Während 1 von 1 primären Quellen diese Entwicklung als bedeutenden Paradigmenwechsel einstuft, zeigt die Realität des Jahres 2026 ein differenzierteres Bild. Die führenden Modelle – sei es GPT-5.2 von OpenAI, Claude 4.6 von Anthropic oder Gemini 2.5 von Google – basieren weiterhin primär auf Transformer-Architekturen, was darauf hindeutet, dass die Post-Transformer-Ära möglicherweise noch nicht vollständig angebrochen ist.
Die Aufmerksamkeit der Machine-Learning-Community konzentriert sich besonders auf drei zentrale Aspekte:
Effizienz bei langen Sequenzen: State Space Models versprechen eine lineare statt quadratische Komplexität bei der Verarbeitung von Eingabesequenzen. Während Transformer mit O(n²) Komplexität bei wachsender Sequenzlänge schnell an ihre Grenzen stoßen, können SSMs theoretisch mit O(n) oder O(n log n) Komplexität deutlich längere Kontexte verarbeiten. Dies ist besonders relevant für Anwendungen, die mit sehr langen Dokumenten, Code-Repositories oder umfangreichen Konversationsverläufen arbeiten.
Hardware-Effizienz: Die Community betont, dass SSMs potenziell ressourcenschonender sind und niedrigere Anforderungen an GPU-Speicher stellen. Dies könnte die Demokratisierung von KI vorantreiben, indem leistungsfähige Modelle auf weniger leistungsstarker Hardware laufen können.
Mamba als prominentester Vertreter: Die Mamba-Architektur wird in der Reddit-Diskussion explizit als vielversprechender Ansatz genannt. Mamba kombiniert die Effizienzvorteile von SSMs mit selektiven Mechanismen, die es dem Modell ermöglichen, relevante Informationen zu priorisieren – ähnlich wie Attention, aber ohne deren Komplexitätsnachteile.
Interessanterweise zeigt die Realität des Marktes jedoch eine gewisse Zurückhaltung. Mistral AI, eines der wenigen Unternehmen, das mit Codestral Mamba ein SSM-basiertes Modell veröffentlichte, hat dieses mittlerweile im Juni 2025 deprecated. Dies wirft Fragen auf: Waren die praktischen Vorteile nicht so überzeugend wie erhofft, oder handelte es sich um strategische Entscheidungen zugunsten anderer Architekturansätze?
Die Diskussion offenbart auch einen wichtigen Widerspruch: Während die theoretischen Vorteile von SSMs überzeugend klingen, dominieren in der Praxis im Februar 2026 weiterhin Transformer-basierte Modelle den Markt. Dies könnte darauf hindeuten, dass:
- Die Implementierung und das Training von SSMs noch nicht ausgereift genug sind
- Transformer für viele Anwendungsfälle trotz höherer Komplexität bessere Ergebnisse liefern
- Die Infrastruktur und das Tooling-Ökosystem stark auf Transformer ausgerichtet sind
- Hybrid-Ansätze, die beide Architekturen kombinieren, sich als optimaler Weg erweisen könnten
Vergleich: State Space Model Implementierungen
| Tool | Preis | Besonderheit |
|---|---|---|
| Codestral Mamba | Keine Angabe | SSM-basiertes Code-Generierungsmodell von Mistral (deprecated seit Juni 2025) |
| Mistral API | Keine Angabe | API-Plattform für Mistral LLM-Modelle (primär Transformer-basiert) |
Die Vergleichstabelle zeigt ein ernüchterndes Bild: Während die theoretische Diskussion über SSMs floriert, ist das kommerzielle Angebot extrem begrenzt. Codestral Mamba war eines der wenigen produktiv eingesetzten SSM-Modelle, wurde jedoch bereits nach weniger als einem Jahr eingestellt. Dies deutet darauf hin, dass entweder die Marktreife noch nicht erreicht ist oder die praktischen Vorteile gegenüber Transformer-Architekturen nicht überzeugend genug waren.

Mistral AI konzentriert sich heute primär auf seine Transformer-basierten Modelle, die über die Mistral API zugänglich sind. Dies spiegelt den allgemeinen Markttrend wider: Trotz des akademischen Interesses an SSMs setzen kommerzielle Anbieter weiterhin auf bewährte Transformer-Architekturen.
Die technischen Grundlagen: Was macht State Space Models anders?
Um die Debatte zu verstehen, lohnt sich ein Blick auf die fundamentalen Unterschiede zwischen Transformer und State Space Models:
Transformer-Architektur: Der Kern von Transformern ist der Attention-Mechanismus, bei dem jedes Token in einer Sequenz mit jedem anderen Token in Beziehung gesetzt wird. Dies ermöglicht es dem Modell, Abhängigkeiten über beliebige Distanzen hinweg zu erfassen. Der Preis ist eine quadratische Komplexität: Bei einer Sequenz von 1000 Tokens müssen 1.000.000 Attention-Berechnungen durchgeführt werden. Bei 10.000 Tokens sind es bereits 100 Millionen.
State Space Models: SSMs basieren auf einem anderen Paradigma. Statt direkte Beziehungen zwischen allen Tokens zu berechnen, verarbeiten sie Sequenzen durch einen versteckten Zustand (State), der schrittweise aktualisiert wird. Mathematisch basieren sie auf Differentialgleichungen und Signalverarbeitungstheorie. Dies ermöglicht eine lineare oder quasi-lineare Komplexität.
Mamba-Innovation: Die Mamba-Architektur fügt SSMs einen selektiven Mechanismus hinzu, der es dem Modell erlaubt, wichtige Informationen zu priorisieren. Dies kombiniert die Effizienz von SSMs mit einer gewissen “Aufmerksamkeit” für relevante Inhalte, ohne die quadratische Komplexität von Attention.
Praktische Implikationen: Wo könnten SSMs punkten?
Auch wenn der kommerzielle Durchbruch noch aussteht, gibt es spezifische Anwendungsszenarien, in denen SSMs theoretische Vorteile bieten:
Lange Dokumente und Code-Analysen: Die effiziente Verarbeitung sehr langer Kontexte könnte SSMs für die Analyse ganzer Code-Repositories oder umfangreicher Dokumentensammlungen prädestinieren. Während aktuelle Transformer-Modelle bei Kontext-Längen von 128.000 bis 1 Million Tokens bereits an Grenzen stoßen, könnten SSMs hier neue Möglichkeiten eröffnen.
Edge-Deployment: Die geringeren Ressourcenanforderungen machen SSMs interessant für den Einsatz auf Mobilgeräten oder in Edge-Computing-Szenarien, wo GPU-Ressourcen begrenzt sind.
Echtzeit-Anwendungen: Die lineare Komplexität könnte SSMs für Streaming-Anwendungen interessant machen, bei denen Eingaben kontinuierlich verarbeitet werden müssen – etwa bei Live-Übersetzungen oder Echtzeit-Assistenten.
Kostenoptimierung: Für Anbieter von KI-Services könnten die niedrigeren Rechenkosten von SSMs signifikante Einsparungen ermöglichen, besonders bei Anwendungen mit hohem Durchsatz.
Die Hybrid-Zukunft: Das Beste aus beiden Welten?
Die Realität deutet darauf hin, dass die Zukunft möglicherweise nicht “Transformer ODER SSMs” heißt, sondern “Transformer UND SSMs”. Hybrid-Architekturen, die beide Ansätze kombinieren, könnten die jeweiligen Stärken optimal nutzen:
- Transformer-Schichten für komplexe Reasoning-Aufgaben, bei denen globale Aufmerksamkeit entscheidend ist
- SSM-Schichten für die effiziente Verarbeitung langer Sequenzen
- Selektive Routing-Mechanismen, die entscheiden, welche Schichten für welche Aufgaben aktiviert werden
Solche Hybrid-Ansätze werden bereits in der Forschung untersucht und könnten den pragmatischen Mittelweg darstellen, der die theoretischen Vorteile beider Welten vereint.
Der Stand der Forschung: Zwischen Hype und Realität
Die Machine-Learning-Community ist bekannt für ihre Begeisterung für neue Architekturen, aber auch für ihre nüchterne Bewertung praktischer Ergebnisse. Die Reddit-Diskussion mit 82 Upvotes zeigt zwar erhebliches Interesse, aber die Zurückhaltung kommerzieller Anbieter spricht eine klare Sprache.
Im Februar 2026 lässt sich festhalten:
Was funktioniert: Transformer-Architekturen liefern weiterhin State-of-the-Art-Ergebnisse über ein breites Spektrum von Aufgaben hinweg. Die führenden Modelle – GPT-5.2, Claude 4.6, Gemini 2.5 – basieren primär auf dieser Technologie.
Was vielversprechend ist: SSMs zeigen in spezifischen Benchmarks überzeugende Ergebnisse, besonders bei Aufgaben, die lange Sequenzen erfordern. Die Forschung ist aktiv und produziert kontinuierlich Verbesserungen.
Was noch fehlt: Eine breite kommerzielle Adoption, ausgereiftes Tooling, und überzeugende Beweise, dass SSMs in realen Anwendungsszenarien konsistent bessere Ergebnisse als Transformer liefern.
Warum wurde Codestral Mamba eingestellt?
Die Einstellung von Codestral Mamba im Juni 2025 ist ein wichtiges Signal. Mistral AI äußerte sich nicht ausführlich zu den Gründen, aber mehrere Faktoren könnten eine Rolle gespielt haben:
Leistungslücken: Möglicherweise erreichte das SSM-basierte Modell nicht die Qualität der Transformer-Varianten bei typischen Code-Generierungsaufgaben.
Entwicklungsressourcen: Die Pflege mehrerer unterschiedlicher Architekturen bindet erhebliche Ressourcen. Eine Konzentration auf die erfolgreichere Transformer-Linie könnte strategisch sinnvoller gewesen sein.
Marktakzeptanz: Kunden könnten die etablierten Transformer-Modelle bevorzugt haben, entweder aufgrund besserer Ergebnisse oder einfach aufgrund größerer Vertrautheit.
Timing: Das Modell erschien möglicherweise zu früh, bevor SSM-Architekturen ausreichend ausgereift waren.
Diese Einstellung ist keine definitive Absage an SSMs, zeigt aber, dass der Weg von vielversprechender Forschung zu erfolgreichen Produkten noch steinig ist.
Preise und Kosten
Die Preissituation für SSM-basierte Modelle ist derzeit unklar, da kaum kommerzielle Angebote existieren. Weder für das mittlerweile eingestellte Codestral Mamba noch für die aktuelle Mistral API sind spezifische Preise aus den vorliegenden Quellen ersichtlich.

Für aktuelle Preisinformationen empfiehlt sich ein Besuch der offiziellen Mistral AI Website. Generell bewegen sich API-Preise für Sprachmodelle im Jahr 2026 typischerweise in folgenden Größenordnungen:
- Kleine Modelle: $0.10-0.50 pro Million Tokens
- Mittelgroße Modelle: $1-5 pro Million Tokens
- Große, state-of-the-art Modelle: $10-50 pro Million Tokens
Die theoretische Effizienz von SSMs könnte perspektivisch zu günstigeren Preisen führen, wenn diese Modelle marktreif werden. Die niedrigeren Rechenkosten könnten an Kunden weitergegeben werden, was SSM-basierte APIs zu einer attraktiven Budget-Option machen könnte.
Die nächsten 12-24 Monate: Was ist zu erwarten?
Die Post-Transformer-Ära ist eher eine Evolution als eine Revolution. Für die nahe Zukunft zeichnen sich folgende Trends ab:
Fortgesetzte Transformer-Dominanz: Die nächsten Generationen von GPT, Claude und Gemini werden wahrscheinlich weiterhin primär auf Transformer basieren, möglicherweise mit optimierten Attention-Mechanismen.
SSM-Nischenanwendungen: Wir werden vermutlich spezialisierte SSM-Modelle für spezifische Anwendungsfälle sehen – lange Dokumente, Edge-Deployment, ressourcenbeschränkte Umgebungen.
Hybrid-Experimente: Forschung und erste kommerzielle Produkte, die Transformer und SSMs kombinieren, werden zunehmen.
Weitere Architekturen: Neben SSMs werden andere alternative Ansätze erforscht, von Retentive Networks über RWKV bis zu völlig neuen Paradigmen.
Infrastruktur-Entwicklung: Das Tooling und die Infrastruktur für Training und Deployment von SSMs werden sich verbessern, was ihre praktische Anwendbarkeit erhöht.
Für Entwickler: Was bedeutet das praktisch?
Wenn Sie heute KI-Anwendungen entwickeln, sollten Sie:
Auf Transformer setzen: Für produktive Anwendungen sind Transformer-basierte Modelle weiterhin die sicherste Wahl. Die APIs von OpenAI, Anthropic, Google und anderen bieten ausgereiften Service und breite Funktionalität.
SSMs im Auge behalten: Verfolgen Sie die Entwicklung, besonders wenn Ihre Anwendung mit sehr langen Kontexten arbeitet oder Ressourceneffizienz kritisch ist.
Architektur-Agnostisch designen: Abstrahieren Sie Modell-Calls durch Interfaces, damit Sie flexibel zwischen verschiedenen Backends wechseln können.
Benchmarks selbst durchführen: Wenn SSM-basierte Alternativen verfügbar werden, testen Sie diese mit Ihren spezifischen Use Cases statt sich auf allgemeine Aussagen zu verlassen.
Fazit: Für wen lohnt sich die Post-Transformer-Perspektive?
Für Forscher: Die Entwicklung von State Space Models ist ein aktives und spannendes Forschungsfeld mit erheblichem Potenzial. Wer an den Grundlagen der nächsten KI-Generation arbeiten möchte, findet hier fruchtbares Terrain.
Für Early Adopters: Wenn Sie in Ihrer Anwendung mit extremen Kontext-Längen kämpfen oder Edge-Deployment erforderlich ist, lohnt sich die Beobachtung von SSM-Entwicklungen. Seien Sie aber bereit, mit experimentellen Technologien zu arbeiten.
Für Produktiv-Entwickler: Im Februar 2026 bleiben Transformer die pragmatische Wahl. Die verfügbaren Modelle sind ausgereift, gut dokumentiert und in der Praxis erprobt. Warten Sie auf klarere Signale, bevor Sie auf SSMs setzen.
Für Kostenoptimierer: Sobald SSM-basierte APIs verfügbar werden, könnten diese für bestimmte Anwendungsfälle deutliche Kosteneinsparungen ermöglichen. Halten Sie Ausschau nach neuen Angeboten.
Für die breite Masse: Die Post-Transformer-Ära ist noch nicht angebrochen. Die Tools, die Sie heute verwenden – sei es ChatGPT, Claude oder Gemini – werden weiterhin auf Transformer basieren. Die theoretischen Diskussionen über SSMs sind faszinierend, aber für die praktische Nutzung derzeit nicht relevant.
Die Zukunft der KI-Architekturen bleibt spannend. State Space Models und Mamba haben das Potenzial, wichtige Bausteine der nächsten Generation zu werden. Ob sie Transformer ablösen oder ergänzen werden, wird sich in den kommenden Jahren zeigen. Bis dahin gilt: Transformer sind tot? Lang lebe Transformer!
Quellen
- Reddit Machine Learning Discussion: The Post-Transformer Era: State Space Models, Mamba, and What Comes After Attention - 82 Upvotes, 28 Kommentare
- Mistral AI - Codestral Mamba Announcement: https://mistral.ai/news/codestral-mamba/
- Mistral AI Official Website: https://mistral.ai