Auf einen Blick
KI-Agenten erleben gerade ihren großen Moment: Sie schreiben Code, erstellen Berichte, analysieren Datensätze und koordinieren komplexe Aufgaben — oft schneller als jeder menschliche Kollege. Doch sobald es darum geht, eine Rechnung zu bezahlen, einen Vertrag zu unterzeichnen oder eine Bestellung aufzugeben, stoßen selbst die fortschrittlichsten Agentensysteme an eine fundamentale Grenze. Das Kernproblem: Die gesamte kommerzielle Infrastruktur — von Payment-APIs bis zu E-Signatur-Plattformen — setzt eine menschliche Identität voraus. Eine Reddit-Diskussion in r/artificial bringt dieses strukturelle Dilemma auf den Punkt und hat damit eine wichtige Debatte über die Zukunft autonomer KI-Systeme angestoßen. Dieser Artikel analysiert, warum diese Lücke existiert, wer sie schließen könnte — und was das für Entwickler, Unternehmen und die gesamte KI-Branche bedeutet.
Was die Quellen sagen
Die einzige verfügbare Quelle zu diesem Thema — ein Reddit-Thread in r/artificial mit 13 Upvotes und 17 Kommentaren — mag auf den ersten Blick überschaubar wirken. Doch das Thema, das dort diskutiert wird, trifft einen Nerv, der die gesamte KI-Community beschäftigt: Warum können Agenten so viel produzieren, aber so wenig abwickeln?
Die Diskussion dreht sich um eine fundamentale Asymmetrie in der modernen KI-Entwicklung. Auf der Produktionsseite haben Agenten enorme Fortschritte gemacht: Sie generieren Code, verfassen Texte, führen Recherchen durch und orchestrieren mehrstufige Prozesse. Doch auf der Transaktionsseite — also überall dort, wo echtes Geld fließt, Verträge entstehen oder rechtlich bindende Handlungen stattfinden — fehlt die Infrastruktur fast vollständig.
Die Produktivitäts-Illusion: Was METR herausfand
Besonders aufschlussreich in diesem Kontext sind die Studien der KI-Evaluierungsorganisation METR. Die Organisation untersucht, wie sich KI-Tools tatsächlich auf die Entwicklerproduktivität auswirken — und die Ergebnisse sind ernüchternder als die Marketing-Versprechen vieler Anbieter. Während die Annahme verbreitet ist, dass KI-Agenten Arbeit einfach “erledigen”, zeigen die METR-Studien, dass die reale Produktivitätswirkung oft hinter den Erwartungen zurückbleibt. Das liegt nicht unbedingt an schlechten Modellen — sondern daran, dass Agenten in einem Ökosystem operieren, das nicht für sie gebaut wurde.
Sicherheitslücken als strukturelles Problem
Ein weiterer kritischer Befund kommt von der Sicherheitsplattform Veracode. In einer Analyse von KI-generiertem Code identifizierte Veracode 2,74-mal mehr Sicherheitslücken im Vergleich zu manuell geschriebenem Code. Dieser Befund ist für das Transaktionsproblem hochrelevant: Wenn ein KI-Agent Code schreibt, der in Zahlungsprozessen oder Vertragsverwaltung eingesetzt wird, und dieser Code signifikant anfälliger für Schwachstellen ist, dann erklärt das zum Teil, warum die Branche zögert, Agenten echte Transaktionskompetenz zu geben. Die Veracode-Studie liefert damit ein datenbasiertes Argument, warum menschliche Aufsicht bei finanziell relevanten Prozessen noch lange Standard bleiben wird.

Die einzige verfügbare Quelle deutet darauf hin, dass 1 von 1 diskutierten Themensträngen explizit die Infrastrukturlücke als Kernproblem identifiziert — nicht mangelnde KI-Intelligenz, sondern fehlendes technisches und rechtliches Fundament für autonome Transaktionen.
Vergleich: Infrastruktur-Plattformen im Überblick
Die fünf im Quellen-Paket genannten Plattformen spielen jeweils eine andere Rolle in diesem Ökosystem — manche sind Teil des Problems, manche Teil der potenziellen Lösung:
| Tool | Preis | Rolle im Agent-Kontext | Besonderheit |
|---|---|---|---|
| NEAR Protocol | Keine Angabe (Blockchain-Netzwerk) | Lösungsansatz | Blockchain-Zahlungsschicht für Agent-to-Agent-Commerce; dezentrales Modell ohne zentralen Gatekeeper |
| Stripe | Keine Angabe (transaktionsbasiert) | Aktuelle Barriere | Marktführende Payment-API — setzt zwingend menschlichen Auftraggeber/Identität voraus |
| DocuSign | Keine Angabe (SaaS-Modell) | Aktuelle Barriere | E-Signatur-Standard — rechtlich an menschliche Identität und Haftung gebunden |
| Veracode | Keine Angabe (Enterprise-Pricing) | Sicherheits-Kontext | Fand 2,74-fach mehr Sicherheitslücken in KI-generiertem Code — wichtig für Vertrauensfrage |
| METR | Gemeinnützig / keine Preisangabe | Evaluierungs-Kontext | Unabhängige Studien zur tatsächlichen KI-Produktivitätswirkung — kritisches Korrektiv |
Alle Preisangaben laut Anbieter-Website prüfen — aktuelle Konditionen können abweichen.
Preise und Kosten
Ein auffälliges Merkmal der diskutierten Plattformen: Für keine der fünf genannten Lösungen liegen konkrete Preisangaben vor. Das ist bezeichnend — und kein Zufall.
Stripe operiert typischerweise mit transaktionsbasierten Gebühren, die je nach Volumen und Integration stark variieren. Entscheidend ist aber nicht der Preis, sondern die Voraussetzung: Um ein Stripe-Konto zu eröffnen oder die API zu nutzen, braucht es ein verifiziertes Unternehmen oder eine natürliche Person. Ein autonomer KI-Agent kann diese Anforderung schlicht nicht erfüllen — er hat weder eine Steuernummer noch eine Bankverbindung.
DocuSign verfolgt ein klassisches SaaS-Preismodell mit Staffelpreisen je nach Nutzungsvolumen. Doch auch hier gilt: Eine rechtsgültige Signatur setzt eine natürliche oder juristische Person voraus, die für die Handlung haftet. Ein Agent, der im Namen eines Unternehmens unterschreibt, handelt als Bevollmächtigter — aber diese Bevollmächtigung muss ein Mensch erteilen und rechtlich absichern.
NEAR Protocol als Blockchain-Lösung hat eine andere Kostenstruktur: Gas-Gebühren für Transaktionen auf der Blockchain, die je nach Netzwerkauslastung schwanken. Der theoretische Vorteil: Ein Smart Contract kann ohne menschliche Intermediäre ausgeführt werden — und ein Agent könnte theoretisch über eine Wallet autonome Zahlungen auslösen.

Veracode und METR sind keine direkten Zahlungs- oder Transaktions-Tools, sondern Analyse- und Evaluierungsplattformen. Ihre “Kosten” sind indirekt: Ohne die Erkenntnisse dieser Organisationen würde die Branche die Risiken KI-generierten Codes und die tatsächliche Produktivitätswirkung von Agenten systematisch überschätzen.

Das Fazit beim Blick auf die Preise: Die finanzielle Barriere ist nicht primär das Problem. Die strukturelle Barriere ist Identity, Haftung und Compliance — Dinge, die sich nicht mit einem Preismodell lösen lassen.
Das strukturelle Problem in der Tiefe
Um zu verstehen, warum KI-Agenten so gut produzieren, aber so schlecht transagieren können, lohnt ein Blick auf die Architektur der digitalen Wirtschaft.
Die gesamte kommerzielle Infrastruktur des Internets wurde für Menschen gebaut — genauer gesagt: für natürliche und juristische Personen mit eindeutiger Identität, Haftungsfähigkeit und Rechtspersönlichkeit. Stripe fragt nach einer Geschäftsadresse. DocuSign braucht eine Signatur, die jemanden rechtlich bindet. Banken verlangen KYC (Know Your Customer). Steuerbehörden erwarten eine Steuernummer. All das setzt voraus, dass hinter jeder Transaktion eine identifizierbare, haftende Instanz steht.
Ein KI-Agent ist keines davon. Er ist Software — präzise, leistungsfähig, aber ohne Rechtspersönlichkeit. Er kann keinen Vertrag eingehen, weil er nicht haftbar gemacht werden kann. Er kann keine Zahlung autorisieren, weil er kein Eigentümer von Assets ist. Er kann keine Unterschrift leisten, die vor Gericht gilt.
Das Paradox der Agentenproduktivität
Hier entsteht ein bizarres Paradox: Ein moderner KI-Agent kann in einer Stunde Code schreiben, der eine komplexe Zahlungsintegration implementiert — aber er kann das Stripe-Konto, auf dem dieser Code läuft, nicht selbst einrichten. Er kann einen detaillierten Freelancer-Vertrag ausformulieren — aber nicht unterschreiben. Er kann eine Bestellung beim Lieferanten recherchieren und konfigurieren — aber nicht abschicken.
Das Ergebnis: Selbst in hochautomatisierten Agenten-Workflows gibt es immer einen “Human-in-the-Loop”-Moment, in dem ein Mensch die eigentliche Transaktionshandlung ausführen muss. Das begrenzt nicht nur die Effizienz autonomer Systeme erheblich — es stellt auch ein grundsätzliches Skalierungsproblem dar, wenn Agenten-Netzwerke wirklich autonom wirtschaften sollen.
Die Sicherheitsdimension
Die Veracode-Studie mit ihrem Befund von 2,74-fach mehr Sicherheitslücken in KI-generiertem Code wirft eine weitere kritische Frage auf: Selbst wenn man rechtliche Barrieren überwinden könnte — wie sicher wäre es, Agenten echte Transaktionskompetenz zu geben? Wenn ein Agent autonom Zahlungen autorisieren kann und sein Code signifikant anfälliger für Exploits ist, entsteht ein erhebliches Angriffspotenzial. Diese Sicherheitsbedenken sind ein weiteres Argument, warum die Branche bei der Vergabe autonomer Transaktionskompetenz vorsichtig vorgeht.
Lösungsansätze: Was sich gerade verändert
Die gute Nachricht: Die Branche hat das Problem erkannt. Verschiedene Ansätze konkurrieren darum, die Lücke zu schließen.
Blockchain als neutrale Zahlungsschicht
NEAR Protocol verfolgt einen der interessantesten Ansätze: eine Blockchain-Infrastruktur, die ausdrücklich als Zahlungsschicht für den Agent-to-Agent-Commerce konzipiert ist. Der Kerngedanke ist elegant — eine dezentrale Plattform, auf der Agenten Wallets kontrollieren, Smart Contracts ausführen und Zahlungen auslösen können, ohne einen menschlichen Intermediär zu benötigen. Da Blockchain-Wallets technisch ohne menschliche Identität existieren können, umgeht dieser Ansatz einen Teil des Identitätsproblems.

Allerdings bleibt die Frage, ob regulatorische Anforderungen (Anti-Geldwäsche, Steuerpflichten) langfristig eine solche Konstruktion erlauben werden. Regulatoren weltweit diskutieren bereits, wie KI-Agenten-Transaktionen rechtlich einzuordnen sind.
Agent Identity Frameworks
Ein anderer Ansatz, der in der Branche diskutiert wird: standardisierte “Agent Identity”-Protokolle, bei denen Agenten eine Art delegierte Identität von ihrem menschlichen Principal erhalten. Der Mensch autorisiert den Agenten einmalig — und der Agent handelt dann innerhalb definierter Grenzen autonom. Ähnlich wie eine Vollmacht, aber für Software.

Die METR-Perspektive
Dass METR als KI-Evaluierungsorganisation in diesem Kontext erwähnt wird, ist kein Zufall. Die Organisation betont, dass realistische Produktivitätsmessungen und ehrliche Bewertungen von Agentenfähigkeiten entscheidend sind, bevor man ihnen mehr Autonomie gibt. Diese nüchterne Perspektive ist ein wichtiges Gegengewicht zu Hype-getriebenen Versprechen über vollautonome Agentennetzwerke.
Wie Unternehmen bereits heute versuchen, KI-Agenten kontrolliert Zahlungen zu ermöglichen, zeigt dieser Praxisbericht über KI-Agenten und Zahlungskontrollen auf vikofintech.com.
Fazit: Für wen lohnt es sich?
Die Debatte um transaktionsfähige KI-Agenten ist keine akademische Übung — sie hat direkte Implikationen für Unternehmen, Entwickler und Investoren.
Für Entwickler und technische Teams bedeutet der aktuelle Stand: Agenten-Workflows müssen realistisch so geplant werden, dass Transaktionspunkte als menschliche Genehmigungsschritte eingebaut sind. Wer Agentensysteme baut, die autonom “alles erledigen” sollen, wird an Stripe, DocuSign und Co. scheitern — nicht weil die KI zu schwach ist, sondern weil die rechtliche und finanzielle Infrastruktur es nicht zulässt.
Für Unternehmen bietet der Übergangsmoment eine strategische Chance: Wer heute Prozesse entwickelt, die Agenten nahtlos in genehmigte Transaktionspfade einbinden, wird gegenüber Wettbewerbern im Vorteil sein, wenn echte autonome Transaktionskompetenz in zwei bis fünf Jahren Realität wird.
Für die NEAR Protocol-Community und Blockchain-Developer ist die aktuelle Situation ein klares Signal: Der Markt für dezentrale Agent-Payment-Infrastruktur existiert und wächst. Die Frage ist nicht ob, sondern wann autonome Agenten eigene wirtschaftliche Identitäten haben werden.
Für alle Beteiligten gilt die Veracode-Lektion: Mehr Autonomie erfordert mehr Sicherheit. Solange KI-generierter Code nachweislich häufiger Schwachstellen enthält als manuell geschriebener Code, ist jeder Schritt in Richtung autonomer Transaktionen mit erhöhten Sicherheitsanforderungen verbunden.
Die Kernbotschaft: KI-Agenten sind heute exzellente Produzenten und schlechte Transakteure — nicht aus Unvermögen, sondern aus Systemgründen. Das wird sich ändern. Aber nicht über Nacht, und nicht ohne fundamentale Veränderungen in der Infrastruktur, im Recht und in den Sicherheitsstandards der Branche.
Quellen
Reddit-Diskussion: “Why AI agents can produce but can’t transact” (r/artificial, 13 Upvotes, 17 Kommentare) → https://reddit.com/r/artificial/comments/1rpmroe/why_ai_agents_can_produce_but_cant_transact/
NEAR Protocol — Blockchain-Infrastruktur für Agent-to-Agent-Commerce → https://near.org
Veracode — Sicherheitsanalyse von KI-generiertem Code (2,74x mehr Schwachstellen) → https://www.veracode.com
METR — Unabhängige KI-Evaluierungsorganisation, Produktivitätsstudien → https://metr.org
Stripe — Payment-API (Beispiel für Infrastruktur mit Anforderung menschlicher Principals) → https://stripe.com
DocuSign — E-Signatur-Plattform (Beispiel für rechtliche Infrastruktur mit Identitätsanforderung) → https://www.docusign.com