Auf einen Blick

Ein Vorfall, der die Grenzen von KI-Systemen im rechtlichen Bereich drastisch aufzeigt: Ein CEO wandte sich an ChatGPT, um einen Vertrag über 250 Millionen Dollar zu umgehen – und ignorierte dabei aktiv den Rat seiner eigenen Anwälte. Das Ergebnis war eine katastrophale juristische Niederlage. Die Geschichte, die auf Reddit 470 Upvotes sammelte, ist kein Einzelfall, sondern symptomatisch für ein wachsendes Problem: Führungskräfte und Privatpersonen, die KI-Chatbots als Ersatz für professionellen Rechtsrat nutzen. Die Konsequenzen können verheerend sein – nicht nur in der Theorie, sondern wie dieser Fall beweist, auch in realen Gerichtssälen mit neunstelligen Schadenssummen.


Was die Quellen sagen

Die gesamte verfügbare Quellenlage zu diesem Fall konzentriert sich auf 1 von 1 Quellen: eine Reddit-Diskussion im Subreddit r/ChatGPT, die mit 470 Upvotes und 35 Kommentaren eine erhebliche Resonanz in der KI-Community erzeugte. Die Tatsache, dass dieser Beitrag dort so stark geliked wurde, ist selbst aufschlussreich: Die Community der KI-Nutzer – Menschen, die täglich mit diesen Tools arbeiten und sie zu schätzen wissen – reagierte nicht mit Verteidigung des CEO, sondern mit einer Mischung aus Ungläubigkeit und dem kollektiven Kopfschütteln von jemandem, der die Grenzen dieser Technologie kennt.

Die Reddit-Diskussion trägt den Titel “CEO Asks ChatGPT How to Void $250 Million Contract, Ignores His Lawyers, Loses Terribly in Court” – und allein diese Formulierung fasst das strukturelle Problem zusammen. Es geht nicht nur darum, dass KI schlechten Rechtsrat gab. Es geht darum, dass der CEO seine Anwälte ignorierte, nachdem er die KI befragt hatte. Das ist eine Entscheidungskette, die den eigentlichen Skandal ausmacht.

Was KI-Chatbots im rechtlichen Kontext können und nicht können:

Laut der allgemeinen Diskussion in der KI-Community – und dies ist der Konsens, der sich durch unzählige ähnliche Debatten zieht – sind KI-Systeme wie ChatGPT hervorragend geeignet für:

  • Erklärungen: Ein Vertragsbegriff wie “Force Majeure” kann gut erklärt werden
  • Strukturierung: Welche Fragen sollte ich meinem Anwalt stellen?
  • Recherche: Welche allgemeinen Rechtsprinzipien gelten in diesem Bereich?

Sie sind hingegen grundlegend ungeeignet für:

  • Spezifische Rechtsberatung: Gilt Klausel 12.3 meines konkreten Vertrages in diesem Bundesstaat?
  • Strategische Entscheidungen: Soll ich diesen Vertrag anfechten?
  • Halluzinationen erkennen: KI erfindet Rechtsprechung und Gesetze mit überzeugender Sicherheit

Das Grundproblem: KI-Modelle wie ChatGPT wurden darauf trainiert, überzeugend klingende Antworten zu generieren. Im Rechtswesen kann “überzeugend klingend” und “katastrophal falsch” dasselbe sein.

Der Präzedenzfall und das Muster dahinter

Dieser Fall reiht sich in eine Serie hochkarätiger KI-Rechtsdesaster ein. Das bekannteste Beispiel: 2023 zitierte ein US-Anwalt erfundene Gerichtsentscheidungen aus ChatGPT in seinen Schriftsätzen – Entscheidungen, die nie existiert hatten. Das Gericht erkannte es, der Anwalt wurde sanktioniert. Der Unterschied zu dem hier besprochenen Fall: Dieser CEO hatte echte Anwälte, die ihm wahrscheinlich genau das sagten, was er nicht hören wollte. Er suchte sich eine zweite Meinung – bei einer KI, die ihm sagte, was er hören wollte.

Das ist das eigentliche Kernproblem, das die 1 verfügbare Quelle implizit aufwirft: Confirmation Bias mit KI-Verstärker. Ein Mensch, der eine Entscheidung bereits getroffen hat, kann einen KI-Chatbot so befragen, dass er eine bestätigende Antwort erhält. “Gibt es Wege, diesen Vertrag zu umgehen?” beantwortet eine KI anders als “Sind die Wege, diesen Vertrag zu umgehen, rechtlich durchsetzbar?” – und ein nicht-juristisch geschulter Nutzer versteht den Unterschied nicht.


Vergleich: KI-Tools für rechtliche Fragen

Obwohl keines der führenden KI-Tools als Rechtsberatung positioniert ist, werden sie in der Praxis dafür genutzt. Hier ein Überblick der relevanten Systeme:

ToolPreisKernfunktionRechtskontext-StärkenRisiken
ChatGPTAb $20/MonatKI-Chatbot für Textgenerierung & FragenVertragsklauseln erklären, allgemeine RechtsbegriffeHalluziniert Urteile; keine Quellenangaben
PerplexityPreis laut Anbieter prüfenKI-Suche mit QuellenangabenAktuelle Rechtsprechung recherchierenInterpretation bleibt beim Nutzer
ClaudePreis laut Anbieter prüfenKI-Assistent für Analyse & komplexe AufgabenLängere Dokumente analysieren, VertragsanalyseKein juristisches Fachwissen für Spezialfälle

Wichtig: Keines dieser Tools ersetzt einen zugelassenen Rechtsanwalt. Keines übernimmt Haftung für seine Ausgaben. Keines kennt die spezifische Rechtsprechung in Ihrem Bundesland, Ihrer Branche oder Ihrem Vertragsjahr.


Preise und Kosten

Von den drei im Vergleich genannten KI-Tools hat nur ChatGPT einen klar kommunizierten Einstiegspreis:

  • ChatGPT: Ab $20 pro Monat für ChatGPT Plus (Preise laut Anbieter, Stand März 2026)
  • Perplexity: Preise bitte direkt auf der Anbieter-Website prüfen
  • Claude: Preise bitte direkt auf der Anbieter-Website prüfen

Zum Vergleich: Ein Wirtschaftsanwalt, der bei einem 250-Millionen-Dollar-Vertrag beratend tätig ist, kostet in Deutschland und den USA typischerweise mehrere hundert bis über tausend Euro/Dollar pro Stunde. Die Ironie des Falls ist nicht subtil: Der CEO wollte möglicherweise Anwaltskosten sparen – und verlor dafür eine Auseinandersetzung im neunstelligen Bereich.

Das Preis-Nutzen-Verhältnis von KI-Tools im Rechtsbereich ist dennoch real – aber nur für die richtigen Anwendungsfälle. $20 monatlich für ein Tool, das einem Nicht-Juristen erklärt, was “Schadensersatz wegen Vertragsbruch” bedeutet oder welche Fragen er seinem Anwalt stellen sollte, ist sinnvoll investiert. Dieselben $20 monatlich als Ersatz für einen Anwalt bei einem Millionenstreit zu nutzen, ist ein rechenbarer Fehler mit unbezifferbaren Konsequenzen.


Die strukturellen Risiken: Warum KI bei Rechtsfragen versagt

Es gibt drei technische Gründe, warum KI-Chatbots grundlegend unzuverlässig für konkrete Rechtsberatung sind:

1. Halluzinationen im Rechtskontext sind besonders gefährlich

KI-Modelle generieren plausibel klingende Texte. Im Rechtsbereich bedeutet das: Sie zitieren Urteile, die nie existierten; sie nennen Paragraphen, die falsch sind; sie beschreiben Rechtsprechungen, die in dieser Form nie stattgefunden haben. Und sie tun es mit der gleichen Selbstsicherheit, mit der sie eine korrekte Antwort geben würden.

2. Kein Haftungsrahmen

Ein zugelassener Anwalt haftet für seine Beratung. Eine KI haftet für nichts. Die Nutzungsbedingungen aller großen KI-Anbieter schließen Haftung für rechtliche oder finanzielle Schäden explizit aus. Wer ChatGPT für Rechtsberatung nutzt und Schaden erleidet, hat keine Rückgriffsmöglichkeit.

3. Fehlende Aktualität und Jurisdiktionskenntnisse

Rechtslage ändert sich. Gesetze werden geändert, Urteile gefällt, Interpretationen verschoben. KI-Modelle haben einen Trainingsdatenabschluss und kennen aktuelle Entwicklungen möglicherweise nicht. Hinzu kommt: Recht ist lokal. Was in Kalifornien gilt, gilt nicht zwingend in New York – und schon gar nicht in Deutschland.


Das eigentliche Problem: Wenn KI zum Bestätigungswerkzeug wird

Der vielleicht interessanteste Aspekt des Falls, den die Reddit-Diskussion aufwirft, ist nicht die Frage “Versagte die KI?” – sondern “Warum fragt man eine KI statt seinen eigenen Anwälten?”

Die Antwort lautet meistens: weil die Anwälte das Falsche sagten. Das heißt: das Unbequeme.

KI-Chatbots können in dieser Dynamik zu einem gefährlichen Werkzeug werden. Wer möchte, kann so formulieren, dass die KI ihm recht gibt. Wer eine Entscheidung bereits getroffen hat, bekommt von einer KI seltener den klaren Widerstand, den ein menschlicher Experte im beruflichen Pflichtkontext leisten würde. Ein Anwalt sagt: “Das werden Sie verlieren.” Eine KI sagt: “Es gibt theoretisch folgende Möglichkeiten…” – und ein entschlossener Mensch hört das als Bestätigung.

Das ist kein Versagen der KI-Technologie im eigentlichen Sinne. Es ist ein Versagen im Verständnis dessen, was diese Technologie ist und wofür sie gedacht ist.


Dass KI selbst in vermeintlich kontrollierten Umgebungen katastrophal versagen kann, zeigt auch dieser Fall aus dem Trading-Bereich: Ein KI-Agent verlor Geld durch AI Memory Failure – ein strukturell ähnliches Problem wie im Rechtsstreit.

Fazit: Für wen lohnt es sich?

KI-Tools wie ChatGPT, Perplexity und Claude sind mächtige Werkzeuge – aber keine Anwälte. Die klare Empfehlung, die sich aus dem hier besprochenen Fall und dem breiten Community-Konsens ableitet:

KI für Rechtsfragen ist sinnvoll, wenn:

  • Sie Rechtsbegriffe verstehen wollen
  • Sie sich auf ein Anwaltsgespräch vorbereiten
  • Sie einen Überblick über ein Rechtsgebiet gewinnen wollen
  • Sie einfache Dokumente auf offensichtliche Auffälligkeiten prüfen

KI für Rechtsfragen ist gefährlich, wenn:

  • Es um konkrete Vertragsstrategien geht
  • Millionenbeträge auf dem Spiel stehen
  • Echte Anwälte anderslautende Empfehlungen geben
  • Sie die KI-Antwort als Legitimation für eine bereits getroffene Entscheidung suchen

Die Geschichte des CEOs, der einen 250-Millionen-Dollar-Vertrag mit ChatGPT-Rat anzufechten versuchte und scheiterte, ist eine der kostspieligsten Fehlbedienungen eines KI-Tools, die bisher dokumentiert wurden. Sie wird vermutlich nicht die letzte sein. Solange KI-Tools zugänglicher und überzeugender werden, ohne dass gleichzeitig das Verständnis ihrer Grenzen wächst, werden sich solche Fälle wiederholen – in unterschiedlicher Größenordnung, aber mit derselben Grundstruktur.

Die Lektion ist einfach: $20 pro Monat kaufen keine juristische Absicherung für Verträge mit neun Nullen.


Quellen

  1. Reddit-Diskussion (470 Upvotes, 35 Kommentare): “CEO Asks ChatGPT How to Void $250 Million Contract, Ignores His Lawyers, Loses Terribly in Court” – https://reddit.com/r/ChatGPT/comments/1rxtt72/ceo_asks_chatgpt_how_to_void_250_million_contract/
  2. ChatGPT (OpenAI) – Offizielle Website: https://chatgpt.com
  3. Perplexity AI – Offizielle Website: https://www.perplexity.ai
  4. Claude (Anthropic) – Offizielle Website: https://claude.ai

Empfohlene Tools

Writesonic

KI-Plattform mit GPT-4o, Claude 3.5 und Gemini in einer Oberfläche. KI-Texte, Bildgenerierung und Marketing-Workflows.

Writesonic kostenlos testen →

Dieser Artikel enthält Affiliate-Links. Wenn du über diese Links ein Produkt kaufst oder dich anmeldest, erhalten wir eine kleine Provision — für dich entstehen keine Mehrkosten.