Loading market data...

Kanzlei konfrontiert KI‑generierten Einreichungsfehler nach Halluzination

Kanzlei konfrontiert KI‑generierten Einreichungsfehler nach Halluzination

Was passiert ist: Der KI‑Fehltritt von Sullivan & Cromwell

Anfang März 2026 veröffentlichte die in New York ansässige Kanzlei Sullivan & Cromwell eine öffentliche Entschuldigung, nachdem eine von KI erzeugte Halluzination in ein hochbrisantes Rechtsdokument gerutscht war. Der Fehler, von der Kanzlei als „KI‑generierter Rechts‑Einreichungsfehler“ bezeichnet, machte ein Versagen der internen Sicherheitsmaßnahmen deutlich.

Warum der Fehler für die Rechtsbranche wichtig ist

Künstliche‑Intelligenz‑Werkzeuge werden zunehmend Teil des täglichen Arbeitsablaufs von Anwält*innen, vom Entwurf von Schriftsätzen bis zur Recherche von Präzedenzfällen. Wenn diese Werkzeuge jedoch ungenaue Zitate liefern oder fiktive Rechtsprechung erfinden – ein Phänomen, das als Halluzination bezeichnet wird – können die Folgen gravierend sein. In diesem Fall hätte die fehlerhafte Zitation die Position des Mandanten in einem mehr‑milliarden‑Dollar‑Mergers‑Streit erheblich schwächen können.

KI‑Richtlinien waren vorhanden – wurden jedoch nicht befolgt

Partner Andrew Dietderich erklärte, dass Sullivan & Cromwell über eine formale KI‑Richtlinie verfügt, die genau solche Missgeschicke verhindern soll. Die Richtlinie schreibt vor:

  • Menschliche Überprüfung jedes KI‑generierten Auszugs vor der Einreichung.
  • Abgleich der Zitate mit verifizierten juristischen Datenbanken.
  • Dokumentation des eingesetzten KI‑Tools, seiner Version und des Prompts, der den Inhalt erzeugt hat.
Trotz dieser Schutzmechanismen gab das Team, das für die Einreichung verantwortlich war, den Überprüfungsschritt nicht durch und ließ das halluzinierte Material vor Gericht gelangen.

Weitere Auswirkungen: Wie zuverlässig ist juristische KI?

Umfragen der International Legal Technology Association aus dem Jahr 2024 zeigten, dass 32 % großer Kanzleien im vergangenen Jahr mindestens einen KI‑bezogenen Fehler erlebten. Ein Gartner‑Report von 2025 prognostizierte, dass bis 2027 45 % aller juristischen Recherchen von KI durchgeführt werden, jedoch fühlen sich nur 18 % der Kanzleien vollends sicher in ihren KI‑Governance‑Frameworks.

Expertenmeinung: Innovation mit Sorgfaltspflicht ausbalancieren

„KI kann den Entwurfsprozess dramatisch beschleunigen, führt aber auch zu einer neuen Risikoklasse“, sagt Laura Mendoza, Professorin für Recht und Technologie an der Columbia University. „Kanzleien müssen KI‑Ergebnisse als Entwurfs­material behandeln, nicht als endgültige Autorität, und mehrere Ebenen menschlicher Aufsicht einbauen.“

Was Sullivan & Cromwell als Nächstes tut

Nach dem Vorfall kündigte die Kanzlei eine Reihe von Korrekturmaßnahmen an, darunter:

  1. Verpflichtende Auffrischungsschulung zur KI‑Richtlinie für alle Mitarbeiter*innen und Partner*innen.
  2. Einführung eines automatisierten Prüfprotokolls, das KI‑generierten Text ohne menschliche Freigabe kennzeichnet.
  3. Beauftragung einer externen KI‑Ethik‑Beratung, um bestehende Protokolle zu überprüfen und zu verschärfen.
Diese Schritte sollen das Vertrauen der Mandanten wiederherstellen und zeigen, dass die Kanzlei künftige Halluzinationen verhindern will.

Ausblick: Die Zukunft der KI‑Governance im Rechtswesen

Mit zunehmender Sophistication von KI‑Tools steht die Rechtsbranche vor einem Paradoxon: Die gleiche Technologie, die Effizienz verspricht, verlangt gleichzeitig strenge Aufsicht. Branchenverbände wie die American Bar Association erarbeiten bereits Modellregeln für