Was passiert ist: Der KI‑Fehltritt von Sullivan & Cromwell
Anfang März 2026 veröffentlichte die in New York ansässige Kanzlei Sullivan & Cromwell eine öffentliche Entschuldigung, nachdem eine von KI erzeugte Halluzination in ein hochbrisantes Rechtsdokument gerutscht war. Der Fehler, von der Kanzlei als „KI‑generierter Rechts‑Einreichungsfehler“ bezeichnet, machte ein Versagen der internen Sicherheitsmaßnahmen deutlich.
Warum der Fehler für die Rechtsbranche wichtig ist
Künstliche‑Intelligenz‑Werkzeuge werden zunehmend Teil des täglichen Arbeitsablaufs von Anwält*innen, vom Entwurf von Schriftsätzen bis zur Recherche von Präzedenzfällen. Wenn diese Werkzeuge jedoch ungenaue Zitate liefern oder fiktive Rechtsprechung erfinden – ein Phänomen, das als Halluzination bezeichnet wird – können die Folgen gravierend sein. In diesem Fall hätte die fehlerhafte Zitation die Position des Mandanten in einem mehr‑milliarden‑Dollar‑Mergers‑Streit erheblich schwächen können.
KI‑Richtlinien waren vorhanden – wurden jedoch nicht befolgt
Partner Andrew Dietderich erklärte, dass Sullivan & Cromwell über eine formale KI‑Richtlinie verfügt, die genau solche Missgeschicke verhindern soll. Die Richtlinie schreibt vor:
- Menschliche Überprüfung jedes KI‑generierten Auszugs vor der Einreichung.
- Abgleich der Zitate mit verifizierten juristischen Datenbanken.
- Dokumentation des eingesetzten KI‑Tools, seiner Version und des Prompts, der den Inhalt erzeugt hat.
Weitere Auswirkungen: Wie zuverlässig ist juristische KI?
Umfragen der International Legal Technology Association aus dem Jahr 2024 zeigten, dass 32 % großer Kanzleien im vergangenen Jahr mindestens einen KI‑bezogenen Fehler erlebten. Ein Gartner‑Report von 2025 prognostizierte, dass bis 2027 45 % aller juristischen Recherchen von KI durchgeführt werden, jedoch fühlen sich nur 18 % der Kanzleien vollends sicher in ihren KI‑Governance‑Frameworks.
Expertenmeinung: Innovation mit Sorgfaltspflicht ausbalancieren
„KI kann den Entwurfsprozess dramatisch beschleunigen, führt aber auch zu einer neuen Risikoklasse“, sagt Laura Mendoza, Professorin für Recht und Technologie an der Columbia University. „Kanzleien müssen KI‑Ergebnisse als Entwurfsmaterial behandeln, nicht als endgültige Autorität, und mehrere Ebenen menschlicher Aufsicht einbauen.“
Was Sullivan & Cromwell als Nächstes tut
Nach dem Vorfall kündigte die Kanzlei eine Reihe von Korrekturmaßnahmen an, darunter:
- Verpflichtende Auffrischungsschulung zur KI‑Richtlinie für alle Mitarbeiter*innen und Partner*innen.
- Einführung eines automatisierten Prüfprotokolls, das KI‑generierten Text ohne menschliche Freigabe kennzeichnet.
- Beauftragung einer externen KI‑Ethik‑Beratung, um bestehende Protokolle zu überprüfen und zu verschärfen.
Ausblick: Die Zukunft der KI‑Governance im Rechtswesen
Mit zunehmender Sophistication von KI‑Tools steht die Rechtsbranche vor einem Paradoxon: Die gleiche Technologie, die Effizienz verspricht, verlangt gleichzeitig strenge Aufsicht. Branchenverbände wie die American Bar Association erarbeiten bereits Modellregeln für
