Qué ocurrió: el error de IA de Sullivan & Cromwell
En principios de marzo de 2026, la firma neoyorquina Sullivan & Cromwell emitió una disculpa pública después de que una alucinación generada por IA se colara en una presentación legal de alto riesgo. El error, descrito por la firma como un "error de presentación legal generada por IA", puso de manifiesto una falla en sus propias salvaguardas internas.
Por qué el error es importante para la industria legal
Las herramientas de inteligencia artificial están convirtiéndose cada vez más en parte del flujo de trabajo diario de los abogados, desde la redacción de escritos hasta la investigación de precedentes. Sin embargo, cuando esas herramientas producen citas inexactas o fabrican jurisprudencia —un fenómeno conocido como alucinación—, las repercusiones pueden ser graves. En este caso, la cita errónea podría haber socavado la posición del cliente en una disputa de fusión de varios miles de millones de dólares.
Existían políticas de IA, pero no se siguieron
El socio Andrew Dietderich explicó que Sullivan & Cromwell cuenta con una política formal de IA diseñada para prevenir exactamente este tipo de percance. La política exige:
- Revisión humana de cada fragmento generado por IA antes de su presentación.
- Contraste de citas contra bases de datos legales verificadas.
- Documentación de la herramienta de IA utilizada, su versión y el prompt que generó el contenido.
Implicaciones más amplias: ¿Qué tan fiable es la IA legal?
Encuestas realizadas por la International Legal Technology Association en 2024 revelaron que el 32 % de las grandes firmas había experimentado al menos un error relacionado con IA en el último año. Además, un informe de Gartner de 2025 proyectó que para 2027, el 45 % de toda la investigación legal será realizada por IA, pero solo el 18 % de las firmas se siente completamente confiada en sus marcos de gobernanza de IA.
Opinión de experto: equilibrar innovación con diligencia debida
«La IA puede acelerar dramáticamente el proceso de redacción, pero también introduce una nueva clase de riesgo», dice Laura Mendoza, profesora de derecho y tecnología en la Universidad de Columbia. «Las firmas deben tratar los resultados de la IA como material de borrador, no como autoridad final, e incorporar múltiples capas de supervisión humana».
Qué está haciendo ahora Sullivan & Cromwell
Tras el incidente, la firma anunció una serie de acciones correctivas, que incluyen:
- Capacitación de actualización obligatoria sobre la política de IA para todos los asociados y socios.
- Implementación de un registro de auditoría automatizado que señale cualquier texto generado por IA que no cuente con la aprobación humana.
- Contrat
