Cosa è successo: l'errore di IA di Sullivan & Cromwell
All'inizio di marzo 2026, lo studio newyorkese Sullivan & Cromwell ha rilasciato una scusa pubblica dopo che un'allucinazione generata dall'IA è sfuggita a un deposito legale ad alta posta in gioco. L'errore, descritto dallo studio come "errore di deposito legale generato dall'IA", ha evidenziato una lacuna nelle proprie salvaguardie interne.
Perché l'errore è rilevante per il settore legale
Gli strumenti di intelligenza artificiale stanno diventando sempre più parte del flusso di lavoro quotidiano degli avvocati, dalla redazione di memorie alla ricerca di precedenti. Tuttavia, quando tali strumenti producono citazioni inaccurate o fabbricano giurisprudenza – un fenomeno noto come allucinazione – le conseguenze possono essere gravi. In questo caso, la citazione errata avrebbe potuto indebolire la posizione del cliente in una disputa di fusione da diversi miliardi di dollari.
Le politiche IA erano in vigore, ma non sono state rispettate
Il partner Andrew Dietderich ha spiegato che Sullivan & Cromwell dispone di una politica IA formale progettata per prevenire esattamente questo tipo di inconveniente. La politica prevede:
- Revisione umana di ogni estratto generato dall'IA prima della presentazione.
- Verifica incrociata delle citazioni con banche dati legali verificate.
- Documentazione dello strumento IA utilizzato, della sua versione e del prompt che ha generato il contenuto.
Implicazioni più ampie: quanto è affidabile l'IA legale?
Indagini condotte dall'International Legal Technology Association nel 2024 hanno mostrato che il 32% dei grandi studi ha sperimentato almeno un errore legato all'IA nell'ultimo anno. Inoltre, un rapporto Gartner del 2025 prevedeva che entro il 2027 il 45% di tutte le ricerche legali sarebbe stato svolto dall'IA, ma solo il 18% degli studi si sente pienamente sicuro dei propri quadri di governance IA.
Parere di esperti: bilanciare innovazione e due diligence
"L'IA può accelerare drasticamente il processo di redazione, ma introduce anche una nuova classe di rischio", afferma Laura Mendoza, professoressa di diritto e tecnologia alla Columbia University. "Gli studi devono trattare i risultati dell'IA come bozza, non come autorità definitiva, e inserire più livelli di supervisione umana."
Cosa sta facendo Sullivan & Cromwell dopo l'incidente
In seguito all'incidente, lo studio ha annunciato una serie di azioni correttive, tra cui:
- Formazione di aggiornamento obbligatoria sulla politica IA per tutti gli associati e i partner.
- Implementazione di un registro di audit automatizzato che segnala qualsiasi testo generato dall'IA privo di approvazione umana.
- Coinvolgimento di una consulenza esterna di etica IA per rivedere e rafforzare i protocolli esistenti.
Prospettive future: la governance dell'IA nel diritto
Man mano che gli strumenti IA diventano più sofisticati, il settore legale si trova di fronte a un paradosso: la stessa tecnologia che promette efficienza richiede una supervisione rigorosa. Organizzazioni di settore come l'American Bar Association stanno già redigendo regole modello per l'uso dell'IA, sottolineando trasparenza, responsabilità e monitoraggio continuo.
Conclusione: imparare dall'errore di deposito legale generato dall'IA
L'episodio di Sullivan & Cromwell è un monito per ogni studio che naviga nella frontiera dell'IA. Sebbene la parola chiave principale – errore di deposito legale generato dall'IA – catturi l'incidente, la lezione più ampia è chiara: la tecnologia deve essere affiancata da controlli umani rigorosi. Gli studi legali che integrano meccanismi di revisione solidi non solo eviteranno costosi errori, ma si posizioneranno come leader nell'adozione responsabile dell'IA. Rimani informato, rimani vigile e considera come la tua organizzazione possa rafforzare oggi le proprie salvaguardie IA.
