Loading market data...

Escritório de Advocacia Enfrenta Erro de Arquivamento Gerado por IA Após Alucinação

Escritório de Advocacia Enfrenta Erro de Arquivamento Gerado por IA Após Alucinação

O que aconteceu: o deslize de IA da Sullivan & Cromwell

No início de março de 2026, a Sullivan & Cromwell, sediada em Nova Iorque, emitiu um pedido público de desculpas depois que uma alucinação gerada por IA foi inserida em um arquivamento jurídico de alto risco. O erro, descrito pela empresa como um "erro de arquivamento legal gerado por IA", evidenciou uma falha nas salvaguardas internas da própria firma.

Por que o erro importa para o setor jurídico

Ferramentas de inteligência artificial estão se tornando cada vez mais parte do fluxo de trabalho diário dos advogados, desde a redação de petições até a pesquisa de precedentes. No entanto, quando essas ferramentas produzem citações imprecisas ou fabricam jurisprudência – fenômeno conhecido como alucinação – as repercussões podem ser graves. Neste caso, a citação errônea poderia ter comprometido a posição do cliente em uma disputa de fusão de vários bilhões de dólares.

Políticas de IA estavam em vigor — mas não foram seguidas

O sócio Andrew Dietderich explicou que a Sullivan & Cromwell possui uma política formal de IA projetada para evitar exatamente esse tipo de incidente. A política exige:

  • Revisão humana de cada trecho gerado por IA antes da submissão.
  • Verificação cruzada das citações em bancos de dados jurídicos certificados.
  • Documentação da ferramenta de IA utilizada, sua versão e o prompt que gerou o conteúdo.
Apesar dessas salvaguardas, a firma admitiu que a equipe responsável pelo arquivamento ignorou a etapa de revisão, permitindo que o material alucinado chegasse ao tribunal.

Implicações mais amplas: quão confiável é a IA jurídica?

Pesquisas realizadas pela International Legal Technology Association em 2024 revelaram que 32 % das grandes firmas já haviam experimentado ao menos um erro relacionado à IA no último ano. Além disso, um relatório da Gartner de 2025 projetou que, até 2027, 45 % de toda a pesquisa jurídica será realizada por IA, mas apenas 18 % das firmas se sentem totalmente confiantes em seus frameworks de governança de IA.

Visão de especialista: equilibrando inovação com diligência

"A IA pode acelerar dramaticamente o processo de redação, mas também introduz uma nova classe de risco", afirma Laura Mendoza, professora de direito e tecnologia da Columbia University. "As firmas precisam tratar as saídas de IA como material preliminar, não como autoridade final, e incorporar múltiplas camadas de supervisão humana."

O que a Sullivan & Cromwell está fazendo a seguir

Após o incidente, a firma anunciou uma série de medidas corretivas, incluindo:

  1. Treinamento de reciclagem obrigatório sobre a política de IA para todos os associados e sócios.
  2. Implementação de um registro de auditoria automatizado que sinaliza qualquer texto gerado por IA sem aprovação humana.
  3. Contratação de uma consultoria externa especializada em ética de IA para revisar e reforçar os protocolos existentes.
Essas ações visam reconquistar a confiança dos clientes e demonstrar que a firma está comprometida em prevenir futuras alucinações.

O futuro da governança de IA no direito

À medida que as ferramentas de IA se tornam mais sofisticadas, o setor jurídico enfrenta um paradoxo: a mesma tecnologia que promete eficiência também exige supervisão rigorosa. Órgãos da indústria, como a American Bar Association, já estão elaborando regras modelo para o uso de IA, enfatizando transparência, responsabilidade e monitoramento contínuo.

Conclusão: aprendendo com o erro de arquivamento legal gerado por IA

O episódio da Sullivan & Cromwell serve como um alerta para todas as práticas que navegam na fronteira da IA. Embora a palavra‑chave principal — erro de arquivamento legal gerado por IA — capture o incidente, a lição mais ampla é clara: a tecnologia deve ser acompanhada por controles humanos rigorosos. Escritórios que incorporam mecanismos de revisão robustos não apenas evitarão erros custosos, mas também se posicionarão como líderes na adoção responsável de IA. Mantenha‑se informado, vigilante, e considere como sua organização pode reforçar hoje as salvaguardas de IA.