Pular para o conteúdo principal

Juízes estão fartos de advogados que usam IA para alucinar casos judiciais

 

Este artigo foi produzido em colaboração com Court Watch , um canal independente que desenterra registros judiciais negligenciados. Assine-os aqui .

Depois que um grupo de advogados foi pego usando IA para citar casos que não existiam em documentos judiciais no mês passado, outro advogado foi obrigado a pagar US$ 15.000 por suas próprias alucinações de IA que apareceram em vários resumos. 

O advogado Rafael Ramirez, que representou uma empresa chamada HoosierVac em um caso em andamento onde o Mid Central Operating Engineers Health and Welfare Fund alega que a empresa não está permitindo ao sindicato uma auditoria completa de seus livros e registros, entrou com um resumo em outubro de 2024 que citou um caso que o juiz não conseguiu localizar. Ramirez "reconheceu que a citação referenciada estava errada", retirou a citação e "pediu desculpas ao tribunal e ao advogado adversário pela confusão", de acordo com o juiz Mark Dinsmore , juiz magistrado dos EUA para o Distrito Sul de Indiana. Mas esse não foi o fim. Uma "revisão exaustiva" dos outros registros de Ramirez no caso mostrou que ele também incluiu casos inventados em dois outros resumos. 

“O Sr. Ramirez explicou que já havia usado IA antes para auxiliar em questões legais, como redigir acordos, e não sabia que a IA era capaz de gerar casos e citações fictícios”, escreveu o Juiz Dinsmore em documentos judiciais protocolados na semana passada. “Essas 'citações de alucinação', afirmou o Sr. Ramirez, incluíam trechos de texto que pareciam ser confiáveis. Como tal, o Sr. Ramirez não conduziu nenhuma pesquisa adicional, nem fez nenhuma tentativa de verificar a existência das citações geradas. O Sr. Ramirez relatou que desde então fez cursos de educação jurídica continuada sobre o tópico do uso de IA e continua a usar produtos de IA que lhe garantiram que não produzirão 'citações de alucinação'.” 

Mas a explicação e a promessa de Ramirez de se educar sobre o uso da IA ​​não foram suficientes, e o juiz o repreendeu por não ter feito sua pesquisa antes de entrar com o processo. “Está abundantemente claro que o Sr. Ramirez não fez a investigação razoável necessária sobre a lei. Se ele tivesse despendido um esforço mínimo para fazê-lo, ele teria descoberto que os casos gerados pela IA não existem. O fato de os trechos gerados pela IA parecerem válidos para o Sr. Ramirez não o isenta de seu dever de conduzir uma investigação razoável”, continuou o Juiz Dinsmore, antes de recomendar que Ramirez fosse sancionado em US$ 15.000.

 

O juiz escreveu que ele “não pretende sugerir que a IA seja inerentemente ruim ou que seu uso por advogados deva ser proibido”, e observou que ele é um defensor vocal do uso da tecnologia na profissão jurídica. “No entanto, assim como uma serra elétrica ou outras ferramentas úteis [mas] potencialmente perigosas, é preciso entender as ferramentas que estão sendo usadas e usá-las com cautela”, ele escreveu. “Não é preciso dizer que qualquer uso de inteligência artificial deve ser consistente com as obrigações éticas e profissionais do advogado. Em outras palavras, o uso de inteligência artificial deve ser acompanhado pela aplicação de inteligência real em sua execução.” 

Em janeiro , como parte de um caso separado contra um fabricante de hoverboard e o Walmart buscando indenização por uma bateria de lítio supostamente defeituosa, advogados entraram com documentos judiciais que citavam uma série de casos que não existem. Em fevereiro, o juiz distrital dos EUA Kelly exigiu que eles explicassem por que não deveriam ser sancionados por fazer referência a oito casos inexistentes. Os advogados admitiram contritamente usar IA para gerar os casos sem detectar os erros e chamaram isso de "conto de advertência" para o resto do mundo jurídico.  

Na semana passada, o juiz Rankin emitiu sanções a esses advogados, de acordo com novos registros, incluindo a revogação da admissão pro hac vice de um dos advogados (termo legal que significa que um advogado pode exercer temporariamente em uma jurisdição onde não é licenciado) e o removeu do caso, e os outros três advogados do caso foram multados entre US$ 1.000 e US$ 3.000 cada. 

 

Comentários

Postagens mais visitadas deste blog

“internet zumbi”

 A ascensão do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que já foram humanos, mas não se misturam mais para formar um site desastroso onde há pouca conexão social”. Nick Clegg, presidente de assuntos globais da empresa-mãe do Facebook, Meta, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “Como a diferença entre conteúdo humano e sintético fica turva, as pessoas querem saber onde está o limite”, escreveu ele. O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor-gerente da agência de marketing digital AccuraCast, com sede no Reino Unido, diz que agora está encontrando casos em que os usuários estão sinalizando erroneamente os anúncios como slop feitos de IA quando não estão. “Vimos casos em que as pessoas comentara...

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível...

Apple Intelligence

  O iOS 18.2 trouxe  uma série de novos recursos dentro da suíte Apple Intelligence   e isso também está exigindo mais armazenamento livre nos iPhones, iPads e Macs compatíveis. Conforme as novas diretrizes da Apple, agora  o usuário precisa manter ao menos 7 GB de memória livre  no dispositivo caso deseje usar as funcionalidades de Inteligência Artificial. Ou seja, um aumento considerável em relação aos 4 GB de armazenamento  exigidos anteriormente no iOS 18.1 . A Apple diz que essa mudança é necessária porque muitas das funções de IA são processadas localmente pela NPU Apple Silicon, algo que exige mais espaço de memória. Caso o usuário não tenha os 7 GB disponíveis, ele será impedido de usar a IA para gerar emojis (Genmoji) ou conversar com a nova Siri, que tem o ChatGPT integrado.   Recursos mais "simples", como a tradução ou resumo de textos, também deixam de funcionar. Na prática, usuários que procuram comprar os novos aparelhos da linha  iP...