Nenhum dos juízes explicou a causa dos erros até que o comitê os contatasse.
O uso de inteligência synthetic generativa tornou-se mais comum no sistema judicial dos EUA. Wingate e Neals juntam-se a vários advogados e litigantes que foram repreendidos por usarem IA para produzir processos judiciais repletos de erros.
Grupos jurídicos ainda estão se recuperando.
O Gabinete Administrativo dos Tribunais dos EUA, que apoia o sistema judicial federal, emitiu orientações provisórias em julho que sugerem que os utilizadores “considerem se o uso de IA deve ser divulgado” em funções judiciais.
Também estabeleceu uma força-tarefa para emitir orientações adicionais sobre o uso de IA em tribunais federais.
Grassley disse na terça-feira que os tribunais federais precisam estabelecer regras sobre o uso de IA em litígios.
“Apelo a todos os juízes da América para que levem esta questão a sério e formalizem medidas para prevenir o uso indevido de inteligência synthetic nos seus gabinetes”, disse ele.
Wingate e Neals disseram em suas cartas que tomaram medidas corretivas após serem alertados sobre os erros e implementarão revisões adicionais dos processos judiciais antes de serem apresentados.
Neals disse que estabeleceu uma política escrita em seus gabinetes proibindo o uso de IA generativa em pesquisas jurídicas ou na elaboração de processos judiciais.
Wingate não respondeu imediatamente a um pedido de comentário. O escritório de Neals não quis comentar.
Caso um: educação no Mississippi
Wingate, que o presidente Ronald Reagan nomeou para o tribunal em 1985, estava supervisionando um caso movido pela Federação de Professores de Jackson e outros grupos de defesa contra o Conselho Estadual de Educação do Mississippi e outros órgãos estaduais.
O processo contestou uma lei estatal que proíbe as escolas públicas de ensinar “ideologia transgénero” e “formação em diversidade” sobre temas de raça, género e orientação sexual.
Em 20 de julho, Wingate concedeu uma ordem de restrição temporária que impediu o estado de aplicar partes da proibição. Dois dias depois, num pedido de esclarecimento, os advogados do Mississippi disseram que a ordem de Wingate estava repleta de erros.
A ordem nomeou vários demandantes e réus, incluindo um clube universitário, um pai do Mississippi, estudantes e funcionários do governo, que não eram partes no caso, de acordo com a resposta dos advogados do Mississippi.
A ordem descrevia alegações que não apareciam na reclamação do demandante e citava falsamente a legislação como bloqueada, observaram os advogados. A ordem também citou declarações de indivíduos em apoio a uma ordem de restrição que não existia.
O gabinete de Wingate emitiu uma ordem de restrição corrigida naquela noite e disse às partes para desconsiderarem a anterior. O caso está em andamento; Wingate concedeu uma liminar contra a legislação em agosto, da qual os advogados do Mississippi apelaram.
Caso dois: produto médico
Neals, que foi nomeado pelo presidente Joe Biden em 2021, emitiu um parecer com erros em uma ação coletiva de títulos federais contra a CorMedix, uma empresa farmacêutica, por alegações de que ela enganou os investidores sobre um produto médico.
Em 30 de junho, Neals negou uma moção da CorMedix para encerrar o processo. Cerca de um mês depois, os advogados da CorMedix escreveram que a opinião de Neals continha casos fabricados e citações inexistentes de casos reais citados em apoio à sua decisão.
Ele distorceu os resultados dos casos e se os pedidos de apelação para rejeitar foram concedidos. Também atribuiu citações falsas à CorMedix, de acordo com a carta.
A opinião de Neals também foi apresentada como “autoridade suplementar” em apoio a outra ação coletiva, cujos réus também levantaram as questões com sua ação, dizia a carta.
Neals disse que a opinião foi inserida por engano e a retirou da pauta do tribunal. O caso está em andamento.
Os erros nas ordens de ambos os juízes foram semelhantes aos causados por alucinações de IA – onde a IA generativa, que produz texto prevendo quais palavras se sucedem a partir de uma análise do conteúdo escrito, inventa com confiança factos e citações falsas. Os observadores rapidamente especularam que os erros tinham vindo do uso da IA.
A princípio, diante de questionamentos de advogados e litigantes, nenhum dos juízes admitiu que os erros estavam relacionados à IA. Grassley, em seu discurso, chamou sua “falta de transparência… de tirar o fôlego”.
O Comitê Judiciário do Senado escreveu a Neals e Wingate no início de outubro perguntando sobre os erros, disse.
Ambos os juízes disseram em suas respostas que os erros eram atribuíveis à IA, mas que os registros eram rascunhos publicados por engano antes da revisão.
Um secretário jurídico do escritório de Wingate usou a ferramenta Perplexity AI como um “assistente de redação elementary” para sintetizar informações publicamente disponíveis sobre a pauta do tribunal, escreveu Wingate. Um estagiário da faculdade de direito de Neals usou o ChatGPT para realizar pesquisas jurídicas, escreveu Neals.
(O Washington Put up tem parceria com a Perplexity e o criador do ChatGPT, OpenAI.)
“Eu administro uma agenda muito ocupada e me esforço para manter a confiança do público, administrando a justiça de maneira justa e transparente”, escreveu Wingate. “Dado que eu e minha equipe seguimos os mais altos padrões de conduta, não espero que um erro como este ocorra no futuro.”
“Embora a minha experiência no caso CorMedix tenha sido muito infeliz e imprevisível, espero que, pelo menos, informe o [Administrative Office of the Courts] O trabalho contínuo da Força-Tarefa levará, em última análise, a novas políticas significativas para todos os tribunais federais”, escreveu Neals.
Inscreva-se nas escolhas do editor do Herald Premiumentregue diretamente na sua caixa de entrada todas as sextas-feiras. O editor-chefe Murray Kirkness escolhe os melhores recursos, entrevistas e investigações da semana. Inscreva-se no Herald Premium aqui.











