
São Paulo — InkDesign News — Recentes casos envolvendo inteligência artificial têm gerado polêmica nos tribunais, com juízes expressando preocupação crescente sobre erros ocorridos em documentos legais gerados por algoritmos. A integração do machine learning nas práticas jurídicas está desafiando a precisão e a confiabilidade de processos judiciais.
Contexto da pesquisa
A utilização de inteligência artificial na produção de documentos legais cresce em popularidade entre advogados, principalmente aqueles com limitações de tempo. No entanto, o fenômeno conhecido como “alucinações” de IA tem gerado preocupações significativas. Em casos recentes, como os do juiz Michael Wilner na Califórnia, documentos apresentados a juízes continham citações falsas, levando a sanções para os advogados envolvidos. Na ocasião, o juiz impôs uma multa de US$ 31.000 a um escritório renomado após descobrir que eles utilizaram modelos de IA, como o Google Gemini, que geraram informações imprecisas.
Método e resultados
O algoritmo utilizado no caso de Wilner, assim como outros semelhantes, incorpora modelos de linguagem como o GPT-4 e o Google Gemini, que necessitam de grandes conjuntos de dados para aprender e gerar texto. Embora esses modelos sejam projetados para fornecer respostas coerentes e úteis, eles têm uma tendência notável para gerar informações incorretas. Um exemplo recente veio de um documento submetido pela Anthropic, onde um advogado pediu à IA Claude que fornecesse uma citação legal. O resultado foi uma referência errada, que não foi identificada durante a revisão do documento.
Implicações e próximos passos
Esses erros levantam debates críticos em torno da ética no uso de IA em contextos judiciais. A falha em verificar a precisão das informações geradas por IA pode não apenas prejudicar casos específicos, mas também comprometer a integridade do sistema judicial. A especialista Maura Grossman enfatiza que a confiança excessiva em tecnologias de IA se deve à sua fluência na linguagem, fazendo com que profissionais habitualmente meticulosos sejam induzidos a um erro de confiança.
“We assume that because these large language models are so fluent, it also means that they’re accurate.”
(“Assumimos que, porque esses modelos de linguagem são tão fluentes, isso também significa que eles são precisos.”)— Maura Grossman, Professora, Universidade de Waterloo
O desafio agora é como integrar a IA nas práticas jurídicas de maneira que a precisão não seja comprometida. Há necessidade de mais regime de supervisão e treinamento para advogados sobre os limites da tecnologia.
“If anything, they’ve sped up.”
(“Se algo, eles aceleraram.”)— Maura Grossman, Professora, Universidade de Waterloo
À medida que a adoção de ferramentas baseadas em IA continua a se expandir, as instituições jurídicas devem considerar a implementação de diretrizes rigorosas para garantir a precisão e a confiabilidade na documentação legal, prevenindo impactos adversos em decisões judiciais futuras.
Fonte: (MIT Technology Review – Artificial Intelligence)