
Oxford, Reino Unido — InkDesign News — Pesquisas recentes exploram a confiança pública em conselhos legais gerados por inteligência artificial (AI) e machine learning, destacando desafios da integração dessas tecnologias em áreas críticas como o direito.
Contexto da pesquisa
O uso crescente de sistemas baseados em machine learning, como grandes modelos de linguagem (LLMs, na sigla em inglês), vem transformando a oferta de informações e serviços, inclusive em domínios legais. Contudo, a capacidade desses modelos de produzir respostas convincentes, porém potencialmente incorretas — denominadas “alucinações” — gera riscos significativos, sobretudo quando não se sabe a origem da informação.
Método proposto
Três experimentos envolvendo 288 participantes foram conduzidos por pesquisadores baseados na Universidade de Oxford. Nos dois primeiros, avaliou-se a disposição dos participantes em seguir conselhos legais sem saber se eles tinham origem humana ou em AI. O terceiro experimento analisou a capacidade dos participantes em identificar a origem do conselho dado. Foram comparadas respostas geradas por ChatGPT e advogados humanos, considerando a complexidade linguística e extensão das respostas.
Resultados e impacto
Os resultados indicaram que, quando a origem do conselho não era revelada, os participantes tendiam a confiar mais no conselho gerado por AI do que no fornecido por advogados humanos. Mesmo quando informados sobre a fonte, a confiança em ChatGPT foi equivalente à dos profissionais. A distinção entre conselhos humanos e automatizados foi leve, com desempenho médio levemente superior ao acaso (0,59 numa escala de 0,5 a 1,0).”
“Isso significa que, se um LLM fornecer conselho legal sem revelar sua natureza, as pessoas podem considerá-lo fato, preferindo-o ao aconselhamento especializado, possivelmente sem questionar sua precisão.”
(“This means that if an LLM gives legal advice without disclosing its nature, people may take it as fact and prefer it to expert advice by lawyers—possibly without questioning its accuracy.”)— Líder do estudo, Universidade de Oxford
Outro ponto destacado foi o uso da linguagem pelos LLMs, que apresentaram respostas mais complexas, ao contrário dos advogados, que usaram linguagem mais simples, porém com respostas mais extensas.
“É crucial regulamentar essas tecnologias e melhorar a literacia em AI da população, para que possam avaliar criticamente o conteúdo e garantir decisões fundamentadas.”
(“It’s crucial to regulate these technologies and improve AI literacy among the public so they can critically evaluate content and ensure informed decisions.”)— Pesquisador principal, Universidade de Oxford
Como recomendação prática, a pesquisa sugere o uso da AI para consultas iniciais, orientando a busca por informações e áreas relevantes do direito, mas enfatiza a necessidade de validação com advogados humanos para evitar decisões erradas ou judiciais prejudiciais.
Os avanços indicam um futuro onde a integração responsável de AI em serviços legais depende tanto da regulação adequada, como do aumento da compreensão pública sobre a tecnologia.
Fonte: (TechXplore – Machine Learning & AI)