Machine learning promete avanço, mas traz riscos para o público

São Paulo — InkDesign News —
Nas recentes discussões sobre machine learning, os pesquisadores se deparam com novos avanços que prometem revolucionar a inteligência artificial (AI) e suas aplicações, embora desafios significativos permaneçam. A integração de modelos robustos, como os LLMs, ainda apresenta barreiras que devem ser superadas para garantir resultados confiáveis.
Contexto da pesquisa
A crescente demanda por soluções em AI tem levado a um investimento massivo em tecnologias emergentes. A pesquisa foca em Modelos de Linguagem Grande (LLMs), que têm se mostrado eficazes na geração de texto fluido, mas que ainda são propensas a “alucinações”, falhas que resultam em respostas incorretas. “Os LLMs são motores estatísticos incapazes de distinguir entre fato e ficção” (“LLMs are statistical engines, incapable of distinguishing fact from fabrication”).
“Os LLMs são motores estatísticos incapazes de distinguir entre fato e ficção”
(“LLMs are statistical engines, incapable of distinguishing fact from fabrication”).— Pesquisador, Instituto de IA
Método proposto
Para abordar os problemas de qualidade nos LLMs, a pesquisa propõe uma nova estratégia de alineação retrospectiva, que ajusta as saídas de modelos após o treinamento, visando mitigar a propagação de desinformação e discurso de ódio. O estudo utiliza benchmarks como o GLUE e SQuAD para avaliar a eficácia do modelo. Os dados foram coletados de diversas fontes, incluindo interações online e registros públicos, para fornecer uma base ampla para o treinamento e validação.
Resultados e impacto
Os resultados preliminares indicam uma redução de 30% nas alucinações ao implementar o método de alineação, embora isso também implique uma diminuição na quantidade de respostas utilizáveis. “A filtragem pode reduzir a utilização, mas é necessária para garantir a integridade das informações” (“Filtering may reduce usability but is necessary to ensure the integrity of information”).
“A filtragem pode reduzir a utilização, mas é necessária para garantir a integridade das informações”
(“Filtering may reduce usability but is necessary to ensure the integrity of information”).— Pesquisador, Universidade de São Paulo
O impacto dessas inovações em machine learning é significativo, com implicações em setores como saúde, segurança e comunicação. A aplicação de LLMs alinhados de forma responsável pode transformar a forma como interagimos com a tecnologia, promovendo um futuro mais seguro e preciso. O próximo passo envolve testes rigorosos em ambientes do mundo real para avaliar a eficácia contínua do método proposto.
Fonte: (TechXplore – Machine Learning & AI)