
São Paulo — InkDesign News — No atual cenário da inteligência artificial, a definição de “agente” varia amplamente, levando a confusões em consumidores e a uma expectativa desajustada sobre as capacidades dessas ferramentas, que vão de scripts simples a fluxos de trabalho complexos.
Contexto da pesquisa
A evolução das tecnologias de inteligência artificial, em particular os modelos de linguagem de grande escala (LLMs), tem gerado um fenômeno conhecido como “agentwashing”. Essa prática, que implica em caracterizar sistemas de automação básica como agentes inteligentes, resulta em frustração entre os usuários. As declarações sobre a autonomia e confiabilidade das máquinas ainda estão em desenvolvimento, tornando essencial a construção de expectativas mais claras acerca das operações de tais sistemas. A AI21, cofundada por uma das vozes proeminentes no setor, está explorando essa área, investindo em desenvolvimentos que visam aumentar a credibilidade em ambientes corporativos.
Método e resultados
Os agentes de IA modernos são frequentemente impulsionados por LLMs, que empregam algoritmos complexos como o GPT-4 e arquiteturas Transformer para gerar respostas probabilísticas. Esses modelos são potentes, mas também apresentam imprevisibilidade; frequentemente criam informações não verificadas durante tarefas que exigem múltiplos passos ou a integração de ferramentas externas. Um caso recente destacou essa falha, quando um assistente automatizado da plataforma Cursor alegou a inexistência de um recurso, o que levou a cancelamentos em massa de assinaturas. Constatou-se, posteriormente, que a informação era totalmente inventada pela IA.
Implicações e próximos passos
As falhas desses sistemas podem resultar em danos significativos, especialmente em ambientes corporativos. Assim, deve-se começar a integrar LLMs em sistemas completos que levem em consideração a incerteza e a segurança dos dados. A proposta do protocolo A2A do Google visa facilitar a colaboração entre diferentes agentes, ainda que enfrente desafios relacionados à comunicação e ao entendimento entre sistemas. Essa ideia, enquanto inovadora, carece de um vocabulário compartilhado que esclareça as intenções dos agentes. Sem isso, a coordenação se torna frágil, semelhante a problemas já observados na computação distribuída.
As práticas atuais precisam mudar para assegurar que os modelos de linguagem operem dentro de contextos definidos e respeitem políticas corporativas de informação.
(“the policies didn’t exist”)— Nome, Cargo, Instituição
O desafio reside não apenas na implementação dessas tecnologias, mas também na necessidade de uma abordagem ética e responsável em sua adoção. A evolução desse campo pode levar a um futuro onde agentes autônomos operem com eficácia, mas para isso, um trabalho coletivo de padronização e compreensão será fundamental.
Fonte: (MIT Technology Review – Artificial Intelligence)