
São Paulo — InkDesign News — A inteligência artificial (IA) está em um momento crítico em sua evolução, especialmente no que diz respeito a modelos de aprendizado profundo (deep learning) e grandes modelos de linguagem (LLM). A necessidade de integrar a supervisão humana com algoritmos autônomos está emergindo como uma solução pragmática para prevenir falhas catastróficas.
Tecnologia e abordagem
O modelo “colega no loop” (colleague-in-the-loop) desenvolvido pela platform Mixus se destaca nessa nova abordagem. Essa técnica não apenas automatiza tarefas repetitivas, mas também incorpora revisões humanas em pontos críticos do processo. De acordo com Elliot Katz, co-fundador da Mixus, “um agente de IA deve agir sob sua direção e em seu nome” (an AI agent should act at your direction and on your behalf). A plataforma garante que as interações com a IA sejam supervisionadas, especialmente em decisões de alto risco, onde a precisão é vital.
Aplicação e desempenho
Recentemente, um estudo da Salesforce revela que os agentes de IA atuais conseguem apenas 58% de precisão em tarefas simples e 35% em tarefas complexas. Esses números refletem uma lacuna significativa entre as capacidades das LLMs e as exigências do mundo real. A Mixus oferece uma solução ao permitir que analistas humanos revisem relatórios cruciais automáticos, como dados operacionais de grandes varejistas, tornando o processo mais eficiente e seguro.
Katz ressalta que “os humanos só se envolvem quando sua experiência realmente agrega valor — tipicamente os 5-10% das decisões que podem ter impacto significativo” (humans only get involved when their expertise actually adds value — typically the critical 5-10% of decisions that could have significant impact). Com isso, as decisões rotineiras fluem automaticamente através das IAs, aumentando a velocidade e a eficiência.
Impacto e mercado
À medida que empresas avançam de testes para implementações de IA em larga escala, a necessidade de supervisão humana se torna mais evidente. A previsão da Mixus é que, até 2030, a implementação de agentes aumente em 1000 vezes, e cada supervisor humano se tornará 50 vezes mais eficiente à medida que os agentes de IA se tornem mais confiáveis. Contudo, a demanda total por supervisão humana deverá crescer.
Katz observa que “empresas que dominarem essa multiplicação dominarão suas indústrias, enquanto aquelas que buscarem automação total enfrentarão problemas de confiabilidade, conformidade e confiança” (companies that master this multiplication will dominate their industries, while those chasing full automation will struggle with reliability, compliance, and trust).
A forma como os líderes empresariais adotam essas novas tecnologias definirá não apenas sua competitividade, mas também a integridade da estrutura de IA em suas operações.
Fonte: (VentureBeat – AI)