
Machine learning é uma área em constante evolução, e pesquisas recentes têm se concentrado em melhorar a colaboração entre agentes de inteligência artificial (IA) em sistemas multiagentes. Uma nova abordagem, inspirada nas estratégias de caça de lobos, busca aumentar a resiliência desses sistemas em condições adversas.
Contexto da pesquisa
São Paulo — InkDesign News — Um time de pesquisa liderado pelo Professor Seungyul Han, da Escola de Pós-Graduação em Inteligência Artificial da UNIST, desenvolveu um novo framework de ataque adversarial, que se inspira nas dinâmicas de caça de lobos. Esse trabalho foi apresentado na Conferência Internacional sobre Aprendizado de Máquina (ICML 2025) em Vancouver.
Método proposto
Os pesquisadores introduziram o modelo WALL (Wolfpack-Adversarial Learning), que integra cenários adversariais ao processo de treinamento dos agentes de IA. Através de simulações, o modelo reproduz ataques coordenados, onde um agente inicial é comprometido, levando a uma falha em cascata nos demais agentes. Essa abordagem utiliza modelos preditivos avançados para determinar o momento ideal para iniciar uma interrupção, focando em agentes que são sensíveis a indícios de cooperação.
(“Our approach offers a new perspective on assessing and fortifying the cooperative capabilities of AI agents. By simulating sophisticated adversarial scenarios, we can better prepare systems for unpredictable real-world challenges, contributing to safer and more reliable autonomous technologies.”)— Professor Seungyul Han, Escola de Pós-Graduação em Inteligência Artificial, UNIST
Resultados e impacto
As métricas experimentais demonstraram que agentes de IA treinados com o método WALL mantiveram a coordenação e o desempenho em tarefas, mesmo sob condições desafiadoras, como atrasos na comunicação e imprecisões nos sensores. Isso representa um avanço significativo na avaliação da robustez de sistemas multiagentes e abre caminho para a implementação de drones autônomos mais resilientes, enxames robóticos e soluções de automação industrial.
Além disso, o desenvolvimento do WALL pode mudar a forma como abordamos a segurança em sistemas de IA, permitindo uma melhor preparação contra possíveis perturbações. As futuras aplicações desse modelo incluem sua implementação em drones de combate, sistemas de entrega autônoma e fábricas inteligentes.
Fonte: (TechXplore – Machine Learning & AI)