
São Paulo — InkDesign News — Um novo avanço em inteligência artificial surge com a introdução do método Multi-LLM AB-MCTS pelo laboratório japonês Sakana AI. Essa técnica permite que múltiplos modelos de linguagem, conhecidos como LLMs, colaborem em tarefas específicas, otimizando suas capacidades individuais para resolver problemas complexos.
Tecnologia e abordagem
O método Multi-LLM AB-MCTS combina as virtudes do Monte Carlo Tree Search (MCTS) com um algoritmo de teste em tempo de inferência, permitindo que os LLMs participem de um processo colaborativo. A partir da análise probabilística, o sistema decide se deve "aprofundar" em uma solução existente ou "expandir" para novas abordagens. A pesquisa indica que cada LLM traz uma especialização, como programação ou criatividade, o que pode ser explorado coletivamente.
“Vemos esses vieses e aptidões variadas não como limitações, mas como recursos preciosos para criar inteligência coletiva.”
(“We see these biases and varied aptitudes not as limitations, but as precious resources for creating collective intelligence.”)— Pesquisadores da Sakana AI
Aplicação e desempenho
Na validação do modelo, o time testou o sistema Multi-LLM AB-MCTS no benchmark ARC-AGI-2, que desafia a inteligência artificial a resolver problemas de raciocínio visual. Os modelos em colaboração superaram a performance individual, alcançando soluções corretas em mais de 30% dos casos testados. Essa combinação de LLMs não apenas melhorou o desempenho, mas também conseguiu resolver problemas que nenhum modelo conseguiria individualmente.
“Isso demonstra que o Multi-LLM AB-MCTS pode combinar flexivelmente modelos de ponta para resolver problemas anteriormente insolúveis.”
(“This demonstrates that Multi-LLM AB-MCTS can flexibly combine frontier models to solve previously unsolvable problems.”)— Takuya Akiba, Cientista de Pesquisa, Sakana AI
Impacto e mercado
Com a liberação do algoritmo como uma estrutura de código aberto chamada TreeQuest, a Sakana AI busca democratizar o acesso a esta tecnologia. O framework permite que desenvolvedores implementem o Multi-LLM AB-MCTS em situações comerciais, aumentando potencialmente a robustez de sistemas de IA. A escalabilidade e a capacidade de alavancar diferentes LLMs para tarefas específicas são vistos como grandes vantagens.
Esse avanço pode ser crucial para empresas que lidam com problemas complexos, como otimização de desempenho de software e melhoria na precisão de modelos de aprendizado de máquina. Com o teste inicial bem-sucedido, as possibilidades de aplicações práticas são promissoras.
À medida que mais organizações exploram a capacidade deste sistema, espera-se que o Multi-LLM AB-MCTS se torne um aliado significativo no desenvolvimento de soluções de inteligência artificial mais eficazes e confiáveis.
Fonte: (VentureBeat – AI)