LOKA revoluciona identidade universal em AI além de A2A e MCP

São Paulo — InkDesign News — A rápida expansão da inteligência artificial, especialmente no uso de agentes autônomos, demanda protocolos que assegurem identidade, ética e interoperabilidade. Pesquisadores da Carnegie Mellon University propõem o protocolo Layered Orchestration for Knowledgeful Agents (LOKA), que visa padronizar a comunicação e governança ética de agentes inteligentes. Esse desenvolvimento se destaca num contexto onde modelos baseados em deep learning e LLMs operam em sistemas isolados, dificultando integração e responsabilização.
Tecnologia e abordagem
O LOKA é um framework baseado em uma arquitetura em camadas que começa com a camada de identidade, onde é atribuído a cada agente um identificador descentralizado, criptograficamente verificável. Essa identidade universal possibilita a autenticação segura e confiança nas interações. A camada seguinte é a comunicação, em que agentes transmitem intenções e comandos contextualizados. Destaca-se a camada ética, que insere um modelo flexível para tomada de decisões alinhadas a valores morais e regulatórios variados, utilizando modelos de decisão coletiva para validar ações. Por fim, a camada de segurança incorpora criptografia resistente a ataques quânticos, fortalecendo a proteção dos dados e decisões dos agentes.
Aplicação e desempenho
LOKA permite que agentes não apenas comuniquem suas intenções de forma semântica e ética, mas também sejam auditáveis, facilitando rastreamento das decisões em ambientes corporativos. Isso responde à preocupação sobre agentes autônomos acessando sistemas e dados privados inadvertidamente ou agindo de forma não autorizada. O protocolo é open source, promovendo adoção colaborativa e evolução do padrão. Embora ainda em fase de pesquisa, tem recebido recepção positiva na comunidade acadêmica e em instituições interessadas em ampliar sua aplicação prática no mercado.
Impacto e mercado
No mercado, LOKA compete com protocolos consolidados como o Agent2Agent (A2A) do Google e o Model Context Protocol (MCP) da Anthropic, que contam com grandes organizações por trás e uma ampla base de usuários. Todavia, a proposta da Carnegie Mellon destaca a necessidade de um olhar aprofundado para identidade, intenção e consenso ético, elementos frequentemente subestimados na pressa por escalabilidade dos agentes. Empresas que buscam segurança e transparência na automação podem encontrar no LOKA uma solução robusta para garantir conformidade e responsabilização.
“Nossa visão é iluminar as questões críticas que frequentemente são ofuscadas na corrida para escalar agentes de IA: como criar ecossistemas onde esses agentes possam ser confiáveis, responsabilizados e interoperáveis eticamente em sistemas diversos?”
(“Our vision is to illuminate the critical questions that are often overshadowed in the rush to scale AI agents: How do we create ecosystems where these agents can be trusted, held accountable, and ethically interoperable across diverse systems?”)— Rajesh Ranjan, Pesquisador, Carnegie Mellon University
Os próximos passos incluem expansão do projeto LOKA com parcerias institucionais e testes de implementação em ambientes industriais, buscando ampliar sua aceitação e validar seu modelo de governança distribuída para o futuro da inteligência artificial autônoma.
Fonte: (VentureBeat – AI)