Google reduz transparência da AI e desenvolvedores ficam sem suporte

São Paulo — InkDesign News — A recente decisão do Google de ocultar os tokens de raciocínio do seu modelo Gemini 2.5 Pro trouxe à tona debates sobre transparência em inteligência artificial (IA). Com o crescente uso de modelos de linguagem grandes (LLMs) em sistemas críticos, a falta de visibilidade nas decisões das IA levanta preocupações importantes para desenvolvedores e empresas.
Tecnologia e abordagem
O Gemini 2.5 Pro, um modelo de IA avançado, utiliza uma abordagem conhecida como "Chain of Thought" (CoT), que consiste em um monólogo interno onde o modelo desenvolve uma série de passos intermediários antes de chegar a uma resposta final. Este método permite que os desenvolvedores compreendam como a IA processa informações e raciocina. “Sem isso, os desenvolvedores ficam no escuro. Não consigo diagnosticar problemas adequadamente se não consigo ver a corrente de pensamentos como antes”, explica um usuário do fórum do Google.
Aplicação e desempenho
A transparência fornecida pela CoT era considerada uma vantagem crítica do Gemini 2.5 Pro em comparação com os modelos da OpenAI, como o o1 e o o3. Contudo, a mudança para um resumo simplificado das respostas foi justificada pelo Google como uma melhoria na experiência do usuário. Logan Kilpatrick, gerente de produto sênior do Google DeepMind, afirmou que a mudança é “puramente estética” e não afeta o desempenho interno do modelo. No entanto, a eliminação dos tokens de raciocínio levantou preocupações sobre a capacidade dos desenvolvedores de ajustar os prompts e instruções do sistema, que são fundamentais para guiar o comportamento do modelo.
Impacto e mercado
O movimento em direção à opacidade nos modelos de IA pode criar riscos significativos. Modelos que ocultam sua lógica interna dificultam a confiança em suas saídas em cenários de alto risco. Esta tendência, iniciada pelos modelos de raciocínio da OpenAI, abre espaço para alternativas de código aberto, como DeepSeek-R1 e QwQ-32B, que prometem maior controle e transparência. Com a crescente pressão por características de observabilidade, a possibilidade de um “modo desenvolvedor” que reabilite o acesso às correntes de raciocínio é uma solução que o Google está considerando para atender à demanda dos desenvolvedores.
O impacto da decisão do Google se estende além da experiência do usuário, afetando a dinâmica entre inovação e competição no setor de IA. As empresas precisarão ponderar entre a escolha de modelos de alto desempenho mas opacos e aqueles mais transparentes que permitem uma integração mais segura.
Próximos passos envolverão um discurso contínuo sobre a importância da transparência em sistemas de IA, enquanto as empresas buscam um equilíbrio entre desempenho e confiança.
Fonte: (VentureBeat – AI)