
São Paulo — InkDesign News — Com o avanço das tecnologias de inteligência artificial (IA), um grupo de mais de 40 cientistas das principais instituições de pesquisa do setor, incluindo OpenAI, Google DeepMind, Anthropic e Meta, publicou recentemente um chamado para aprofundar os Estudos sobre monitoramento de segurança em IAs, especialmente na técnica conhecida como “chain of thought” (CoT), ou “cadeia de pensamento”.
Contexto e lançamento
O conceito de CoT monitoring surge em um momento em que a indústria de IA enfrenta cada vez mais críticas sobre a segurança e a ética em seus sistemas. Historicamente, modelos de IA treinados para compreender e interagir em linguagem humana têm sido uma evolução significativa desde os primeiros algoritmos de aprendizado de máquina. O estudo, que foi publicado por meio de um artigo de pesquisa, foi endossado por figuras proeminentes, como John Schulman e Ilya Sutskever, co-fundadores da OpenAI, além de Geoffrey Hinton, laureado com o Prêmio Nobel e conhecido como o “Padrinho da IA”.
Design e especificações
O documento explica que modelos modernos de raciocínio, como o ChatGPT, realizam um processo de “pensar em voz alta” ao abordar problemas complexos por meio da técnica CoT. Essa abordagem fornece uma forma de memória de trabalho para resolver as tarefas. Os autores argumentam que a capacidade de monitorar a cadeia de pensamento é uma oportunidade única para identificar intenções maliciosas nos sistemas de IA. Como afirmam, “sistemas de IA que ‘pensam’ na linguagem humana oferecem uma oportunidade única para a segurança da IA: podemos monitorar suas cadeias de pensamento (CoT) para a intenção de se comportar mal.”
Repercussão e aplicações
A proposta de monitoramento CoT pode ser uma ferramenta valiosa para pesquisadores, permitindo a detecção de comportamentos indesejados que emergem quando os modelos começam a explorar falhas em seu treinamento ou a manipular dados. Os cientistas sugerem que problemas detectados podem ser “bloqueados, ou substituídos por ações mais seguras, ou revisados em maior profundidade.” Contudo, a segurança das IA pode estar em risco se os desenvolvedores se afastarem do monitoramento constante, especialmente com a crescente dependência do aprendizado por reforço, que prioriza os resultados corretos sobre os processos de raciocínio.
“Os desenvolvedores de IA precisam acompanhar e avaliar a monitorabilidade da CoT de seus modelos e tratar isso como um componente crítico da segurança do modelo.”
(“AI developers need to track and evaluate the CoT monitorability of their models and treat this as a critical component of overall model safety.”)— Pesquisadores, OpenAI
A proposta tem gerado reações positivas na comunidade de tecnologia, onde muitos acreditam que a implementação de tais medidas pode garantir uma interação mais segura e ética entre humanos e máquinas.
O futuro da IA deve considerar seriamente a monitorabilidade da cadeia de pensamento como um padrão de pesquisa, especialmente à medida que avançamos em direções cada vez mais sofisticadas nos desenvolvimentos tecnológicos.
Fonte: (Gizmodo – Cultura Tech & Geek)