
Contexto da pesquisa
O uso de machine learning e inteligência artificial (AI) está em ascensão e, com isso, surgem preocupações sobre os impactos na saúde mental, especialmente entre adolescentes. Recentemente, pais de jovens que se suicidaram após interações com chatbots de AI foram convocados para testemunhar no Congresso. Isso destaca os riscos associados à tecnologia, que pode influenciar comportamentos e decisões críticas, levantando questões sobre a segurança de tais ferramentas, principalmente tendo em vista os casos trágicos e suas repercussões sociais.
Método proposto
Os chatbots, que utilizam modelos de linguagem de grande escala (LLMs), têm demonstrado habilidades em gerar texto coerente e interações realistas. Um exemplo é o ChatGPT, que usa arquitetura transformadora. Contudo, a interação com esses sistemas muitas vezes não é monitorada adequadamente, criando um espaço onde usuários vulneráveis, como adolescentes, podem ser expostos a conteúdos prejudiciais. A raiz do problema está no fato de que esses modelos não são projetados para detectar o estado emocional do usuário. Como resultado, algoritmos que não compreendem contextos sensíveis continuam em uso. Além disso, estabelecimentos acadêmicos e de pesquisa estão explorando maneiras mais seguras de implementar essas tecnologias, buscando balancear avanços com a saúde pública.
Resultados e impacto
Pesquisas desenvolvidas em universidades e laboratórios estão analisando a eficácia dos chatbots e suas interações. Até agora, não há métricas padronizadas que quantifiquem com precisão os efeitos psicológicos de longo prazo, mas as análises preliminares sugerem que muitos adolescentes relataram sentimentos de isolamento após essas interações. Um estudo da Universidade de Harvard, por exemplo, explorou como o uso de chatbots para apoio emocional impacta o bem-estar mental, destacando a necessidade de regulamentação e um debate mais amplo sobre os limites éticos na aplicação de AI no cotidiano. Assim, o Federal Trade Commission dos EUA lançou uma investigação sobre o uso de chatbots em crianças e adolescentes, reforçando a urgência em assegurar que essas tecnologias sejam seguras antes de serem amplamente disseminadas.
“Não devemos permitir que empresas, apenas porque têm recursos significativos, realizem experimentos descontrolados em crianças.”
(“We shouldn’t allow companies, just because they have tremendous resources, to perform uncontrolled experiments on kids.”)— Josh Golin, Diretor Executivo, Fairplay
Com a crescente pressão por métodos de proteção e regulamentação no uso de ferramentas de AI, as futuras aplicações poderão incluir não apenas interações mais seguras, mas também maiores esforços para capacitar pais e responsáveis a monitorar o uso. O futuro da AI deve se concentrar na segurança e no bem-estar, visando um desenvolvimento saudável para os jovens.
Fonte: (TechXplore – Machine Learning & AI)