- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

LLM ganha controles parentais após tragédia, mas especialistas alertam

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

A inteligência artificial (AI) e o aprendizado de máquina (machine learning) estão evoluindo rapidamente, levantando questões sobre como essas tecnologias interagem com questões sensíveis, como saúde mental. A recente introdução de controles parentais para chatbots, como o ChatGPT, oferece uma nova perspectiva sobre a responsabilidade na utilização desses sistemas em ambientes delicados.

Contexto da pesquisa

A OpenAI anunciou a implementação de controles parentais para o ChatGPT, alegando que isso permitirá aos pais monitorar interações que podem indicar “angústia emocional” de seus filhos. Isso segue a apresentação de um processo judicial contra a empresa, alegando que suas tecnologias contribuíram para o suicídio de um adolescente.

Método proposto

O modelo de AI em questão utiliza um sistema de alertas que notifica os pais caso o chatbot detecte certas palavras-chave relacionadas ao estresse emocional. Contudo, especialistas questionam a eficácia e a precisão dessa abordagem dada a natureza das tecnologias de aprendizado profundo (deep learning), que incluem Transformers e Modelos de Linguagem de Grande Escala (LLMs).

“A pesquisa mostrou repetidamente que a maioria dos LLMs não é boa em emoções e não detém o risco além de palavras-chave limitadas.”
(“Research has shown over and over again that most LLMs are not good at emotions and they’re not good at detecting risk beyond limited keywords.”)

— Annika Marie Schoene, Cientista de Pesquisa, Northeastern University

Resultados e impacto

As métricas de desempenho dessa abordagem ainda não foram amplamente divulgadas, mas a tecnologia enfrenta desafios significativos em proporcionar alertas confiáveis para os pais. O sistema de alerta proposto pode falhar em captar a complexidade das interações emocionais, um aspecto crucial em qualquer tecnologia que aborda saúde mental.

“Se a primeira etapa de segurança é transferir a responsabilidade para o usuário, isso não é um bom primeiro passo.”
(“If that first step is directly tied to shifting the responsibility to the user, I can’t say that that’s a good first step.”)

— Cansu Canca, Diretora da Prática de AI Responsável, Northeastern University

As aplicações potenciais dessa tecnologia abrangem desde o suporte na educação até a criação de ambientes virtuais mais seguros para interações. Avanços futuros podem incluir métodos que permitam que os usuários se declarem como vulneráveis a certos tópicos, utilizando tecnologia semelhante a abordagens de controle de armas em legislações de segurança.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!