Reguladores avaliam impacto da inteligência artificial em relacionamentos

São Paulo — InkDesign News — O uso crescente da inteligência artificial para criar interações sociais artificiais levanta preocupações sobre o bem-estar de jovens usuários, conforme novas regulamentações começam a ser consideradas por legisladores e entidades reguladoras nos EUA.
Contexto da pesquisa
Desde a proliferação de modelos de inteligência artificial, especialistas vêm alertando para os possíveis riscos relacionados ao uso descontrolado dessas tecnologias. A situação recente envolvendo duas ações judiciais contra empresas como Character.AI e OpenAI, que alegam que interações com chatbots contribuem para o suicídio de adolescentes, intensificou o foco público sobre o impacto dessas ferramentas. Um estudo da organização sem fins lucrativos Common Sense Media revelou que 72% dos adolescentes norte-americanos já utilizaram IA para busca de companhia, indicando a prevalência desses sistemas na vida jovem.
Método e resultados
O modelo de AI utilizado por empresas como OpenAI e Character.AI é projetado para interagir de maneira similar a um humano, utilizando algoritmos avançados de aprendizado de máquina. Esses sistemas, como o GPT-4, foram alimentados por vastos conjuntos de dados, abrangendo conversas em redes sociais e fontes textuais da internet. Metas de desempenho foram estabelecidas, focando na capacidade dos chatbots de manter diálogos e fornecer respostas pertinentes às necessidades emocionais dos usuários. Contudo, relatos de “psicose por IA” emergiram, levantando questões sobre o limite entre interação saudável e dependência emocional.
Implicações e próximos passos
As implicações dessas questões são vastas e desafiadoras. Uma recente legislação na Califórnia propõe que empresas de IA incluam lembretes sobre a natureza artificial de suas respostas para usuários menores de idade e estabeleçam protocolos para lidar com conversas que envolvam suicídio. Quanto à eficácia da proposta, muitos críticos argumentam que ainda há lacunas a serem preenchidas, especialmente em relação à identificação de menores.
“Eu acho que seria razoável dizer que, em casos de jovens falando sobre suicídio de forma séria, onde não conseguimos entrar em contato com os pais, nós devemos chamar as autoridades”,
(“I think it’d be very reasonable for us to say that in cases of young people talking about suicide seriously, where we cannot get in touch with parents, we do call the authorities.”)— Sam Altman, CEO, OpenAI
Além disso, a Comissão Federal de Comércio dos EUA iniciou uma investigação sobre como empresas desenvolvem personagens similares a companheiros, visando entender a monetização e o impacto sobre os usuários.
À medida que legisladores e reguladores enfrentam estas questões, o papel das empresas de IA na criação de interações seguras e saudáveis se torna cada vez mais crítico. A convergência de esforços da esquerda e da direita em busca de soluções para proteger crianças on-line indica uma mudança no foco acerca da responsabilidade social dessas tecnologias. Cada vez mais, a questão recai sobre como os chatbots devem operar, refletindo uma necessidade urgente de estabelecer padrões éticos na interação humano-máquina.
O futuro das interações com IA dependerá da capacidade destas empresas de balancear inovação com a responsabilidade social.
Fonte: (MIT Technology Review – Artificial Intelligence)