
São Paulo — InkDesign News — A crescente adoção de inteligência artificial na medicina levanta preocupações sobre a eficiência e a ética dos modelos devido à sua tendência a reproduzir vieses históricos, especialmente no que diz respeito ao tratamento de mulheres e grupos minoritários.
Contexto e lançamento
A utilização de ferramentas de inteligência artificial na medicina tem se expandido significativamente, com grandes empresas como Google, Meta e OpenAI se empenhando para integrar essas tecnologias em hospitais e clínicas. Historicamente, estudos clínicos têm priorizado a inclusão de homens brancos, resultando em um sub-representação alarmante de mulheres e pessoas de cor na pesquisa médica. Este contexto desfavorável tem gerado preocupações sobre a eficácia das ferramentas de IA em proporcionar tratamento equitativo.
Design e especificações
Modelos de linguagem de grande porte, como o GPT-4 da OpenAI e o Llama 3 da Meta, têm apresentado tendenciosidade em suas análises. Um estudo do Massachusetts Institute of Technology revelou que esses modelos são “mais propensos a reduzir erroneamente o cuidado para pacientes mulheres”, levando a um direcionamento inadequado de recomendações médicas. Além disso, um modelo especificamente desenvolvido para a área de saúde, o Palmyra-Med, também refletiu esses mesmos vieses. A análise do modelo Gemma, da Google, evidenciou que “as necessidades das mulheres eram minimizadas” em relação aos homens.
Repercussão e aplicações
Os impactos culturais dessa situação são profundos, pois podem resultar em tratamentos desiguais e na perpetuação de estereótipos médicos. Um estudo publicado na revista The Lancet indicou que o GPT-4 frequentemente “estereotipa certas raças, etnias e gêneros”, levando a diagnósticos e recomendações guiadas pela demografia, e não por sintomas. Esse tipo de orientação pode afetar diretamente as decisões médicas e o cuidado que um paciente recebe.
“Isso cria um problema óbvio, especialmente à medida que empresas competem para colocar suas ferramentas em hospitais e instalações médicas. Ninguém deve descobrir isso da maneira mais difícil.”
(“That creates a pretty obvious problem, especially as companies race to get their tools into hospitals and medical facilities. No one should have to find that out the hard way.”)— Gizmodo, Cultura Tech & Geek
Além disso, outra pesquisa revelou que modelos de IA careciam da mesma empatia ao lidar com questões de saúde mental entre pessoas de cor, em comparação a seus colegas brancos. Isso sublinha a necessidade urgente de reavaliar como essas tecnologias são desenvolvidas e implementadas.
“Avaliações e planos criados pelo modelo mostraram associação significativa entre atributos demográficos e recomendações para procedimentos mais caros.”
(“Assessment and plans created by the model showed significant association between demographic attributes and recommendations for more expensive procedures.”)— The Lancet
À medida que a indústria avança, é imperativo que as futuras iterações de inteligência artificial na medicina sejam projetadas com uma compreensão mais crítica das consequências de seus dados de treinamento, garantindo que todos os pacientes recebam o cuidado equitativo que merecem.
Fonte: (Gizmodo – Cultura Tech & Geek)