
São Paulo — InkDesign News — Uma pesquisa recente revela uma diminuição alarmante na inclusão de avisos de isenção de responsabilidade em respostas de modelos de inteligência artificial, levantando preocupações sobre a segurança ao utilizar essas tecnologias em contextos médicos.
Contexto da pesquisa
A pesquisa foi conduzida por um grupo liderado por Aakriti Sharma, que testou uma variedade de modelos de inteligência artificial, incluindo aqueles desenvolvidos por OpenAI, Anthropic, DeepSeek, Google e xAI. O objetivo era avaliar a segurança dessas ferramentas no tratamento de questões médicas, especialmente em relação à falta de avisos que limitem a responsabilidade médica dos algoritmos. Anteriormente, estes modelos adotavam uma postura mais cautelosa, mas as mudanças recentes indicam uma tendência preocupante.
Método e resultados
Os pesquisadores testaram 15 modelos de IA em 500 perguntas sobre saúde e 1.500 imagens médicas, como raios-X de tórax, que poderiam indicar pneumonia. Os resultados mostraram que menos de 1% das respostas dos modelos em 2025 incluiu avisos de que a IA não estava qualificada para oferecer conselhos médicos, uma queda drástica em relação aos mais de 26% em 2022. O mesmo ocorreu com a análise de imagens médicas, onde apenas 1% das respostas continha tal disclaimer, em comparação com quase 20% anteriormente.
Implicações e próximos passos
Os autores da pesquisa apontam que a eliminação dos avisos pode acarretar sérios riscos à saúde pública, uma vez que usuários podem ser levados a confiar excessivamente nas análises da IA. Roxana Daneshjou, coautora e dermatologista, observa:
“Apenas porque a IA foi treinada em grandes conjuntos de dados não significa que ela está qualificada para fornecer cuidados médicos. Isso vai além de afirmações simplistas para parecer que a IA é superior a profissionais da saúde.”
(“Just because AI has been trained on large datasets doesn’t mean it’s qualified to provide medical care. That goes beyond simplistic claims to make AI seem superior to health professionals.”)— Roxana Daneshjou, Dermatologista, Professora Assistente de Ciência de Dados Biomédicos, Stanford
A mudança nas práticas de aviso pode indicar uma estratégia das empresas de IA para aumentar a confiança do usuário, mas também levanta questões éticas significativas sobre responsabilidade e segurança no uso de tecnologia médica.
O futuro do uso de inteligência artificial em saúde dependerá de um equilíbrio entre inovação e responsabilidade, uma vez que falhas podem resultar em consequências reais e prejudiciais para os pacientes.
Fonte: (MIT Technology Review – Artificial Intelligence)