
São Paulo — InkDesign News — Cada vez mais, a aplicação de machine learning está revolucionando diversas indústrias. No entanto, a construção de sistemas de IA confiáveis exige uma abordagem meticulosa que vai além da simples acurácia dos modelos.
Arquitetura de modelo
A arquitetura robusta de modelos de machine learning deve garantir a confiabilidade e a transparência. Segundo Anusha Dwivedula, Diretora de Produto da Morningstar:
“A precisão é apenas a camada do meio; sem fundamentos sólidos e transparência, a confiança desmorona.”
(“Accuracy is just the middle layer without solid foundations and transparency; trust collapses.”)— Anusha Dwivedula, Diretora de Produto, Morningstar
Isso implica que a construção de pipelines de dados escaláveis e confiáveis é crucial. Para garantir a cobertura de atributos essenciais, a métrica de completude deve ser monitorada, assim como a temporalidade e a confiabilidade do processamento.
Treinamento e otimização
No que diz respeito ao treinamento de modelos, medir não apenas a acurácia, mas também a justiça e a resiliência é fundamental. Shane Murray, SVP de Análise de Plataforma Digital na Versant, destaca:
“Painéis de controle não previnem falhas; a visibilidade conectada e a resposta sim.”
(“Dashboards don’t prevent failures; connected visibility and response do.”)— Shane Murray, SVP de Análise de Plataforma Digital, Versant
Um sistema de observação que abrange todos os elementos — dados, sistemas, códigos e modelos — é essencial para identificar a origem dos problemas. A utilização de tecnologias de detecção de anomalias ajuda na rápida resolução de falhas, aumentando a confiança no sistema.
Resultados e métricas
Estudos demonstram que aplicar uma governança eficaz não é um obstáculo à inovação, mas sim um facilitador. Como afirma Vrushali Channapattan, Diretora de Engenharia da Okta:
“Ambientes de teste seguros e caminhos pavimentados fazem com que a adoção responsável de IA seja mais rápida, e não mais lenta.”
(“Safe playgrounds and paved paths make responsible AI adoption faster, not slower.”)— Vrushali Channapattan, Diretora de Engenharia, Okta
Com serviços aprovados e fluxos de trabalho padronizados, as equipes conseguem se concentrar em inovações, ao mesmo tempo em que cumprem com as diretrizes de segurança e compliance.
À medida que sistemas de IA generativa se tornam parte integrante de fluxos de trabalho críticos, a questão que se coloca é: as pessoas podem confiar o suficiente no sistema para depender dele? O foco deve ser a construção de uma cultura que assegure que os sistemas de IA sejam transparentes, resilientes e responsáveis desde o seu início.
Fonte: (Towards Data Science – AI, ML & Deep Learning)