
São Paulo — InkDesign News —
A pesquisa em machine learning tem se expandido rapidamente, com foco na criação de sistemas de AI que sejam não apenas eficientes, mas também interpretáveis e seguros. A interseção entre a teoria e a prática tem gerado diferentes abordagens para resolver os desafios atuais enfrentados na área.
Contexto da pesquisa
Um projeto em andamento na Singapore Management University tem como objetivo desenvolver uma base científica para analisar sistemas de AI, enfatizando três conceitos fundamentais: abstração, causalidade e interpretabilidade. Estes conceitos são essenciais para a análise de programas e precisam de uma reinvenção formal devido às diferenças entre programas tradicionais e redes neurais.
Método proposto
O projeto, liderado pelo Professor de Ciência da Computação Sun Jun e sua equipe, busca criar uma fundação científica que possibilite a análise sistemática de redes neurais. Uma das principais questões abordadas é a capacidade de desenvolver ferramentas eficazes para a análise e reparo de redes neurais, que incluem motores de teste, depuradores e verificadores.
(“First, we will develop a scientific foundation for analyzing AI systems, with a focus on three fundamental concepts: abstraction, causality and interpretability.”)— Yang Zhou, Pesquisador, Singapore Management University
Resultados e impacto
Os resultados esperados incluem padrões de certificação que proporcionarão diretrizes práticas para garantir um maior controle de qualidade em sistemas de AI. A pesquisa já identificou que a documentação clara e compreensível é vital para a implementação de modelos em diversos setores, como a condução autônoma e assistentes inteligentes. Esta abordagem não apenas facilita a adoção, mas também promove práticas recomendadas entre desenvolvedores.
Embora os modelos de AI ofereçam inúmeras vantagens, como automação em tarefas críticas, surgem preocupações sobre a segurança e a privacidade. A recente publicação de Yang aborda questões relacionadas à “memorização” em modelos de código, que podem levar a vazamentos de informações sensíveis e propagações de vulnerabilidades. Para mitigar esses riscos, a equipe está explorando métodos de “desaprender”, permitindo que modelos esqueçam informações privadas enquanto mantêm seu conhecimento geral.
Com a crescente adoção de AI em aplicações do mundo real, as pesquisas em andamento prometem não apenas melhorar a segurança, mas também aprimorar a eficácia e a confiança em sistemas automáticos. Espera-se que essas investigações pave um caminho para futuras inovações em AI.
Fonte: (TechXplore – Machine Learning & AI)