
São Paulo — InkDesign News —
Pesquisadores têm explorado profundamente as arquiteturas de deep learning, com foco em modelos de machine learning que sejam leves e eficientes. Um exemplo relevante é o MobileNetV1, um modelo desenvolvido para operar em dispositivos móveis.
Arquitetura de modelo
O MobileNetV1 utiliza a técnica de convolução separável em profundidade para alcançar eficiência. Este método divide a convolução em duas partes: a convolução em profundidade e a convolução pontual. A convolução em profundidade aplica um filtro a cada canal de forma independente, enquanto a convolução pontual combina informações entre canais.
A estrutura segue a abordagem conv-BN-ReLU, onde cada camada de convolução é seguida de normalização por lotes e ativação ReLU. Essa arquitetura permite comprimir o modelo, tornando-o adequado para dispositivos com recursos limitados, como smartphones.
Treinamento e otimização
Desde sua introdução em 2017, o MobileNetV1 passou por várias iterações, do MobileNetV1 ao MobileNetV4. As diferentes versões aprimoram a acurácia enquanto mantêm a complexidade computacional baixa. A expansão da rede através dos parâmetros de ajuste α e ρ oferece flexibilidade na escolha do número de canais e resolução de entrada, permitindo adaptações a diferentes tarefas.
A flexibilidade dos parâmetros α e ρ proporciona uma leveza que é particularmente valiosa em aplicações de edge computing.
(“The flexibility of the α and ρ parameters provides a lightweight model that is especially valuable in edge computing applications.”)— Howard, Pesquisador, Google
Resultados e métricas
Os testes realizados com o ImageNet indicam que o MobileNetV1 apresenta uma acurácia comparável a modelos mais pesados, como GoogLeNet e VGG16, mas com uma contagem de parâmetros significativamente inferior. Os resultados mostram que, ao aplicar convoluções separáveis, a redução no número de multipliicações e adições torna o modelo mais eficiente, sem uma perda substancial de performance.
Embora a precisão do MobileNet com convoluções tradicionais seja maior, o custo computacional é muito mais elevado.
(“While the accuracy of MobileNet with traditional convolutions is higher, the computational cost is significantly higher.”)— Pesquisador Anônimo, Fundação de Pesquisa
A implementação do MobileNetV1 se prova ideal para cenários onde a eficiência computacional é crítica. As melhorias previstas nas versões futuras visam expandir ainda mais suas capacidades, aumentando a aplicabilidade em sistemas de inteligência artificial e aprendizado profundo.
Fonte: (Towards Data Science – AI, ML & Deep Learning)