
São Paulo — InkDesign News —
Pesquisas recentes no campo de machine learning estão desvendando novas possibilidades para a mobilidade autônoma. Um grupo de cientistas da EPFL (Escola Politécnica Federal de Lausanne) desenvolveu um modelo AI inovador, chamado GEM, que promete aprimorar a navegação de veículos autônomos em ambientes urbanos complexos.
Contexto da pesquisa
Atualmente, os veículos autônomos enfrentam desafios consideráveis ao operar em áreas urbanas, onde a dinâmica humana e a topografia irregular podem dificultar a navegação. Alexandre Alahi, do laboratório VITA, enfatiza:
“A mobilidade autônoma, seja na forma de carros autônomos ou robôs de entrega, deve evoluir além de simplesmente reagir ao momento presente. Para navegar nosso mundo complexo e dinâmico, esses sistemas impulsionados por IA precisam ser capazes de imaginar, antecipar e simular futuros possíveis—assim como os humanos fazem ao se perguntarem o que pode acontecer a seguir.”
(“Autonomous mobility, whether in the form of self-driving cars or delivery robots, must evolve beyond merely reacting to the present moment. To navigate our complex, dynamic world, these AI-driven systems need the ability to imagine, anticipate, and simulate possible futures—just as humans do when we wonder what might happen next.”)— Alexandre Alahi, Chefe do Laboratório de Inteligência Visual para Transporte, EPFL
Método proposto
O modelo GEM (Generalizable Ego-Vision Multimodal World Model) foi treinado com 4.000 horas de vídeos, abrangendo desde a condução autônoma até atividades humanas egocêntricas, e imagens de drones. O GEM utiliza uma abordagem multimodal, combinando análises de imagens RGB e mapas de profundidade, para gerar sequências de vídeo de cenários futuros. Essa técnica permite que o sistema antecipe eventos, como a travessia de pedestres ou a conversão de veículos em cruzamentos.
Resultados e impacto
Os resultados preliminares indicam que o modelo é capaz de prever com precisão como uma cena pode evoluir em questões de segundos. Essa capacidade melhora o treinamento e a segurança de sistemas autônomos em situações realistas. Mariam Hassan, estudante de doutorado no VITA, afirma:
“A ferramenta pode funcionar como um simulador realista para veículos, drones e outros robôs, possibilitando o teste seguro de políticas de controle em ambientes virtuais antes de sua implementação nas condições do mundo real.”
(“The tool can function as a realistic simulator for vehicles, drones and other robots, enabling the safe testing of control policies in virtual environments before deploying them in real-world conditions.”)— Mariam Hassan, Estudante de Doutorado, VITA Lab
O GEM e outras pesquisas em andamento visam facilitar a previsão do comportamento humano em ambientes urbanos dinâmicos. À medida que essa tecnologia se desenvolve, espera-se que promova melhorias significativas na segurança e eficiência dos veículos autônomos.
Fonte: (TechXplore – Machine Learning & AI)