
São Paulo — InkDesign News — A Liquid AI lançou o LFM2-VL, uma nova geração de modelos de linguagem-vision (LLM) projetados para eficiência em uma variedade de dispositivos, desde smartphones até sistemas embarcados, prometendo baixa latência e alta precisão em aplicações do mundo real.
Tecnologia e abordagem
O modelo LFM2-VL é uma extensão da arquitetura LFM2, que integra processamento multimodal, suportando entradas de texto e imagem em resoluções variáveis. Segundo a Liquid AI, os modelos prometem até duas vezes mais velocidade de inferência em GPUs em comparação a modelos similares, enquanto mantêm desempenho competitivo em benchmarks comuns. A arquitetura modular combina um backbone de modelo de linguagem, um codificador de visão SigLIP2 NaFlex e um projetor multimodal.
“A eficiência é nosso produto”
(“Efficiency is our product”)— Ramin Hasani, Co-fundador e CEO, Liquid AI
Aplicação e desempenho
O LFM2-VL é disponibilizado em duas variantes: LFM2-VL-450M, um modelo altamente eficiente com menos de meio bilhão de parâmetros, ideal para ambientes com recursos limitados, e LFM2-VL-1.6B, mais robusto, mas ainda leve o suficiente para implementação em dispositivos com GPU única. Ambos os modelos processam imagens em resoluções nativas de até 512×512 pixels, utilizando técnicas de patching para imagens maiores, o que melhora a captura de detalhes e o contexto global.
As métricas de desempenho incluem uma pontuação de 65.23 no RealWorldQA e resultados satisfatórios no InfoVQA e OCRBench. Durante testes de inferência, o LFM2-VL demonstrou os tempos de processamento mais rápidos em sua classe, evidenciando sua eficiência.
Impacto e mercado
Com o LFM2-VL, a Liquid AI visa democratizar o uso de inteligência artificial multimodal, especialmente para implementações em dispositivos com recursos limitados. O modelo é compatível com a plataforma Hugging Face e é liberado sob uma licença personalizada que permite uso comercial sob certas condições, refletindo a intenção da empresa de fomentar inovações enquanto garante um uso responsável.
Esse avanço também ocorre em um contexto onde a eficiência está se tornando uma prioridade na inteligência artificial, impulsionada por limitações de energia e crescentes custos operacionais. A entrega de modelos que oferecem desempenho robusto em ambientes de inferência real pode mudar a forma como várias indústrias implementam soluções inteligentes.
Os próximos passos para a Liquid AI incluem a expansão de seu portfólio de modelos e a integração de recursos adicionais que aprimorem ainda mais a adaptabilidade em dispositivos diversos.
Fonte: (VentureBeat – AI)