Inteligência artificial enfrenta custos ocultos em segurança de LLM

São Paulo — InkDesign News — A crescente adoção de inteligência artificial (IA), com destaque para modelos de linguagem como LLMs (Large Language Models) e avanços em deep learning, vem acompanhada de desafios significativos, especialmente no que diz respeito à segurança durante a fase de inferência.
Tecnologia e abordagem
Os modelos de IA são amplamente utilizados em diversos setores para gerar insights e aumentar a eficiência. Contudo, a fase de inferência, onde a IA traduz investimentos em valor de negócios em tempo real, se tornou um alvo para ataques cibernéticos. Cristian Rodriguez, CTO da CrowdStrike, observa que a inferência está rapidamente se tornando um “novo risco interno” nas organizações. Este cenário tem levado muitas empresas a serem pegas de surpresa por custos de segurança não planejados, com foco inadequado em proteger essa camada crítica.
Aplicação e desempenho
“Focar intensamente em proteger a infraestrutura ao redor da IA enquanto ignora a inferência leva a subestimar os custos com sistemas de monitoramento contínuo e análise de ameaças em tempo real”, afirma Vineet Arora, CTO da WinWire. Questões como injeções de prompt e manipulação de saídas são exploradas por atacantes, ecossistemas de IA muitas vezes incorporam modelos de terceiros sem as devidas avaliações de segurança ou conformidade. Os ataques à inferência podem inflacionar os custos de propriedade total (TCO), sendo necessário um orçamento robusto para ataques no estágio de inferência desde o início do projeto.
Impacto e mercado
Cerca de 39% dos executivos consultados acreditam que as recompensas da IA generativa superam claramente os riscos, enquanto 40% consideram que ambos são comparáveis. Sondagens apontam que 26% das empresas sentem a pressão da exposição de dados sensíveis e 25% estão preocupadas com ataques adversariais. As implicações financeiras podem ser severas. Por exemplo, o custo de contenção de um vazamento pode ultrapassar R$ 25 milhões em setores regulados, tornando evidente a necessidade de estratégias de segurança bem formuladas que garantam a integridade da IA.
“A alocação menos de 8 a 12% dos orçamentos de projetos de IA para segurança do estágio de inferência pode ser um erro caro no futuro.”
(“Enterprises allocating less than 8 to 12% of their AI project budgets to inference-stage security are often blindsided later by breach recovery and compliance costs.”)— CIO de uma provedora de saúde Fortune 500
Os próximos passos incluem a implementação de um modelo de monitoramento contínuo, a adoção de uma estrutura de zero confiança para ambientes de IA e um alinhamento estratégico entre CISOs e CFOs, para facilitar a mitigação de riscos e maximizar o retorno sobre o investimento em IA.
Fonte: (VentureBeat – AI)