- Publicidade -
- Publicidade -
- Publicidade -
Segurança Cibernética

Vibe Coding enfrenta vazamento de dados e insegurança

- Publicidade -
- Publicidade -

São Paulo — InkDesign News — Vulnerabilidades em IA geram preocupações na codificação

Recentemente, equipes de desenvolvimento têm obtido sucesso com a geração de código assistida por IA, mas os riscos de segurança estão fazendo muitos hesitarem na integração dessa tecnologia. Um novo estudo aponta vulnerabilidades críticas relacionadas ao uso de “vibe coding”.

Vetor de ataque

A prática conhecida como vibe coding envolve a utilização de modelos de linguagem amplos (LLMs), como o Gemini do Google, para auxiliar no processo de desenvolvimento de software. Entretanto, o código gerado frequentemente contém vulnerabilidades que podem ser exploradas por atacantes. Apesar da popularidade das ferramentas de codificação assistidas por IA, as falhas de segurança não devem ser ignoradas.

Impacto e resposta

Uma pesquisa recente da Dark Reading revelou que 76% dos leitores não estão utilizando ferramentas de vibe coding, principalmente devido a preocupações com segurança. Dentre os respondentes, 41% afirmaram que os riscos eram altos demais, enquanto 24% relataram que as ferramentas contribuíram para uma codificação mais segura. Conforme o CTO da Snyk, Danny Allan, “não conheci um cliente nos últimos três meses que não estivesse usando ferramentas de codificação por IA”
(“I haven’t met a customer in the past three months that wasn’t using AI coding tools”).

Análise e recomendações

A pesquisa também indica que muitos desenvolvedores podem estar utilizando o vibe coding sem a devida autorização, em um fenômeno conhecido como “shadow AI”. Esse comportamento representa um risco significativo tanto para a conformidade quanto para a segurança. Um relatório da IBM sugere que um em cada cinco organizações experimentaram um ataque cibernético devido à implementação não monitorada de ferramentas de IA. Para mitigar esses riscos, é essencial que as equipes de desenvolvimento estabeleçam protocolos claros sobre o uso de IA, incluindo revisões de pares e educação sobre as limitações da tecnologia.

À medida que a codificação assistida por IA se torna uma parte integral do desenvolvimento de software moderno, as empresas devem levar em conta as diretrizes que enfatizam a segurança e a transparência na incorporação dessas ferramentas. Projeções apontam uma crescente adoção dessa tecnologia, mas a necessidade de vigilância e proteção continuará a ser uma prioridade máxima.

Fonte: (Dark Reading – Segurança Cibernética)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!