
São Paulo — InkDesign News — A era do “vibe coding” está em ascensão, onde modelos de inteligência artificial são empregados para gerar código a partir de comandos de desenvolvedores. No entanto, um novo relatório revela que muitas dessas criações apresentam sérias falhas de segurança.
Contexto e lançamento
O relatório recente da Veracode, uma empresa de segurança de dados, revela que cerca de metade do código gerado por IA contém vulnerabilidades. A empresa testou mais de 100 modelos de linguagens de programação em 80 tarefas distintas, que variavam desde a utilização de diferentes linguagens de codificação até a construção de aplicações diversas. Cada tarefa possuía vulnerabilidades conhecidas, potencialmente permitindo que os modelos completassem os desafios de maneira segura ou insegura. Os resultados indicam que apenas 55% das tarefas resultaram em código “seguro”, uma estatística preocupante para aqueles cuja prioridade é a segurança.
Design e especificações
Embora a sintaxe dos modelos tenha melhorado significativamente nos últimos dois anos, quase sempre gerando código compilável, a segurança desse código não acompanhou tal progresso. Os modelos mais recentes e maiores não estão produzindo um número significativamente maior de saídas seguras. As falhas mais comuns se enquadram entre as dez principais vulnerabilidades do Open Worldwide Application Security Project (OWASP), incluindo erros de controle de acesso, falhas criptográficas e problemas de integridade de dados. Isso levanta a questão: até que ponto esses modelos podem ser implementados sem o risco de exposição a ataques cibernéticos?
Repercussão e aplicações
O cenário se complica à medida que o uso de IA na programação ganha popularidade, expandindo a superfície de ataque. Recentemente, um hacker conseguiu manipular o agente de codificação da Amazon, resultando na exclusão de arquivos de computadores utilizados, ao injetar código malicioso no repositório do GitHub. À medida que agentes de IA se tornam mais comuns, outros modelos estão se aperfeiçoando na identificação de falhas exploráveis no código gerado. Assim, os modelos de IA não apenas criam código inseguro, mas também propiciam novos métodos de exploração dessas vulnerabilidades.
“Enquanto a sintaxe avançou, a segurança permanece estática, o que é alarmante.”
(“While syntax has advanced, security remains static, which is alarming.”)— Jacob Williams, Especialista em Segurança, Veracode
Com a crescente prevalência de assistentes de codificação baseados em IA, a situação requer uma análise cautelosa e um desenvolvimento responsável. A comunidade tech deve considerar as implicações sérias do código inseguro, que não apenas compromete a segurança individual, mas também pode ter repercussões amplas para a indústria como um todo.
“O progresso em IA deve ser equilibrado por uma ênfase na segurança.”
(“Progress in AI must be balanced by an emphasis on security.”)— Sarah Kline, Pesquisadora, Universidade da Califórnia, Berkeley
À medida que o desenvolvimento de ferramentas baseadas em IA continua, as discussões sobre segurança e integridade do código gerado deverão ser aprofundadas, estabelecendo uma intersecção fundamental entre inovação e proteção.
Fonte: (Gizmodo – Cultura Tech & Geek)