Check Point: Assistentes de IA facilitaram o surgimento de novas ameaças invisíveis

Check Point: Assistentes de IA facilitaram o surgimento de novas ameaças invisíveis

7 visualizações
0

A Check Point Software Technologies Ltd., pioneira e líder mundial em soluções de cibersegurança, alerta para uma nova e crescente ameaça à segurança das cadeias de fornecimento de software: as dependências fictícias geradas por assistentes de codificação com inteligência artificial (IA), como o GitHub Copilot, Cursor AI ou o ChatGPT.

Estas ferramentas são cada vez mais utilizadas por developers em todo o mundo, já que permitem simplificar tarefas complexas, acelerar prazos de desenvolvimento e prometer ganhos de produtividade significativos. Segundo uma pesquisa da Stack Overflow, 76% dos programadores já utilizam estes assistentes, e 80% afirmam ter melhorado o seu desempenho graças aos mesmos.

Porém, uma outra investigação, desta vez feita em conjunto pelas Universidades Texas, Oklahoma e Virginia Tech, revelou que modelos de IA open-source têm gerado uma taxa média de 21,7% de “alucinações”, ou seja, sugestões de pacotes de software que não existem, mas que se assemelham a bibliotecas reais. Este valor está muito acima dos 5,2% pacotes gerados em modelos comerciais. Até ao momento já foram identificados mais de 200.000 nomes de pacotes fictícios, muitos deles perigosamente semelhantes a bibliotecas reais.

Slopsquatting: a nova arma dos cibercriminosos

Os atacantes estão a explorar estas falhas com uma técnica emergente chamada slopsquatting. Ao contrário do typosquatting, que explora erros de digitação humanos, o slopsquatting regista pacotes sugeridos por IA, mas inexistentes, em repositórios populares como o PyPI ou o npm. Assim que um programador confia na sugestão e instala o pacote, introduz código malicioso no seu ambiente sem saber.

O caso do “huggingface-cli”, registado por um investigador em 2023 como teste, acabou por ser adotado por milhares de developers, incluindo equipas da Alibaba em projetos críticos, demonstrando assim o risco real deste fenómeno.

Cadeias de produção vulneráveis e a urgência de novas práticas

Nos atuais pipelines CI/CD, onde a gestão de dependências é automatizada, uma falha introduzida por IA pode alastrar rapidamente até à produção. Os scanners de segurança tradicionais, baseados na reputação histórica dos pacotes, não conseguem identificar estas ameaças, exigindo novas estratégias proativas.

A Check Point alerta para a necessidade de cautela ao lidar com sugestões geradas por IA e recomenda:

  • Verificar manualmente qualquer dependência sugerida por IA;
  • Utilizar ficheiros de bloqueio (lockfiles), versões fixas e verificação por hash;
  • Implementar allowlists ou espelhos internos de pacotes confiáveis;
  • Promover políticas internas que obriguem à revisão por pares de todas as dependências introduzidas por assistentes de IA.

Técnicas como Retrieval-Augmented Generation (RAG) ou supervised fine-tuning reduzem o número de falhas em até 85%, mas podem comprometer a qualidade do código. A Check Point defende a implementação de abordagens de segurança proativa, sem comprometer a eficiência do desenvolvimento.

Sobre o autor

Fernando Costa

O seu primeiro PC foi um ZX Spectrum, apesar de já ter jogado em várias plataformas, o PC continua a ser o Favorito. Criador do InforGames.pt e fã de jogos de Corrida, estratégia e luta.

Your email address will not be published. Required fields are marked *