Fernando Costa
O seu primeiro PC foi um ZX Spectrum, apesar de já ter jogado em várias plataformas, o PC continua a ser o Favorito. Criador do InforGames.pt e fã de jogos de Corrida, estratégia e luta.
A Check Point Software Technologies Ltd., pioneira e líder mundial em soluções de cibersegurança, alerta para uma nova e crescente ameaça à segurança das cadeias de fornecimento de software: as dependências fictícias geradas por assistentes de codificação com inteligência artificial (IA), como o GitHub Copilot, Cursor AI ou o ChatGPT.
Estas ferramentas são cada vez mais utilizadas por developers em todo o mundo, já que permitem simplificar tarefas complexas, acelerar prazos de desenvolvimento e prometer ganhos de produtividade significativos. Segundo uma pesquisa da Stack Overflow, 76% dos programadores já utilizam estes assistentes, e 80% afirmam ter melhorado o seu desempenho graças aos mesmos.
Porém, uma outra investigação, desta vez feita em conjunto pelas Universidades Texas, Oklahoma e Virginia Tech, revelou que modelos de IA open-source têm gerado uma taxa média de 21,7% de “alucinações”, ou seja, sugestões de pacotes de software que não existem, mas que se assemelham a bibliotecas reais. Este valor está muito acima dos 5,2% pacotes gerados em modelos comerciais. Até ao momento já foram identificados mais de 200.000 nomes de pacotes fictícios, muitos deles perigosamente semelhantes a bibliotecas reais.
Os atacantes estão a explorar estas falhas com uma técnica emergente chamada slopsquatting. Ao contrário do typosquatting, que explora erros de digitação humanos, o slopsquatting regista pacotes sugeridos por IA, mas inexistentes, em repositórios populares como o PyPI ou o npm. Assim que um programador confia na sugestão e instala o pacote, introduz código malicioso no seu ambiente sem saber.
O caso do “huggingface-cli”, registado por um investigador em 2023 como teste, acabou por ser adotado por milhares de developers, incluindo equipas da Alibaba em projetos críticos, demonstrando assim o risco real deste fenómeno.
Nos atuais pipelines CI/CD, onde a gestão de dependências é automatizada, uma falha introduzida por IA pode alastrar rapidamente até à produção. Os scanners de segurança tradicionais, baseados na reputação histórica dos pacotes, não conseguem identificar estas ameaças, exigindo novas estratégias proativas.
A Check Point alerta para a necessidade de cautela ao lidar com sugestões geradas por IA e recomenda:
Técnicas como Retrieval-Augmented Generation (RAG) ou supervised fine-tuning reduzem o número de falhas em até 85%, mas podem comprometer a qualidade do código. A Check Point defende a implementação de abordagens de segurança proativa, sem comprometer a eficiência do desenvolvimento.
O seu primeiro PC foi um ZX Spectrum, apesar de já ter jogado em várias plataformas, o PC continua a ser o Favorito. Criador do InforGames.pt e fã de jogos de Corrida, estratégia e luta.
O InforGames é uma plataforma digital portuguesa dedicada ao universo dos videojogos, tecnologia e entretenimento digital. Criado por entusiastas para entusiastas, o objetivo é informar, inspirar e envolver uma comunidade cada vez mais apaixonada por este ecossistema em constante evolução.
Contacto: [email protected]