l’impact des suggestions de code par l’IA sur la sécurité de la chaîne d’approvisionnement logicielle

Publié le 12 avril 2025 à 16h01
modifié le 12 avril 2025 à 16h01
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

L’intersection de l’intelligence artificielle et des pratiques de développement logiciel engendre des risques insoupçonnés. Les assistants de codage automatiques, bien qu’innovants, exposent les développeurs à des menaces de sécurité inédites. La propagation de noms de paquets fictifs, issus de suggestions erronées, ouvre la porte à des exploits malveillants. Chaque installation lors du processus de développement peut devenir un piège redoutable. Les conséquences sur la chaîne d’approvisionnement logicielle deviennent alarmantes, demandant une vigilance accrue face à des comportements générés par l’IA.

Les outils de génération de code alimentés par l’IA transforment radicalement la manière dont les développeurs conçoivent des logiciels. Cette évolution s’accompagne de nouveaux risques menaçant la sécurité de la chaîne d’approvisionnement logicielle. De nombreux assistants de codage, tels que les modèles linguistiques avancés, montrent une tendance inquiétante à la hallucination, c’est-à-dire la suggestion de packages qui n’existent pas réellement.

Des chercheurs en sécurité et en informatique ont observé que certains de ces outils pouvaient aboutir à la proposition de noms de packages fictifs. Une étude récente a révélé qu’environ 5,2 % des suggestions provenant de modèles commerciaux ne correspondaient à aucun package réel, tandis que cette statistique atteignait 21,7 % pour les modèles open source. Ce phénomène représente une menace significative pour les développeurs qui utilisent ces recommandations sans vérification préalable.

Exploitation des hallucinations par des acteurs malveillants

Les malfaiteurs exploitent cette hallucination en créant des packages logiciels malveillants sous des noms inventés. Lorsqu’un assistant de code proposé par l’IA réintroduit ce nom coopté comme dépendance, l’installation du package peut permettre l’exécution de malware. Ce processus est facilité par la contribution involontaire des outils d’assistance qui, par leur nature, semblent valider ces packages fantômes.

Une étude effectuée par la société de sécurité Socket a mis en lumière un phénomène intéressant. Lorsqu’un utilisateur relance un prompt déclencheur d’hallucination une dizaine de fois, environ 43 % des packages hallucination récidivent à chaque fois. Cette récurrence suggère des schémas prévisibles dans les réponses générées par les IA, augmentant ainsi le risque de dépendance à des packages fictifs.

Le phénomène du « slopsquatting »

Des chercheurs et experts en cybersécurité désignent cette forme d’exploitation du nom de package comme « slopsquatting ». Ce terme se réfère à l’usage de variantes ou de fautes d’orthographe liées à des termes communs pour tromper les développeurs. Seth Michael Larson, développeur en résidence à la Python Software Foundation, souligne l’absence de quantification des installations tentées en raison de ces hallucinations. Une transparence accrue de la part des fournisseurs d’IA serait bénéfique pour envisager une réelle évaluation du phénomène.

Pratiques de codage en évolution

Les habitudes des développeurs font face à un changement notable. Feross Aboukhadijeh, PDG de Socket, évoque la tendance du « vibe coding ». Les développeurs interagissent avec les outils d’IA, copiant les suggestions de code sans nécessairement valider leur exactitude. Ce comportement peut conduire à l’intégration de recommandations biaisées, compromettant ainsi la qualité et la sécurité du produit final.

Des exemples concrets de packages malveillants avaient été présentés, tels que celui de npm cooptant un nom légitime tout en dissimulant une vulnérabilité. Ces imposteurs ont souvent des apparences trompeuses, munis de README réalistes, de dépôts GitHub falsifiés, voire de blogs douteux vantant leur authenticité. Ces astuces rendent la détection de telles menaces plus ardue pour les développeurs pressés.

Conséquences et solutions

Les développements récents illustrent les dangers : un incident en janvier a montré comment l’IA de Google a suggéré un package malveillant qui imitait un package légitime. Les conséquences de telles suggestions peuvent s’avérer désastreuses, permettant aux attaquants de tirer parti des failles de sécurité. L’exploitation des outils d’IA pour créer un grand nombre de packages squattés constitue une stratégie de plus en plus fréquente, comme l’indique le cas d’un acteur malveillant nommé « _Iain ».

La Python Software Foundation continue de mettre en place des mesures destinées à réduire les risques de malwares, notamment via l’implémentation d’API pour signaler les malwares et améliorer la détection du slopsquatting. Les utilisateurs de PyPI et des gestionnaires de packages doivent maintenir une vigilance accrue et valider l’intégrité des packages avant leur installation.

La réalisation de pratiques de développement sécurisées nécessite un retour à la vérification manuelle des nominations et l’établissement de systèmes autonomes au sein des organisations. La mise en œuvre de sous-ensembles de packages à propos de PyPI peut également se révéler une stratégie proactive pour pallier les menaces actuelles et prévenir les dérives dans le processus de création logicielle.

Rubrique d’aide

Quelles sont les principales menaces découlant des suggestions de code par l’IA ?
Les suggestions de code par l’IA peuvent introduire des noms de packages qui n’existent pas, ce qui peut mener à l’installation de logiciels malveillants lorsque ces noms sont exploités par des attaquants dans des cycles de développement.

Comment les développeurs peuvent-ils se protéger contre les risques liés aux hallucinations de l’IA ?
Les développeurs doivent toujours vérifier l’existence des packages suggérés par l’IA, en utilisant des registres de packages fiables et en validant les informations fournies avant l’installation.

Pourquoi le phénomène de « slopsquatting » est-il préoccupant pour les développeurs ?
Le « slopsquatting » représente un risque énorme, car il implique la création de packages malveillants sous des noms similaires à ceux de packages populaires, induisant en erreur les développeurs pressés et augmentant la probabilité d’installation de logiciels malveillants.

Qu’est-ce que le phénomène de « vibe coding » et ses conséquences sur la sécurité ?
Le « vibe coding » se produit lorsque les développeurs appliquent les suggestions de code de l’IA sans vérification. Cela peut mener à l’utilisation de code vulnérable ou de packages fictifs, exposant les projets à des failles de sécurité.

Quels sont les signes révélateurs d’un package potentiellement malveillant ?
Les signes incluent un manque de documentation, des README peu clairs, l’absence de dépôts sur des plateformes respectées comme GitHub, et des installations échouant de manière inattendue.

Quels types d’attaques peuvent être facilitées par l’hallucination de l’IA ?
L’hallucination de l’IA peut faciliter des attaques par typosquatting et l’introduction de backdoors malveillantes, augmentant ainsi les risques liés à la chaîne d’approvisionnement logicielle.

Comment les entreprises peuvent-elles améliorer la sécurité de leurs chaînes d’approvisionnement logicielles en utilisant des outils d’IA ?
Les entreprises doivent intégrer des outils de sécurité qui analysent et vérifient les dépendances logicielles, tout en formant les développeurs à reconnaître les risques liés aux suggestions de l’IA.

Les plateformes de gestion de packages comme PyPI déploient-elles des mesures pour contrer ces risques ?
Oui, des efforts sont en cours pour réduire les abus de packages, notamment par l’implémentation d’API de signalement de logiciels malveillants et des collaborations pour améliorer la détection du typosquatting.

Quelle est l’importance de la transparence des fournisseurs d’IA dans la protection contre ces menaces ?
La transparence des fournisseurs d’IA est cruciale pour comprendre et quantifier les risques liés aux suggestions de code et pour permettre aux utilisateurs de prendre des décisions éclairées sur les installations de packages.

Que doivent faire les utilisateurs si les suggestions de l’IA provoquent des échecs d’installation ?
Les utilisateurs doivent vérifier le nom du package, s’assurer qu’il est bien orthographié, et rechercher des informations supplémentaires sur son existence avant d’essayer une installation répétée.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsl'impact des suggestions de code par l'IA sur la sécurité de la...

accélérer et améliorer l’ia grâce aux principes de la physique

découvrez comment l'application des principes physiques peut révolutionner le développement de l'intelligence artificielle. accélérez vos innovations et améliorez les performances de l'ia grâce à une approche scientifique unique et méthodique.
découvrez comment l'intelligence artificielle, les aventures spatiales et l'évolution des réseaux sociaux s'entrelacent dans le tango technologique de 2025. une exploration fascinante des innovations qui façonneront notre avenir.

Fortnite face à des poursuites pour son chatbot IA de Dark Vador insultant les gamers

L’union des données et de l’ia générative : une stratégie gagnante

découvrez comment l'union des données et de l'intelligence artificielle générative transforme les entreprises en une stratégie gagnante. explorez les avantages, les applications innovantes et les perspectives d'avenir grâce à cette synergie puissante.

Découvrez l’efficacité de l’intelligence artificielle de Microsoft dans Excel grâce à Copilot

explorez comment l'intelligence artificielle de microsoft transforme votre expérience excel avec copilot, offrant des outils innovants pour optimiser votre productivité et simplifier l'analyse de données.

Un robot maîtrise le parkour à grande vitesse grâce à une planification de mouvement autonome

découvrez comment un robot a atteint des sommets en maîtrisant le parkour à grande vitesse grâce à une planification de mouvement autonome innovante. plongez dans les avancées technologiques qui redéfinissent le mouvement et la robotique.