
La Génération de logiciels malveillants : 5 usages de l'IA par les pirates informatiques
Ces derniers mois, nous avons jeté un regard neuf sur l'intelligence artificielle (IA) et sur ses nombreux segments, comme l'apprentissage automatique (AA) et l'IA générative (IAgen). Nous poursuivons aujourd’hui notre discussion sur ce sujet. Plus précisément, nous allons nous pencher sur les usages que les pirates informatiques font de l’IAgen pour élaborer des logiciels malveillants. Nous allons surtout porter notre attention sur l’emploi de l’IAgen dans les grands modèles de langage (les LLM), par exemple en rapport à ChatGPT et Google Gemini.
Si vous avez déjà passé du temps avec l'un de ces LLM, vous avez peut-être remarqué ses limites programmées. Demandez à ChatGPT d'écrire un logiciel malveillant pour vous, et il vous répondra non. Ce « non » sera formulé poliment et accompagné de quelques mots sur l'usage de vos compétences à bon escient et dans les limites autorisées par la loi. En y regardant d’un peu plus près, nous pouvons constater qu’un certain nombre de mécanismes ont été intégrés à ChatGPT pour empêcher qu’il soit utilisé à des fins malveillantes. Gemini dispose également de quelques mécanismes, mais la première chose que cet outil vous dit est qu'il n'est pas responsable de ce qu’en font ses utilisateurs. Nous sommes bien sûr d’accord là-dessus, mais que se passe-t-il si nous lui posons quelques questions supplémentaires, en lui demandant par exemple pourquoi il ne peut pas écrire de logiciels malveillants ? Les réponses que nous obtenons laissent à désirer. Elles s’apparentent à « ça fait mal » ou « c’est illégal ». En fin de compte, vous assure Gemini, « ma réponse est basée sur un ensemble de principes d’ordre plus général qui ont été établis pour promouvoir la sécurité et les comportements responsables ».
Pour la plupart d'entre nous, il n'est pas nécessaire de dépasser les limites des LLM. Si un LLM ou un quelconque outil basé sur l’IAgen ne nous convient pas, nous pouvons en trouver un autre ou élaborer notre propre création. Les pirates informatiques le peuvent aussi, mais la différence est qu’ils opèrent sur un marché parallèle où ils font face à moins de restrictions que nous.
Les usages de l’IAgen par les criminels
L’IA ouvre de nouvelles possibilités et donne de nouveaux moyens aux pirates informatiques. N’oubliez pas que les systèmes d’IA sont conçus pour apprendre. En concentrant l’apprentissage de leurs propres systèmes d'IA sur les logiciels malveillants — de tous types —, les criminels peuvent devenir des attaquants bien plus redoutables. Voici quelques cas de figure :
- La génération automatisée de code : Les criminels peuvent rapidement et automatiquement élaborer de nouvelles versions de logiciels malveillants. Ils peuvent ainsi lancer un grand nombre d’attaques différentes qui, bien que leurs caractéristiques ne soient pas les mêmes, ont un fonctionnement semblable.
- Les techniques de camouflage : En faisant fonctionner des logiciels malveillants et des logiciels de sécurité en même temps, les pirates peuvent permettre aux systèmes d’IA d’apprendre comment les logiciels malveillants sont détectés. L'IA peut ensuite modifier les logiciels malveillants pour les rendre plus difficiles à déceler.
- Le développement d'exploits : Les systèmes ciblés peuvent être analysés par balayage par l'IA dans le but d’y rechercher des vulnérabilités. Ces vulnérabilités peuvent ensuite être examinées de plus près puis utilisées pour lancer des exploits et des séquences d'attaque.
- L’adaptation et l’apprentissage : L’IAgen s'adapte aux systèmes de sécurité et peut tirer les leçons des résultats d'attaques déjà effectuées. Le recours à l'IA peut donner aux logiciels malveillants la flexibilité d’ajuster leurs tactiques pendant une attaque, car ces logiciels peuvent se baser sur une analyse en temps réel des mesures de défense de leur cible.
À ce stade, vous vous demandez peut-être encore comment les LLM peuvent être utilisés pour élaborer des logiciels malveillants ou pour lancer des attaques. Les auteurs de menaces utilisent couramment deux stratégies lorsqu’ils recourent à l’IA à des fins malveillantes. La première consiste à lancer des « attaques contradictoires », expression générique qui recouvre une diversité de techniques visant à amener les outils basés sur l'IA à ne pas fonctionner correctement. Les attaques par empoisonnement, par évasion et par extraction en sont quelques exemples. Ces attaques peuvent servir à élaborer des logiciels malveillants, et elles peuvent aussi être utilisées conjointement avec une attaque par un tel logiciel. Voici quelques cas de figure :
- Les acteurs malveillants peuvent profiter des vulnérabilités découvertes dans les systèmes d’IA pour préparer des attaques plus efficaces contre leurs cibles. Référez-vous au blogue de Gabe pour prendre connaissance d’exemples de ce type.
- Un système d'IA déréglé peut engendrer une confusion et masquer une attaque recourant à un autre moyen, la cible pouvant être un système financier, une infrastructure essentielle ou une opération commerciale. Dans un tel cas, le service informatique de l’organisation visée se laisse distraire par le système d’IA au lieu de rechercher des éléments indésirables ou des logiciels malveillants dans ses systèmes.
- Les acteurs malveillants peuvent profiter des vulnérabilités présentes dans un LLM pour faire générer des courriers électroniques d’hameçonnage par un système protégé, comme ChatGPT. Vous en trouverez un exemple dans cet article sur le recours à l’IAgen pour les attaques d’hameçonnage.
Les attaques contradictoires sont également connues sous le nom de « jailbreaks ». Elles font souvent l’objet de diffusions et de ventes dans les communautés criminelles.
En ce qui concerne la deuxième stratégie utilisée pour générer des logiciels malveillants par le biais de l’IAgen, elle est plus courante. Elle consiste à élaborer ou à acheter des « LLM clandestins » conçus pour les acteurs malveillants. Les possibilités d’usage de ces LLM ne sont pas restreintes, contrairement à ce que nous avons mentionné plus tôt pour ChatGPT et Gemini. De plus, certains sont conçus spécialement en vue de certains types d'attaques. Par exemple, FraudGPT a été conçu pour pouvoir préparer des messages électroniques d'hameçonnage, des outils de piratage et des opérations d’utilisation illégale de cartes bancaires. DarkBart (ou DarkBard) est utilisé pour l'hameçonnage, la manipulation sociale, l'exploitation des vulnérabilités des systèmes et la distribution de logiciels malveillants. DarkBart est basé sur Google Bard (aujourd'hui Google Gemini) et s'intègre à d'autres applications Google pour faciliter l'utilisation d'images et d'autres éléments lors d'attaques. Des chercheurs soupçonnent que CanadianKingpin12 est le principal acteur malveillant à l’origine de la plupart de ces LLM clandestins, car c’est lui qui est le promoteur et le vendeur le plus actif de ce type de logiciels sur les forums criminels.
Ce logiciel était proposé pour 200 dollars par mois ou 1 700 dollars par an, avec quelques autres tarifs intermédiaires. Son promoteur a déclaré avoir conclu plus de 3 000 ventes. Les groupes d’acteurs malveillants les plus sophistiqués sont plus susceptibles d’élaborer leurs propres outils que d’acheter par le biais d’une publicité comme celle-ci.
Les types d’attaques recourant à des logiciels malveillants façonnés par l’IA
Maintenant que nous avons discuté des usages possibles des LLM par les acteurs malveillants, examinons certains des logiciels qui peuvent être produits à l'aide de ces modèles.
Les logiciels malveillants adaptatifs
Les logiciels malveillants adaptatifs peuvent modifier leur code, leurs schémas d'exécution ou leurs méthodes de communication en fonction de ce qui se passe au cours d'une attaque. L’objectif est d’éviter la détection, mais ces logiciels peuvent également s’adapter pour tirer parti de nouveaux moyens d’attaque qui se présentent. Les logiciels malveillants adaptatifs existent depuis plus longtemps que l’IAgen et les LLM clandestins, mais leurs techniques de camouflage et leur efficacité ont été améliorées par l'intelligence artificielle et l'apprentissage automatique (AA).
Les charges utiles malveillantes dynamiques
La charge utile d’un logiciel malveillant est constituée des éléments du logiciel qui exécutent l’activité malveillante lors d’une attaque. Par exemple, la charge utile du logiciel rançonneur Cactus est son fichier binaire de chiffrement. Une charge utile dynamique peut modifier ses actions ou charger des logiciels malveillants supplémentaires au cours d’une attaque. Après s’être installée, elle peut s'adapter aux conditions environnantes pour échapper à la détection ou devenir plus efficace. Comme pour les logiciels malveillants adaptatifs, il est possible d’élaborer des charges utiles dynamiques sans les perfectionner par le biais de l'IA. Le recours aux possibilités de l’IA permet de rendre les logiciels malveillants plus efficaces en améliorant leur réactivité aux conditions environnantes.
Les attaques du jour zéro et du premier jour
Ces attaques profitent de vulnérabilités inconnues ou dont la découverte est récente. Les attaques du jour zéro (zero-day) sont, avant qu’elles ne se produisent, inconnues du fournisseur du logiciel cible. Cela signifie donc que ce fournisseur disposait de « zéro jours » pour éliminer la vulnérabilité exploitée avant que les pirates n’en profitent. Les attaques du premier jour (one-day) se produisent dans le court laps de temps qui s'écoule entre la diffusion d'un correctif par le fournisseur d’un logiciel et son installation par un client. L’expression « premier jour » fait référence à la durée limitée pendant laquelle les pirates peuvent agir. Le recours à l’IAgen permet de découvrir et d’exploiter des vulnérabilités du jour zéro plus rapidement. Étant donné que les possibilités d’attaque se réduisent à chaque fois qu'un correctif est diffusé ou installé, les acteurs malveillants cherchent à lancer leurs attaques le plus rapidement possible. Lorsqu’ils font appel à l’IAgen, le temps qu’il leur faut pour attaquer est réduit.
La dissimulation de contenu
Comme les termes utilisés l'indiquent, la dissimulation de contenu est le fait de camoufler du code malveillant ou de déguiser sa nature véritable, ce qui peut se faire par le biais du chiffrement, de l'encodage, du polymorphisme ou du métamorphisme. Ces techniques de dissimulation sont plus efficaces lorsque les mesures de sécurité des cibles reposent sur la détection de schémas de piratage connus. Toutes ces méthodes peuvent être rendues plus complexes et plus efficaces par l’IAgen. L'IA a aussi été utilisée pour intégrer du code non essentiel à des programmes malveillants, l’objectif étant que les systèmes de sécurité ne reconnaissent pas ces programmes comme des menaces.
Les botnets alimentés par l'IA
Les botnets renforcés par l'IA disposent de nombreuses capacités : ils peuvent modifier leur propre code pour échapper à la détection, se propager d'un appareil à un autre sans intervention humaine, sélectionner la meilleure cible parmi plusieurs possibilités et optimiser leurs attaques en fonction de la réaction des dispositifs de sécurité. L’IA peut également gérer l’action des botnets en équilibrant leur charge, et elle peut améliorer la communication entre les appareils et les réseaux. Les botnets alimentés par l'IA permettent d’améliorer l’efficacité des attaques par déni de service distribué (DDoS) et celle des campagnes d’envois de messages indésirables. De plus, les botnets de ce type sont plus robustes car, au besoin, l’IA peut décider de mettre à exécution leurs capacités d’auto-réparation et de dissimulation.
Et ce n’est pas tout
La liste ci-dessus ne couvre que partiellement les usages que font les pirates informatiques de l’IAgen pour élaborer et perfectionner des logiciels malveillants, ainsi que les raisons du recours à l’IAgen par ces criminels. Il n'est pas possible de tout énumérer ici, mais certaines autres sources d’informations sont susceptibles de vous intéresser. Microsoft et OpenAI surveillent les acteurs malveillants qui utilisent les LLM pour leurs opérations. En voici quelques exemples :
- Forest Blizzard (acteur russe) génère des scripts destinés à effectuer certaines tâches, comme la manipulation de fichiers et la sélection de données. Ces agissements s’inscrivent probablement dans le cadre d’efforts menés par cet acteur pour automatiser ses opérations malveillantes.
- Emerald Sleet (acteur nord-coréen) élabore des scripts pour des tâches visant à accélérer ses attaques, par exemple pour l'identification de certains événements en rapport à des utilisateurs d’un système. Ce groupe utilise aussi des LLM pour lancer des attaques par harponnage ou par d’autres types de manipulation sociale, les cibles étant des gouvernements et des organismes axés sur la défense contre la Corée du Nord.
- Crimson Sandstorm (acteur iranien) génère du code pour échapper à la détection et pour tenter de désactiver les dispositifs de sécurité par le biais du registre de Windows ou des stratégies de groupe.
Si vous souhaitez en savoir plus sur ces acteurs malveillants, gardez à l’esprit que la liste ci-dessus utilise la convention d’appellation de Microsoft. La plupart des acteurs malveillants ont reçu plusieurs noms. Par exemple, Forest Blizzard est aussi connu sous les noms de Fancy Bear et d’APT28.
D’autre part, Microsoft collabore avec MITRE dans le but d’inclure les tactiques, techniques et procédures (TTP) suivantes dans l’une des bases de connaissances MITRE ATT&CK® ou MITRE ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems) :
- La reconnaissance assistée par un LLM : le recours à un LLM pour recueillir des renseignements exploitables sur des technologies et sur leurs vulnérabilités potentielles.
- Les techniques d’écriture de script assistée par un LLM : le recours à un LLM pour la génération ou l’amélioration de scripts susceptibles d’être utilisés lors de piratages, ou l’usage d’un LLM pour des tâches élémentaires d’écriture de scripts, l’objectif pouvant être par exemple d’automatiser la détection de certains événements en rapport aux utilisateurs d’un système, de mieux pouvoir résoudre les problèmes ou de mieux comprendre certaines technologies en rapport à Internet.
- Le développement assisté par un LLM : le recours à un LLM au cours du cycle de développement d'un outil ou d’un programme, y compris lorsque l’intention est malveillante comme lors du développement d’un logiciel de piratage.
- La manipulation sociale assistée par un LLM : la mise à profit d’un LLM comme outil d’assistance pour les traductions et la communication, dans le but probable d'établir des liens ou de manipuler des cibles.
Microsoft mentionne certaines autres tactiques, techniques et procédures recourant aux LLM sur son site, derrière ce lien.
Un autre article intéressant est cette publication de Harvard sur un ver « zéro clic » qui détourne les systèmes d'IA pour mener des campagnes d’envois de messages indésirables, extraire frauduleusement des données ou commettre d'autres activités de piratage. Ce sont les chercheurs de Harvard qui ont mis au point ce ver, dans le but de démontrer la nécessité de mettre en place des contre-mesures défensives dans les systèmes d'IA.
Barracuda a récemment publié un livre numérique intitulé « Assurer l’avenir : Guide du RSSI sur le rôle de l'IA dans la cybersécurité ». Cette nouvelle publication traite des menaces contre la sécurité. Elle présente les vulnérabilités que les pirates informatiques exploitent avec l'aide de l'IA pour intensifier leurs attaques et mieux les réussir. Procurez-vous dès maintenant votre exemplaire gratuit de ce livre numérique pour découvrir vous-même les menaces, les données, les analyses et les solutions les plus récentes.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter