L'intelligence artificielle (IA) est arrivée. Selon un récent rapport de Deloitte, 78 % des entreprises prévoient d'augmenter leurs dépenses en IA cette année, 74 % affirmant que les initiatives d'IA générative (GenAI) ont atteint ou dépassé les attentes.
L'accessibilité est la pierre angulaire du succès de l'IA. Grandes ou petites, natives du numérique ou physiques, toutes les entreprises peuvent bénéficier d'outils intelligents. Mais cette accessibilité n'est pas intrinsèquement éthique. Les acteurs malveillants connaissent un succès similaire avec l'IA, en utilisant de grands modèles linguistiques (LLM) pour créer et alimenter de nouveaux vecteurs d'attaque.
Si rien n'est fait, ces « dark LLM » représentent un risque important pour les organisations. Voici ce que les entreprises doivent savoir pour naviguer dans le nouvel état de la sécurité de l'IA et atténuer le risque des dark LLM.
Qu'est-ce qu'un dark LLM ?
Les dark LLM sont des LLM dont les barrières de protection ont été retirées.
Les grands modèles linguistiques constituent la base des outils d'IA générative. Ils sont formés à l'aide de quantités massives de données. Au fil du temps, ils peuvent à la fois comprendre et générer du langage naturel, et ils continuent d'améliorer cette compréhension. Les LLM sont donc idéaux pour répondre aux questions et exécuter des tâches, car les utilisateurs peuvent s'adresser aux interfaces IA de la même manière qu'ils s'adressent à des humains.
Les LLM alimentent des outils d'IA générative tels que ChatGPT d'OpenAI, les modèles PaLM de Google et watsonx d'IBM. Il existe également de nombreux LLM open-source que les entreprises peuvent utiliser pour développer des solutions internes.
Outre leur capacité à comprendre les langues naturelles, les LLM partagent une autre caractéristique commune : les barrières de protection. Elles empêchent les LLM de faire tout ce qu'un utilisateur leur demande, comme fournir des informations protégées ou créer un code qui leur permettrait de s'introduire dans un réseau. Il convient de noter que ces barrières de protection ne sont pas parfaites. Certaines invites peuvent les contourner et permettre aux utilisateurs de générer du contenu malveillant. Par exemple, des recherches ont révélé que le concurrent de ChatGPT, DeepSeek, n'a pas réussi à arrêter une seule des 50 invites malveillantes de « jailbreak ».
Les dark LLM éliminent complètement les barrières de protection. Généralement construits sur des plateformes libres, ces grands modèles de langage sont conçus avec un but malveillant. Souvent hébergés sur le dark web sous forme de services gratuits ou payants, les dark LLM peuvent aider les pirates à identifier les faiblesses en matière de sécurité, à créer du code pour attaquer des systèmes ou à concevoir des versions plus efficaces d'attaques de hameçonnage ou de social engineering.
Quels sont les dark LLM les plus populaires ?
À l'aide d'outils disponibles gratuitement associés à une expertise technologique modérée, les pirates peuvent créer leur propre LLM. Ces modèles ne sont toutefois pas tous créés de la même manière. Tout comme leurs homologues légitimes, la quantité et la qualité des données utilisées pour la formation ont un impact significatif sur la précision et l'efficacité de leurs résultats.
Les dark LLM populaires incluent :
- WormGPT – WormGPT est un LLM open source doté de six milliards de paramètres. Il se trouve derrière un paywall du Dark Web et permet aux utilisateurs de jailbreaker ChatGPT. Ce LLM sombre peut être utilisé pour concevoir et lancer des attaques BEC (business email compromise).
- FraudGPT – FraudGPT peut écrire du code, créer de fausses pages web et découvrir des vulnérabilités. Il est disponible à la fois sur le dark web et via des services tels que Telegram.
- DarkBard – Basé sur le chatbot IA de Google, Bard, ce dark LLM propose des fonctionnalités similaires à celles de FraudGPT.
- WolfGPT – Un nouveau venu dans le domaine obscur des LLM, WolfGPT est programmé en Python et présenté comme une alternative à ChatGPT, sans les barrières de sécurité.
Ces quatre ne sont qu'un échantillon des dark LLM disponibles. En règle générale, les utilisateurs malveillants paient pour accéder à ces outils via le dark web. Ils sont probablement utilisés comme points de départ pour des attaques réseau : les mauvais acteurs peuvent demander à ces LLM de découvrir des failles en cybersécurité ou d'écrire des e-mails d'hameçonnage de haute qualité difficiles à repérer pour le personnel.
Comment les entreprises peuvent-elles atténuer les risques liés aux dark LLM ?
Les dark LLMs fournissent de bonnes réponses à de mauvaises questions, donnant aux pirates un avantage pour créer du code malicieux et trouver des vulnérabilités logicielles. De plus, presque tous les LLM peuvent être rendus « dark » en utilisant la bonne invite de jailbreak.
Dans l'ensemble, cela semble plutôt sombre, n'est-ce pas ? Pas tout à fait.
En effet, les LLM excellent à améliorer le code et à suggérer de nouvelles pistes d'attaque, mais ils ne sont pas aussi performants dans le monde réel lorsqu'ils sont livrés à eux-mêmes. Par exemple, le Chicago Sun-Times a récemment publié une liste de livres incontournables pour l'été. La mise en garde ? L'IA a créé la liste, et la plupart des livres qui y figurent ne sont pas réels. Le géant de la restauration rapide McDonald's, quant à lui, a déployé l'IA pour gérer les commandes au drive, mais celle-ci a eu du mal à comprendre ce que disaient les clients ou à ajouter les bons articles à leur commande. Dans un cas, l'interface a ajouté 260 nuggets de poulet (non désirés). Les mêmes contraintes s'appliquent aux dark LLM. Bien qu'ils puissent aider à créer de meilleurs outils, ces outils sont plus efficaces entre les mains des humains.
C'est une bonne nouvelle pour les entreprises. Si la menace des dark LLM reste préoccupante, les mêmes pratiques qui assurent la sécurité des données aujourd'hui aideront à défendre les actifs contre les attaques menées par les LLM. Les best practice incluent :
1. Si vous voyez quelque chose, dites-le
Les humains restent un élément clé d'une défense efficace. Pensez aux e-mails d'hameçonnage. Aussi bien conçus soient-ils, ils nécessitent une interaction humaine pour réussir. En formant le personnel à reconnaître les caractéristiques des tentatives d'hameçonnage et, plus important encore, à signaler lorsqu'ils constatent quelque chose d'anormal, les entreprises peuvent réduire considérablement leurs risques.
2) Revenir aux bases
En cas de doute, revenez aux bases. Les pratiques de sécurité fondamentales telles que le chiffrement fort, l'authentification solide et le zero trust sont tout aussi efficaces contre les attaques menées par l'IA que contre les vecteurs de menace plus courants.
3) Garder une longueur d'avance
Les outils d'IA aident les cybercriminels à créer un meilleur code et à produire des contrefaçons plus convaincantes. Mais cela ne les rend pas invisibles. En utilisant des outils avancés de détection et de réponse aux menaces, les entreprises sont mieux préparées pour anticiper les menaces et les neutraliser. Les entreprises peuvent également exploiter la puissance de la sécurité IA pour déjouer les informations malveillantes.
Résultat ? L'intelligence artificielle est à la fois une aubaine et un fléau pour les entreprises. Pour chaque utilisation éthique, il existe une contrepartie malveillante, et les dark LLM ne sont que la dernière itération. Bien qu'ils soient préoccupants, ils ne sont pas insurmontables. En associant la surveillance humaine à une solide hygiène de sécurité et à des outils de détection avancés, les entreprises peuvent mettre en lumière les efforts des pirates et tenir l'obscurité à distance.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter