
Des directives visant à sécuriser les modèles d’IA commencent à émerger
Alors que la sécurisation des modèles d’intelligence artificielle (IA) devient l’une des priorités majeures pour l’année à venir, la quantité de directives mises à la disposition des entreprises dans ce domaine augmente rapidement. Le National Institute of Standards and Technology (NIST) par exemple, a publié un rapport intitulé Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations qui décrit les tactiques et les techniques que les cybercriminels sont les plus susceptibles d’employer lorsqu’ils tentent de compromettre les modèles d’IA.
Parallèlement la Cloud Security Alliance (CSA) a lancé une initiative de sécurité de l’IA en partenariat avec Amazon, Anthropic, Google, Microsoft et OpenAI afin de créer une coalition d’experts en sécurité de l’IA issus de l’industrie, du monde universitaire et d’agences gouvernementales telles que la Cybersecurity & Infrastructure Security Agency (CISA).
Auparavant, la CISA et le National Cyber Security Centre (NCSC) du Royaume-Uni avaient annoncé qu’ils collaboraient également à l’élaboration de directives pour la création de systèmes d’IA sécurisés, lesquelles ont été adoptées par 21 autres agences internationales.
Chacune de ces initiatives permettra à l’organisme de se conformer à un décret de l’administration Biden qui a établi des exigences en matière de sûreté et de sécurité de l’IA. Le texte prévoit notamment l’obligation pour le NIST de fixer des normes rigoureuses pour des tests red-team approfondis afin de garantir la sécurité avant la diffusion publique de tout modèle fondamental d’IA susceptible de constituer une menace pour la sécurité nationale. Le ministère de la sécurité intérieure est également chargé d’appliquer ces normes aux secteurs d’infrastructures critiques et de mettre en place un comité de sûreté et de sécurité de l’IA.
Collectivement, ces mesures devraient permettre de remédier à certaines lacunes fondamentales dans la manière dont les modèles d’IA sont développés et déployés dans les environnements de production. Les modèles d’IA sont à la base un autre type d’artefact logiciel soumis aux mêmes problèmes de vulnérabilité que ceux qui affectent d’autres applications. Les malwares que les cybercriminels injectent dans les référentiels de logiciels peuvent rapidement se retrouver dans un modèle d’IA. Or, une fois découverts, le coût de la reconstruction d’un modèle d’IA est d’une ampleur considérable par rapport à la correction d’une application.
De plus, les cybercriminels peuvent provoquer des hallucinations de l’IA dans un modèle en empoisonnant le pool de données utilisé pour l’entraîner. À mesure que les résultats deviennent moins fiables, une organisation va alors perdre confiance dans ce modèle qui a été entraîné à partir d’un ensemble de données vierge.
Les professionnels de la cybersécurité ont une occasion unique de s’introduire dans la chaîne de développement et de déploiement des modèles d’IA avant qu’ils ne soient intégrés dans la plupart des applications. Plutôt que d’essayer de résoudre les problèmes à la suite d’un incident, l’objectif devrait être de mettre en place les processus et les pratiques nécessaires pour éviter que des incidents de cybersécurité ne se produisent demain. Bien sûr, la sécurité parfaite n’existe pas, mais étant donné la nature critique des applications, une approche proactive de la sécurité de l’IA est déjà un impératif.
Le défi, comme toujours, est que la science des données et les développeurs qui créent des applications d’IA n’ont pas toujours la meilleure appréciation de la sécurité. En fait, les professionnels de la cybersécurité devront aller chercher ces projets simplement parce que, comme on peut s’y attendre, la cybersécurité est une préoccupation secondaire pour une grande partie des équipes qui développent les modèles d’IA. La bonne nouvelle est qu’avec l’aide de quelques cadres bien définis, les équipes de cybersécurité d’aujourd’hui devraient être mieux préparées à la sécurisation des modèles d’IA qu’auparavant, lorsque les nouveaux types d’artefacts logiciels sont apparus.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter