
Les préoccupations concernant la sûreté et la sécurité de l'IA deviennent prioritaires
Habituellement, chaque fois qu'il y a un grand bond technologique, il faut un certain temps avant que toutes les implications en matière de cybersécurité soient pleinement comprises. Cependant, avec l'essor des grands modèles de langage (LLM), la sécurité d'une intelligence artificielle (IA) qui peut être établie et appliquée devient rapidement un facteur de différenciation majeur entre les services.
Par exemple, Anthropic invite maintenant les chercheurs à tester un système de sécurité d'IA, appelé Constitutional Classifiers, qui établit un ensemble de principes que chaque instance de son modèle d'IA doit respecter. L’entreprise offre 20 000 $ à tout chercheur qui pourra contourner ces mesures de protection.
Cette offre arrive dans le sillage de la controverse entourant la sortie de DeepSeek, un modèle d'IA open source créé en Chine pour prétendument une fraction du coût d'autres modèles d'IA similaires. Le seul problème est que le modèle d'IA de DeepSeek est truffé de failles de sécurité qui rendent son applicabilité dans un environnement informatique d'entreprise douteuse.
On peut dire que le débat intense autour de DeepSeek est une bénédiction pour les équipes de cybersécurité. La vérité est que les protocoles de sécurité de l'IA et de cybersécurité adoptés par les entreprises vont de l'inexistant au laxiste. En l'absence de toute politique formelle, de nombreux utilisateurs finaux partagent des données sensibles avec des fournisseurs de modèles d'IA sans vraiment comprendre comment ces données pourraient un jour être utilisées pour former la prochaine génération d'un modèle qui sera probablement capable de restituer ces données à quiconque se soucie de formuler la bonne requête. À l'autre extrémité du spectre, certaines entreprises interdisent l'utilisation de modèles d'IA sans avoir la capacité d'appliquer ces politiques. Pour de nombreux utilisateurs finaux, les modèles d'IA ne sont qu'un autre service informatique fantôme à employer subrepticement selon leur convenance.
Nous espérons que davantage d’entreprises, en lien avec leurs équipes de cybersécurité, mettront bientôt en œuvre les contrôles nécessaires pour renforcer les politiques qu’elles définissent. En attendant, les équipes de cybersécurité doivent prendre le temps nécessaire pour comprendre exactement comment chaque service d'IA utilise les données auxquelles il a accès, en commençant par tout engagement pris pour garantir que les données des clients ne seront pas utilisées pour former un modèle d'IA. Le problème est que l'engagement pourrait ne s'appliquer qu'aux données pour lesquelles l'utilisateur final a coché une case pour les exempter spécifiquement de tout paramètre par défaut, qu'aucun utilisateur final n'est susceptible de trouver enfoui dans les centaines de pages d'un accord de licence logicielle.
Il faut déjà être un avocat assez expérimenté pour s'y retrouver dans les conditions générales de la plupart des accords de licence de logiciels existants et, à mesure que de nouvelles mises en garde sont ajoutées à l'ère de l'IA, les risques que les utilisateurs finaux ne comprennent pas les implications du partage de données avec un service d'IA externe ne font qu'augmenter.
Entre-temps, les cybercriminels affinent clairement leurs compétences en matière de contournement de l'IA, autrement dit en exploitant l'ingénierie des invites pour générer des résultats qui contournent les garde-fous de l'IA censés empêcher la création de résultats contenant des données sensibles dès le départ.
En fin de compte, la question n’est pas de savoir s’il y aura des incidents majeurs de cybersécurité impliquant l’IA, mais plutôt de savoir quand et dans quelle mesure. La seule incertitude réside dans la manière dont les entreprises réagiront lorsque ces violations, si elles n'ont pas déjà été constatées, se produiront inévitablement sous peu.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter