Prévisions de la ligne de front de sécurité pour 2026 : la bataille pour la réalité et le contrôle face à l'essor de l'IA agentique
Un aperçu de la manière dont l'IA agentique transformera les menaces et les défenses cyber en 2026
Ce qu’il faut retenir
- Comment l'IA agentique façonne l'évolution du paysage des menaces
- Comment les organisations peuvent se défendre contre les menaces de l'IA agentique
- Quelles stratégies pour protéger les implémentations de l'IA agentique
- Comment l'IA agentique contribuera à améliorer la sécurité
La puissance et le potentiel de l'IA agentique, à la fois adaptative, automatisée et autonome, ont dominé les débats sur la sécurité en 2025. Barracuda a demandé à quatre de ses responsables de la sécurité et de la défense contre les cybermenaces dans le monde à quelles évolutions ils s'attendaient en 2026 dans le domaine de l'IA agentique, et les implications sur le plan de la cybersécurité.
Entre eux, ils anticipent un avenir où :
- ·À l'aide de l'IA agentique, un opérateur malveillant exécutera des cyberattaques de bout en bout : collecte des informations nécessaires, élaboration de leurres convaincants, test d'un chemin, observation des réactions de protection ou de défense de la cible, puis modification discrète de la tactique et du timing jusqu'à ce que le but soit atteint. Les défenseurs doivent s'attendre à de nouveaux types d'attaques et à des tactiques jamais vues auparavant, potentiellement difficiles à expliquer après coup. (Yaz Bekkar)
- L'IA agentique analysera de vastes quantités de données pour identifier les vulnérabilités en temps réel, ce qui permettra aux pirates d'automatiser l'exploitation des faiblesses plus efficacement. (Jesus Cordero-Guzman)
- L'IA conversera avec des individus, tant vocalement que par messagerie, à un niveau si performant que les gens ne pourront quasiment pas détecter que leur interlocuteur n'est pas une personne réelle. (Eric Russo)
- Plusieurs agents d'IA travailleront de concert sur des actions en vue d'atteindre un objectif donné, avec une supervision humaine minimale ou inexistante. Cela donne la possibilité à des opérateurs malveillants de détourner ou d'empoisonner les interactions entre agents en utilisant des informations sous leur contrôle afin de manipuler les actions coordonnées. L'absence d'êtres humains dans la boucle peut retarder la détection et l'atténuation. (Rohit Aradhya)
- Le leadership en matière de cybersécurité devra se focaliser sur la gestion des agents d'IA ainsi que des personnes. Les responsables nouvelle génération devront apprendre à inclure des agents d'IA dans leurs équipes et à les gérer pour améliorer la productivité et la prise de décision. (Jesus Cordero-Guzman)
Quel rôle joue l'IA agentique dans l'évolution du paysage des menaces en 2026 et au-delà ?
Yaz Bekkar, architecte consultant principal XDR, EMEA. D'ici l'année prochaine, les attaques n'utiliseront pas seulement l'IA, mais l'IA se comportera comme un opérateur indépendant, prenant des décisions en temps réel pour atteindre l'objectif de l'attaque. Nous voyons déjà l'IA automatiser des parties de la chaîne de la mort telles que la reconnaissance, le hameçonnage et l'évasion de la défense de base. Je pense qu'en 2026, on s'orientera vers des systèmes qui planifient les étapes, tirent des enseignements des défenses en temps réel et redirigent sans intervention humaine.
L'opérateur malveillant de l'IA sera le maître du jeu de bout en bout : collecte des informations nécessaires, élaboration de leurres convaincants, test d'un chemin, observation des réactions de protection ou de défense de la cible, puis modification discrète de la tactique et du timing jusqu'à ce que le but soit atteint. Ces outils de piratage avancés donneront l'impression d'un cerveau coordonné qui enchaîne les actions, tire des leçons de chaque obstacle et s'intègre à l'activité normale.
Les défenseurs doivent s'attendre à de nouveaux types d'attaques et à des tactiques jamais vues auparavant, potentiellement difficiles à expliquer après coup. La surface d'attaque continue de s'étendre, créant à la fois des failles connues et inconnues, et l'exploitation des vulnérabilités zero-day va augmenter.
Eric Russo, directeur de la sécurité défensive du SOC. L'IA a progressé si rapidement qu'elle peut converser avec des individus, tant vocalement que par messagerie, à un tel niveau de performance que les gens ne peuvent quasiment pas détecter que leur interlocuteur n'est pas une personne réelle. Les utilisateurs Android, par exemple, peuvent désormais exploiter les capacités d'IA de Google pour répondre aux appels téléphoniques provenant de numéros inconnus, poser des questions, engager une conversation et déterminer si l'appel est légitime. La technologie est extrêmement impressionnante, mais imaginez un acteur malveillant qui utiliserait cette même technologie.
L'IA agentique pourrait être utilisée pour transformer les approches traditionnelles en matière d'attaques – par exemple, lors d'une attaque d'ingénierie sociale contre un membre de l'équipe financière afin d'obtenir les numéros des comptes bancaires de l'entreprise. Par ailleurs, un attaquant pourrait avoir des objectifs plus complexes, comme utiliser l'usurpation d'identité deepfake pour inciter un administrateur du service d'assistance à réinitialiser le MFA, ce qui lui donnerait accès aux systèmes informatiques et lui permettrait de déployer une attaque plus élaborée.
Jesus Cordero-Guzman, directeur, architectes de solutions pour les applications, la sécurité réseau et le XDR, région EMEA. L'IA autonome est déjà une réalité, et elle évoluera rapidement en tant que menace. Elle peut analyser de vastes quantités de données pour identifier les vulnérabilités en temps réel, ce qui permet aux pirates d'automatiser l'exploitation des faiblesses plus efficacement. Xanthorox, une plateforme d'intelligence artificielle auto-hébergée et entièrement conçue pour faciliter la cybercriminalité, est apparue début 2025. Il y a également HexStrike et Venice AI, encore plus avancée. L'IA agentique pourrait devenir une arme destinée aux attaques par hameçonnage automatisées, à la surveillance en temps réel des défenses, voire au décryptage des CAPTCHA pour obtenir un accès non autorisé.
Rohit Aradhya, vice-président et directeur général, ingénierie de la sécurité des applications. L'évolution de l'IA agentique entraînera une augmentation des malwares polymorphes adaptatifs, c'est-à-dire capables d'analyser l'environnement et les outils de sécurité de la victime, puis de réécrire ou de modifier leur propre code et leur propre comportement de manière autonome afin de contourner les défenses basées sur la reconnaissance de signatures et sur le comportement en temps réel.
Nous verrons plusieurs agents travailler de concert sur des actions visant à atteindre un objectif donné, avec une supervision humaine minimale ou inexistante. Cela donne la possibilité à des opérateurs malveillants de détourner ou d'empoisonner les interactions entre agents en utilisant des informations sous leur contrôle afin de manipuler les actions coordonnées. L'absence d'humains dans la boucle pourrait retarder la détection et l'atténuation.
Nous assisterons également à une augmentation significative de l'utilisation abusive des interfaces de programmation d'application (API) destinées au public, des passerelles API, des API de services agentiques et des interfaces utilisateur basées sur des chatbots. La gestion du cycle de vie des API devra impérativement être en mesure de supporter le traitement dynamique des API, car les outils agentiques créent et détruisent dynamiquement des interfaces API entre agents et entre agents et utilisateurs, destinées à la fourniture et à la consommation de services.
Comment les organisations peuvent-elles se défendre contre les menaces basées sur l'IA agentique et protéger leurs propres systèmes d'IA agentique ?
Yaz Bekkar. La plupart des entreprises ne verront pas venir l'IA agentique. C'est un peu comme le chat de Schrödinger : l'environnement informatique donnera l'impression d'être à la fois « sécurisé » et « compromis » au même moment, sans aucun indice clair pour les défenseurs.
La seule défense réaliste consiste à adopter une détection basée sur le comportement, optimisée par une IA adaptée à votre environnement, et non un outil d'IA acheté et mis en service tel quel, en espérant qu'il fonctionne avec ses paramètres par défaut. Trouvez la bonne solution, mettez-la en œuvre correctement et continuez à l'améliorer. La véritable résilience résulte de la combinaison entre une technologie robuste et des experts de haut niveau qui l'exploitent jour après jour.
Les organisations doivent passer des outils ponctuels et cloisonnés à une plateforme offrant une réelle visibilité de bout en bout. Cela inclut les identités, les terminaux, le SaaS, le cloud, les e-mails et le trafic réseau. Vous devez également vous appuyer sur une IA d'analyse axée sur le comportement, qui apprend ce qui est normal pour vous et peut détecter les anomalies et les modèles de type zero-day sans attendre les signatures. Des êtres humains doivent être présents dans la boucle.
Jesus Cordero-Guzman. Les mécanismes de défense traditionnels peuvent avoir du mal à suivre le rythme et l'adaptabilité des menaces basées sur l'IA. Pour contrer efficacement ces menaces en évolution, les organisations devront investir dans des solutions de sécurité avancées qui intègrent l'IA à des fins de détection et de réponse aux menaces.
Que doivent faire les organisations pour protéger leurs propres implémentations de l'IA agentique ?
Jesus Cordero-Guzman. Le leadership en matière de cybersécurité devra se focaliser sur la gestion des agents d'IA ainsi que des personnes. Les responsables nouvelle génération doivent apprendre à inclure des agents d'IA dans leurs équipes et à les gérer pour améliorer la productivité et la prise de décision.
Il nous faudra en apprendre davantage sur la maîtrise technique, le traitement du langage naturel et l'analyse des données pour donner aux agents d'IA le « caractère » nécessaire au modèle d'entreprise organisationnel. Le défi n'est pas seulement opérationnel, il est également éthique. Nous devons veiller à ce que les agents d'IA intégrés soient utilisés de manière responsable et que les décisions prises par ces systèmes soient conformes aux valeurs organisationnelles et aux normes sociétales. À mesure que l'IA continuera d'évoluer, le rôle du leadership dans l'orientation de l'entreprise au sein de ce paysage dynamique de la cybersécurité évoluera lui aussi.
Rohit Aradhya. À mesure que les organisations commenceront à mettre en œuvre l'IA agentique, elles devront déployer un éventail de contrôles de sécurité spécifiques à l'IA, notamment une gestion robuste des identités et des accès pour les agents d'IA. Chaque agent doit être traité comme une entité autonome à laquelle sont associés des utilisateurs, des groupes et des privilèges d'accès aux ressources. Les organisations devront étendre leur cadre zero trust aux agents et outils d'IA afin de vérifier et de valider chaque requête et action qu'un agent tente d'exécuter, quel que soit son comportement antérieur. Elles devront se focaliser davantage sur la surveillance du comportement opérationnel des systèmes, afin que toute déviation soit détectée rapidement. Les communications entre agents doivent être sécurisées, correctement authentifiées, chiffrées et enregistrées à des fins de traçabilité et d'explicabilité, ainsi que pour se protéger contre les attaques visant à empoisonner les communications. Dernier point, mais non des moindres, les organisations doivent s'assurer qu'elles comprennent et respectent des normes telles que le cadre de référence pour la gestion des risques liés à l'IA du NIST.
Au-delà des risques qu'elle présente, comment l'IA agentique contribuera-t-elle à améliorer la sécurité ?
Eric Russo. L'IA agentique sera un outil puissant pour les équipes du SOC. Elle offre la possibilité de réduire la charge de travail réactif des équipes du SOC tout en augmentant la capacité des ressources à prendre des initiatives de sécurité plus proactives, telles que la recherche et l'ingénierie liées à la détection des menaces, etc. Par exemple, de nombreuses tâches liées à la gestion administrative des systèmes de sécurité peuvent être déléguées à une IA agentique. Dorénavant, le temps qu'un analyste ou un ingénieur du SOC aurait traditionnellement passé à réaliser ces tâches manuelles pourra être consacré à une analyse plus poussée des menaces émergentes.
Un autre cas d'utilisation de l'IA en matière de sécurité défensive consiste à développer l'apprentissage automatique pour la détection des menaces. Les mécanismes de détection classiques sont plus statiques par nature. Toutefois, il est possible de développer une approche très efficace pour détecter les acteurs malveillants sophistiqués, basée sur la création d'algorithmes d'apprentissage automatique capables d'établir des niveaux de référence en matière de comportement des utilisateurs et de trafic réseau, entre autres, puis de définir des critères pour la notation des anomalies afin de permettre aux systèmes de décider quand une alerte de sécurité doit être déclenchée. Cette approche a également l'avantage de produire des alertes plus fiables, ce qui réduit la fatigue liée aux alertes et les faux positifs.
Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.
Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter