
Prédictions pour l’avenir de l’IA dans la cybersécurité
Les acteurs de la menace améliorent leurs attaques en exploitant l’intelligence artificielle (IA) de toutes les manières possibles. L’IA rend chaque attaque, du deepfake au credential stuffing, moins chère, plus efficace et plus rapide. La bonne nouvelle, c’est que le secteur de la sécurité a également accès aux capacités de l’IA et que des solutions de sécurité optimisées par l’IA sont disponibles depuis des années. L’IA générative (GenAI) et les grands modèles linguistiques (LLM) tels que ChatGPT sont des sous-ensembles de l’IA qui sont désormais à la portée d’un plus grand nombre de consommateurs. Il n’est plus nécessaire de travailler dans le domaine de la technologie pour utiliser l’IA. Il est désormais possible de créer des images, d’écrire des histoires, d’effectuer des recherches et même de jouer à des jeux de rôle à l’ancienne en utilisant ChatGPT. La démocratisation de l’IA via des applications grand public a fait de cette technologie un problème majeur. L’une des questions les plus abordées à ce sujet est le rôle de l’IA sur le lieu de travail. Une machine dotée d’une intelligence artificielle pourrait-elle vous remplacer à votre poste ? Combien de travailleurs l’IA va-t-elle remplacer ?
Le rôle de l’intelligence artificielle aux côtés du travail humain peut être un sujet controversé, mais dans le domaine de la cybersécurité, l’IA est la bienvenue. L’apprentissage automatique et d’autres types d’IA sont déjà intégrés à la plupart des solutions de sécurité qui nous protègent aujourd’hui. Toutes les solutions de sécurité et de protection des données de Barracuda sont dotées de multiples fonctionnalités, notamment l’apprentissage automatique intégré et d’autres types d’IA. Il est impossible d’évaluer et d’agir sur l’ensemble des données et des événements générés par des centaines de milliers de déploiements. La plupart des humains ne sont pas capables de reconnaître des modèles parmi toutes ces données. L’IA améliore l’automatisation et la préparation à la sécurité en suivant le rythme des menaces avancées et émergentes plus efficacement qu’une équipe de professionnels de la sécurité.
L’IA peut alléger la charge de travail des équipes de sécurité, mais malgré toutes ses promesses, elle ne peut pas remplacer l’expertise des humains. Les analystes de sécurité et autres technologues sont indispensables pour donner du sens aux résultats de l’IA, faire progresser son développement et aider les parties prenantes à comprendre les activités de menace et la posture de sécurité.
Dans cette optique, les experts de Barracuda ont identifié cinq domaines qui, selon eux, bénéficieront le plus de l’amélioration de l’IA au cours des prochaines années. Notre nouvel e-book intitulé « Assurer l’avenir : Guide du RSSI sur le rôle de l’IA dans la cybersécurité », contient plus de détails sur ces sujets.
Détection adaptative des menaces
Lorsque nous parlons de détection des menaces en cybersécurité, nous faisons référence au processus d’identification des menaces et des activités malveillantes qui pèsent sur la sécurité. La détection des menaces optimisée par l’IA surveille les activités et analyse les données et les événements générés par les systèmes concernés. Les fonctionnalités de reconnaissance des modèles identifient ces activités plus rapidement que les humains, et les renseignements sur les menaces pilotés par l’IA informent le système des menaces émergentes. Les acteurs malveillants trouveront de nouveaux moyens de renforcer leurs attaques grâce à l’IA, et les défenses alimentées par l’IA progresseront à leur tour pour les contrer. Les attaquants et les professionnels de la cybersécurité dressent leurs modèles d’IA les uns contre les autres. Nous avons abordé ce type d’entraînement dans notre article sur la génération de malware.
Systèmes de sécurité autonomes pilotés par l’IA
Ces systèmes utilisent l’IA pour détecter, analyser et répondre aux cybermenaces sans intervention humaine. Ils ont apporté une contribution significative dans le domaine de la sécurité et de la réponse aux incidents, car ils renforcent les processus décisionnels des analystes humains. En tirant parti de l’apprentissage automatique, de l’apprentissage profond et d’autres technologies d’IA, ces systèmes peuvent surveiller et protéger en permanence et en temps réel les environnements informatiques.
Les experts prévoient que les systèmes de sécurité autonomes deviendront de plus en plus courants en raison de la complexité croissante des cybermenaces. Les solutions d’IA avancées sont la seule défense contre le volume et la sophistication des cyberattaques.
Apprentissage fédéré pour les renseignements sur les menaces
L’apprentissage fédéré est une technique d’apprentissage automatique qui fonctionne avec plusieurs entités décentralisées entraînant un modèle partagé de manière collaborative sans échanger de données locales. L’entraînement a lieu sur chaque jeu de données local et l’entité partage uniquement les mises à jour du modèle avec le serveur central. Ainsi, les données sensibles restent sur l’appareil de l’utilisateur et le serveur central ne stocke jamais une grande quantité de données brutes. L’image suivante illustre la différence entre les systèmes d’apprentissage centralisé et fédéré :
L’apprentissage fédéré utilise également des techniques de chiffrement avancées pour garantir la sécurité des données.
Le partage des renseignements sur les menaces au sein de la communauté de sécurité améliore les temps de détection et de réponse et aide les entreprises à allouer leurs ressources en fonction de la menace la plus pertinente. L’adoption de l’apprentissage fédéré continuera de croître à mesure que les entreprises chercheront à réduire les risques associés au partage et à la transmission de données.
Biométrie comportementale pour l’authentification
La biométrie comportementale utilise l’IA et l’apprentissage automatique pour analyser les modèles de comportement humain afin d’identifier ou d’authentifier les utilisateurs. Cette technologie se concentre sur la façon dont les utilisateurs interagissent avec les appareils et les systèmes, comme la dynamique de frappe, les mouvements de la souris et les interactions sur l’écran tactile. Contrairement à l’authentification par empreintes digitales ou à la reconnaissance faciale, la biométrie comportementale surveille en permanence le comportement de l’utilisateur en arrière-plan, sans interaction avec celui-ci.
Cette technologie continue de progresser, mais son utilisation généralisée présente certains défis. Il n’existe pas de normes ni de directives claires à l’échelle du secteur sur la collecte et l’utilisation des données biométriques comportementales. Les utilisateurs finaux peuvent également être réticents à utiliser l’authentification biométrique comportementale pour des raisons de confidentialité. Malgré les obstacles potentiels, ce type d’authentification continuera de se développer. Les modèles comportementaux sont extrêmement difficiles à voler ou à reproduire, ce qui fait de l’authentification biométrique comportementale un puissant mécanisme de défense contre les accès non autorisés et la fraude.
Réponse à la pénurie de compétences en cybersécurité
Il existe un écart important entre la demande de professionnels de la cybersécurité qualifiés et la main-d’œuvre qualifiée et disponible. Cybersecurity Ventures s’attend à ce que la pénurie mondiale de personnel dans ce domaine atteigne environ 3,5 millions d’ici 2025. Cette pénurie touche les organisations de tous les secteurs économiques et tous les types d’infrastructures critiques. De nombreuses entreprises ont du mal à recruter des équipes de sécurité capables de les protéger pleinement.
Pour tirer le meilleur parti de l’IA dans le domaine de la cybersécurité, il faut associer l’IA et l’expertise humaine. Les technologies d’IA peuvent augmenter la productivité, la précision et la capacité des équipes de sécurité et de cybersécurité. Elles ne peuvent pas combler le manque de compétences, mais peuvent soutenir la main-d’œuvre actuelle tout en améliorant les défenses. Les analystes humains fournissent une compréhension du contexte global, en tenant compte de facteurs tels que les opérations de l’entreprise ou les motivations des attaquants. Les analystes de sécurité sont également chargés de s’assurer que les activités pilotées par l’IA sont conformes aux réglementations applicables ainsi qu’aux valeurs et directives de l’entreprise.
Saviez-vous que...
Selon un rapport récent de Barracuda et du Ponemon Institute, 50 % des professionnels de l’informatique s’attendent à une augmentation du nombre d’attaques en raison de l’utilisation de l’IA. Découvrez tous les détails à ce sujet et bien plus encore dans notre nouvel e-book, Assurer l’avenir : Guide du RSSI sur le rôle de l’IA dans la cybersécurité. Ce nouvel e-book explore les risques de sécurité et présente les vulnérabilités que les cybercriminels exploitent à l’aide de l’IA pour multiplier leurs attaques et décupler leurs taux de réussite. Demandez dès maintenant votre exemplaire gratuit de cet e-book et découvrez les menaces, les données, les analyses et les solutions les plus récentes.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter