Les équipes de cybersécurité commencent à apprécier l'IA

Version imprimable, PDF et e-mail

Lorsque l'intelligence artificielle (IA) a fait son entrée dans le monde de la cybersécurité, le scepticisme régnait, ce qui peut se comprendre. Les allégations selon lesquelles les plateformes d'intelligence artificielle ne nécessiteraient plus le recours à des analystes sécurité ont heureusement fait place à des déclarations bien plus rationnelles qui mettent l'accent sur le lien existant entre les algorithmes de machine learning et l'augmentation du nombre de professionnels de la cybersécurité.

Aujourd'hui, la question qui se pose n'est plus vraiment de savoir si l'IA va remplacer les professionnels de la cybersécurité mais plutôt à quelle vitesse les modèles d'IA basés sur des algorithmes de machine learning peuvent être appliqués. Pas assez rapidement, si l'on en croit une enquête menée auprès de 350 analystes sécurité par International Data Corp (IDC) pour FireEye, un fournisseur de services de sécurité gérés (MSSP).

L'enquête indique que, selon si l'analyste sécurité travaille pour une équipe informatique interne ou un MSSP, entre 45 et 53 % des alertes de sécurité se révèlent être des faux positifs. Plus le nombre de ces faux positifs augmente, plus les alertes ont tendance à être ignorées. L'enquête révèle d'ailleurs que trois analystes sur quatre craignent de passer à côté d'incidents.

En théorie, les algorithmes de machine learning devraient, au fil du temps, réduire les alertes qui s'avèrent être des faux positifs. Il se peut que ce nombre augmente au début, le temps que les algorithmes découvrent l'environnement. Les analystes sécurité sont plutôt optimistes quant à l'adoption de l'IA, et 43 % d'entre eux déclarent y avoir recours au même titre qu'aux technologies de machine learning.

Il est clair que les analystes sécurité ont surmonté leur peur et leur aversion pour l'IA, et bon nombre d'entre eux concluront probablement ne pas vouloir travailler pour des entreprises n'y ayant pas recours. Comme les environnements informatiques se complexifient de plus en plus, les analystes vont être soumis à un niveau de stress trop important, et le seul moyen pour eux de suivre le rythme tout en préservant leur santé mentale, sera d'utiliser davantage l'IA.

Les analystes en cybersécurité devront toujours mettre l'accent sur la transparence et la clarté sans pour autant faire aveuglément confiance à cette technologie. Comme toujours avec l'IA, se tromper est une chose, mais se tromper à grande échelle en est une autre. L'IA ne sera peut-être jamais totalement comprise par tous, mais au bout du compte, même les mathématiques les plus poussées peuvent être expliquées. 

On ignore encore dans quelle mesure les analystes sécurité pourraient un jour communiquer verbalement avec les modèles d'IA car la plupart des tâches que les algorithmes de machine learning vont automatiser seront réalisées en arrière-plan. En revanche, à mesure que les analystes sécurité se fient aux modèles d'IA, il se peut aussi qu'ils en arrivent à demander tout simplement « montre-moi les trois choses qui risquent le plus de me faire virer aujourd'hui ».

En attendant, il est peu probable que, sous sa forme actuelle, l'IA remplace les analystes sécurité un jour. En revanche, de nombreuses tâches de bas niveau qui ternissent souvent l'image de la cybersécurité vont peu à peu disparaître avec le temps. En effet, en s'aidant un peu de l'IA, bon nombre de professionnels de la cybersécurité retrouveront peut-être leur enthousiasme vis-à-vis d'un travail qui, trop souvent, épuise même les meilleurs et les plus intelligents.

 

Leave a Reply

Your email address will not be published. Required fields are marked *

Remonter en haut de page
Tweeter
Partager
Partager