
L'IA pourrait générer un code plus fiable
L'essor des nouvelles technologies d'intelligence artificielle (GPT) est déjà établi comme une source de préoccupation parmi les professionnels de la cybersécurité. La perspective de voir les machines générer bientôt un nombre massif d'attaques par phishing, qui seront plus difficiles à détecter, est particulièrement alarmante.
Cependant, les raisons d'être optimiste en matière d'intelligence artificielle (IA) ne manquent pas. Il est peu probable que le jour où les plateformes d'IA seront amenées à coder, elles utilisent les mêmes langages de programmation avancés que ceux utilisés aujourd'hui par les humains pour s'interfacer avec les machines. En revanche, elles reposeront sur des langages de programmation de niveau moindre pour communiquer entre machines. Par conséquent, les erreurs de codage à exploiter par les cybercriminels seront moins nombreuses.
La triste vérité est que la plupart des vulnérabilités en matière de sécurité qui existent aujourd'hui sont liées à un problème d'accès à la mémoire par une application. Les cybercriminels exploitent ensuite ces vulnérabilités pour lancer une attaque qui, par exemple, exploite un dépassement de capacité de la mémoire tampon pour accéder à des données. Les développeurs optent pour des langages sûrs pour la mémoire, tels que Rust, Go, C#, Java, Swift, Python et/ou JavaScript, afin d'éliminer bon nombre de ces vulnérabilités, mais si les machines commencent à coder davantage, cette tendance pourrait ne pas être aussi marquée qu'elle ne l'est aujourd'hui.
En fait, on peut facilement imaginer un avenir où chacun pourrait simplement décrire verbalement ce qu'il veut qu'une application fasse, puis attendre qu'une machine génère du code en parcourant simplement l'internet à la recherche de cas similaires. Il y aurait évidemment des problèmes de droits d'auteur à gérer, mais le nombre de logiciels susceptibles d'être créés sera sans nul doute nettement supérieur à ce qu'il est aujourd'hui.
Bien sûr, tous ces logiciels auront besoin d'un lieu d'exécution qui nécessite d'être sécurisé. Les professionnels de la cybersécurité pourraient bientôt passer beaucoup plus de temps à verrouiller le matériel pour s'assurer que les cybercriminels n'utilisent pas, par exemple, un ensemble d'identifiants volés pour accéder à un environnement applicatif. Il est très probable, par exemple, que les cybercriminels utilisent un jour une plateforme d'IA pour créer une application malveillante renfermant une porte dérobée.
D'ici là, on peut espérer que les entreprises seront beaucoup plus engagées qu'aujourd'hui sur la voie de l'adoption de solutions informatiques Zero Trust, de sorte que les risques encourus seront considérablement réduits. Toutefois, il est peu probable que l'on parvienne un jour à éliminer tous les risques. Il y aura toujours des dépendances, des hypothèses et des biais qui pourront être exploités. Le défi consiste maintenant à trouver le moyen de doter les équipes de cybersécurité des outils d'IA qui seront nécessaires pour déjouer une attaque mise au point par une machine. En effet, les plateformes d'IA se disputeront la suprématie en matière de cybersécurité.
En attendant, les équipes de cybersécurité doivent se préparer au pire avant d'espérer voir la situation s'améliorer. Le plus important à l'heure actuelle est de réduire autant que possible la superficie de la surface d'attaque à protéger. Après tout, la meilleure stratégie de cybersécurité commence toujours par la suppression du nombre de cibles potentielles.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter