
Le test de Turing sur les e-mails
Avec l’utilisation croissante de grands modèles de langage (LLM) tels que ChatGPT et Gemini, une part de plus en plus importante des textes par lesquels nous communiquons est générée par des systèmes automatisés plutôt que par un humain tapant sur son clavier. L’un des avantages des LLM en termes de productivité est de nous aider à générer, modifier ou reformuler des e-mails, un domaine où nombre d’entre nous passent beaucoup de temps à lire et à écrire. En fait, l’IA a déjà infiltré notre boîte mail, au-delà même de la fonction de saisie automatique d’Office 365 et de Gmail, avec une grande variété de plugins qui facilitent le résumé, la composition, la correction et l’organisation des messages.
La génération de contenu se développe et évolue rapidement, et les e-mails n’échappent pas cette évolution. Nous sommes nombreux à avoir observé des messages entrants « excessivement polis » ou rédigés dans un style différent de l’écriture habituelle de l’expéditeur. D’où la question lorsque nous recevons un e-mail : ce message a-t-il été écrit par un humain ou une machine ?
On peut d’ailleurs se demander s’il est vraiment important de répondre à cette question. On peut faire valoir que si les LLM sont en train de devenir l’outil de productivité indispensable pour gagner du temps, qu’il en soit ainsi. De plus, si l’expéditeur de l’e-mail n’est pas un locuteur natif de la langue utilisée, les LLM peuvent être une aubaine pour aider l’auteur à corriger et à éviter des fautes de grammaire embarrassantes. Les LLM peuvent également aider à rédiger un message dans un certain style pour une personne qui ne connaît pas l’étiquette locale du monde des affaires (par exemple, une personne ayant des activités dans un pays étranger ou un jeune diplômé), en demandant par exemple au LLM de rédiger l’e-mail sur un ton poli et orienté business.
Le texte généré par l’IA est-il plus susceptible d’être du spam ou du phishing ?
Lorsque l’expéditeur est un collègue ou un ami, ou quelqu’un habilité à vous envoyer un e-mail utile, pas de problème. Mais comme pour toute technologie, les cas d’utilisation malveillants existent. Les LLM peuvent générer des spams très convaincants et personnalisés. Pire encore, ils peuvent créer des attaques de spear phishing ou de compromission des e-mails professionnels (BEC) très ciblées, en imitant le ton, le style et la signature de l’expéditeur dont l’identité a été usurpée. Par conséquent, la capacité à déterminer si un e-mail a été généré par un être humain ou une machine est un indicateur précieux pour un filtre anti-spam ou un détecteur d’hameçonnage.
De fait, notre groupe d’étude travaille activement au développent d’un tel outil de détection, en s’appuyant sur les récentes avancées de la recherche dans ce domaine. L’objectif est d’utiliser un modèle d’IA pour détecter si le texte a été généré par l’IA. Comme un serpent qui se mort la queue.
Il est particulièrement difficile de déterminer si le texte d’un e-mail a été généré par l’IA, car il peut être très court et laconique. Nous avons donc moins de texte à analyser, mais la longueur du texte est aussi un facteur que nous prenons en compte pour déterminer s’il a été généré par l’IA. Nous (comme d’autres) avons remarqué que les textes générés par l’IA sont souvent verbeux, longs et excessivement formels. Un autre facteur auquel nous sommes attentifs est l’utilisation de certaines phrases qui sont plus susceptibles d’être générées par une IA que par un humain. Exemple : « depuis la dernière mise à jour de mes connaissances ».
Que nous réserve l'avenir ?
Il semble que nous entrons dans une époque où une grande partie des textes que nous lisons ne seront plus générés directement par des humains. Les conséquences sur de nombreux aspects de notre vie pourraient être considérables au niveau de nos interactions sociales et professionnelles quotidiennes, de nos salles de classe et établissements d’enseignement, et des contenus que nous consommons. Cela aura également un impact énorme sur la cybercriminalité et la cybersécurité. En effet, en éliminant les entraves aux attaques sophistiquées de spear phishing et de BEC des cybercriminels, l’IA met les chercheurs en cybersécurité face à un défit colossal. Heureusement, les LLM et autres modèles d’IA de fondation offrent une contrepartie : ils peuvent permettre de détecter et de prévenir ces attaques avec une bien plus grande précision. Le jeu du chat et de la souris a donc encore de beaux jours devant lui.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter