
Les autorités du monde entier ont élaboré leurs réponses à l'essor de l'intelligence artificielle (IA) dans le but de fournir des orientations et des réglementations à ce nouveau domaine technologique. Les dirigeants internationaux réfléchissent au potentiel de nombreuses implications concernant des changements à l'échelle internationale, depuis les préoccupations concernant les droits de l’homme jusqu’à l’accélération du développement durable.
Que doivent donc savoir les chefs d'entreprise qui développent et exploitent l'IA ?
Aperçu de la résolution de l'ONU
Le 21 mars 2024, l'Assemblée générale des Nations unies a adopté à l'unanimité la première résolution mondiale relative à l'IA, axée sur le développement et le déploiement « sûrs, sécurisés et fiables » de cette technologie. La résolution non contraignante encourage les pays à :
- protéger les droits de l'homme : veiller à ce que l'utilisation de systèmes d'IA atténue les préjugés, préserve la diversité linguistique et culturelle et protège les droits des personnes en ligne et hors ligne
- protéger les données personnelles : développer des mécanismes et des politiques de sécurité des données appropriés, en préservant la confidentialité tout en respectant les exigences internationales, nationales et locales en matière de transparence et d'établissement de rapports
- surveiller les risques : prendre des mesures efficaces pour prévenir et atténuer les vulnérabilités lors du développement des systèmes d'IA, et créer des mécanismes de retour permettant aux utilisateurs finaux de signaler les abus
La résolution, proposée par les États-Unis, était appuyée par plus de 120 pays. Comme l'a déclaré l'ambassadrice américaine Linda Thomas-Greenfield, l'objectif est de « contrôler l'intelligence artificielle plutôt que de la laisser nous contrôler. »
Autres accords internationaux
La résolution de l’ONU constitue la dernière initiative faisant partie d'une série d'efforts internationaux visant à contrôler l’utilisation de l’IA.
En novembre 2023, 18 pays ont signé une résolution visant à rendre l'IA « sécurisée dès sa conception ». Les pays signataires sont les États-Unis, la Grande-Bretagne, l'Allemagne, l'Italie, la République tchèque, l'Estonie, la Pologne, l'Australie, le Chili, Israël, le Nigeria et Singapour.
La résolution non contraignante reflète une approche axée sur la sécurité, exhortant les entreprises qui conçoivent et utilisent l'IA à protéger le public contre les abus. Le document de 20 pages comprend des directives relatives à la surveillance des systèmes d’IA destinées à détecter les abus, protéger les données et contrôler les fournisseurs de logiciels.
En mars 2024, le Parlement européen a adopté la loi européenne relative à l'intelligence artificielle, qui devrait entrer en vigueur en mai ou juin de cette année. La loi, qui s'applique à la fois aux développeurs et aux déployeurs de systèmes d'IA, classe les pratiques relatives à l'IA selon différents niveaux de risque qui sont soumis à des réglementations différentes. Par exemple, les systèmes d'IA qui exploitent les vulnérabilités des humains présentent un « risque inacceptable », alors que les jeux vidéo utilisant l'IA sont considérés comme « présentant un risque minimal ».
Mesures législatives américaines
L’administration Biden a également pris plusieurs mesures visant à définir des paramètres dans le champ de l’IA. Le président Biden a publié un décret en octobre 2023 obligeant les développeurs de systèmes d'IA susceptibles de constituer une menace pour la sécurité nationale ou pour le public à partager les résultats de leurs tests de sécurité avec le gouvernement américain. Puis, en mars 2024, M. Biden a ordonné à chaque agence fédérale de nommer un directeur de l'IA.
En interne, le Congrès américain a restreint l’utilisation des outils d’IA par le personnel en raison de préoccupations concernant la fuite de données confidentielles et leur utilisation pour former l’IA. Plus précisément, les membres du personnel n'ont pas le droit d'utiliser Microsoft Copilot. Ils sont également limités à la version payante de ChatGPT, qui est plus sécurisée que la version gratuite.
Quelles implications pour les entreprises ?
Si votre entreprise n'a pas encore mis en place de politiques relatives à l'IA et à la sécurité des données, elle devrait le faire. Une étude récente a révélé que 75 % des professions intellectuelles utilisent l'IA générative au travail, dont la moitié à l'insu de leur patron. Les préoccupations des chefs de gouvernement concernant l’IA s’appliquent également aux entreprises, ce qui explique probablement pourquoi le rapport a révélé que la préoccupation n° 1 des chefs d’entreprise cette année est la cybersécurité et la confidentialité des données.
Bien que les résolutions internationales n'aient pas encore force de loi, les entreprises seraient bien avisées de prendre en compte ces mesures et d'autres mesures gouvernementales lorsqu'elles développent et déploient l'IA, en les suivant comme des indicateurs de la législation actuelle et future. Cela est particulièrement vrai pour les entreprises dont les activités sont internationales, afin de protéger leur sécurité et d'éviter d'investir dans des technologies qui pourraient être bloquées par une future réglementation.

Rapport 2025 sur les ransomwares
Principales conclusions concernant l’expérience et l’impact des ransomwares sur les organisations du monde entier
S’abonner au blog de Barracuda.
Inscrivez-vous pour recevoir des informations sur les menaces, des commentaires sur le secteur et bien plus encore.

Sécurité des vulnérabilités gérée : correction plus rapide, risques réduits, conformité simplifiée
Découvrez à quel point il peut être facile de trouver les vulnérabilités que les cybercriminels cherchent à exploiter