Les États-Unis et dix-sept autres nations ont récemment approuvé un accord international détaillé visant à garantir la sécurité de l’intelligence artificielle (IA), incitant les entreprises à concevoir des systèmes résistants à l’exploitation. Bien que cet accord ne soit pas contraignant, il formule principalement des recommandations générales, telles que la surveillance des abus liés à l’IA, la protection des données contre la manipulation, et l’évaluation des fournisseurs de logiciels. Parmi les signataires de cet accord, on compte les États-Unis, le Royaume-Uni, l’Allemagne, l’Italie, la République tchèque, l’Estonie, la Pologne, l’Australie, le Chili, le Nigeria, et Singapour.
L’objectif déclaré de l’accord est de sécuriser la conception des systèmes d’IA et d’établir des normes de sécurité dès la phase de conception, comme l’a souligné Jane Easterly, directrice de l’Agence de cybersécurité et de la cybersécurité américaine. Cependant, l’accord ne traite pas de questions controversées, telles que l’utilisation appropriée de l’IA ou la collecte de données alimentant ces modèles.