Questa dichiarazione è stata fatta in francese. La Svizzera si esprime sempre in francese al Consiglio di Sicurezza dell'ONU. Infatti, si tratta dell'unica lingua che è sia lingua ufficiale dell'ONU sia lingua nazionale svizzera.
Merci, Madame la Présidente.
Nous sommes reconnaissants au Secrétaire général António Guterres d’avoir participé à ce débat important, et mes remerciements s’adressent également à Monsieur Jack Clark et au professeur Yi Zeng pour leurs contributions précieuses et impressionnantes.
« I believe it's only a matter of time before we see thousands of robots like me out there making a difference ».
Ces mots sont ceux du robot Ameca, qui s’adressait à une journaliste lors de la conférence « Artificial Intelligence for Good » que le Secrétaire général vient de mentionner et qui a eu lieu, organisée par l’Union internationale des télécommunications et par la Suisse, il y a deux semaines à Genève.
Si elle peut représenter un défi en raison de sa rapidité et son apparente omniscience, l’intelligence artificielle peut et doit aussi servir la paix et la sécurité. Alors que nous allons nous pencher sur un Nouvel agenda pour la paix, il est entre nos mains de veiller à ce que l’IA fasse la différence au bénéfice et non pas au détriment de l’humanité. Dans ce cadre, saisissons l’occasion de poser les jalons d’une IA pour le bien en travaillant étroitement avec la recherche de pointe.
Dans ce sens, l'Ecole polytechnique fédérale de Zurich développe un prototype d’outil d’analyse assistée par l’IA pour le Centre d’opérations et de crises des Nations unies. Cet outil pourra explorer le potentiel de l’IA pour le maintien de la paix, en particulier pour la protection des civils et des casques bleus. Par ailleurs, la Suisse a récemment lancé l’initiative « Swiss Call for Trust & Transparency », où le monde académique, le secteur privé et la diplomatie cherchent conjointement des solutions pratiques et rapides aux risques liés à l'IA.
Le Conseil doit – lui aussi – œuvrer à contrer les risques de l’IA pour la paix. C’est pourquoi nous sommes très reconnaissants au Royaume-Uni d’avoir organisé ce débat important. Prenons l’exemple des opérations cyber et de la désinformation. Les faux récits sapent la confiance des populations dans les gouvernements et les missions de paix. A cet égard, l’IA est une épée à double tranchant : Si elle accentue la désinformation, elle peut aussi servir à détecter les faux récits et les discours de haine.
Comment pouvons-nous donc récolter les bénéfices de l'IA pour la paix et la sécurité tout en minimisant les risques ? Je me permets de formuler trois pistes.
Premièrement, nous avons besoin d'un cadre commun, partagé par toutes les actrices et tous les acteurs impliqués dans le développement et dans l'application de cette technologie. A savoir les Etats, les entreprises, la société civile et les organisations de recherche – je pense que M. Clark l’a dit très clairement auparavant. L'IA ne se situe pas dans un vide normatif. Le droit international existant – y compris la Charte des Nations unies, le droit international humanitaire et les droits humains – s’y appliquent. La Suisse s’engage dans tous les processus de l'ONU servant à réaffirmer et à clarifier le cadre juridique international de l'IA et, dans le cas des systèmes d'armes autonomes létaux, à élaborer des interdictions et des restrictions.
Deuxièmement, l'IA doit être centrée sur l'humain. Ou, comme vient de le formuler le professeur Zeng, « AI should never pretend to be human ».Nous appelons à ce que le développement, le déploiement et l’utilisation soient toujours guidés par des considérations éthiques et inclusives. Une responsabilité et une redevabilité claires doivent être maintenues, tant pour les Etats que pour les entreprises ou les individus.
Et enfin, le stade relativement précoce du développement de l’IA nous offre l’occasion de garantir l’égalité et l’inclusion et de contrecarrer les stéréotypes discriminatoires. L’IA est aussi performante et fiable que les données que nous lui fournissons. Si ces données reflètent des préjugés et des stéréotypes – par exemple de genre - ou ne sont tout simplement pas représentatives pour son environnement opérationnel, l’IA nous sera de mauvais conseil pour le maintien de la paix et de la sécurité. Il est de la responsabilité des développeurs et des utilisateurs, gouvernementaux ou non, de veiller à ce que l'IA ne reproduise pas les biais sociétaux néfastes que nous nous efforçons de surmonter.
Monsieur le Président,
Le Conseil de sécurité a une responsabilité de suivre pro-activement les développements autour de l’IA et la menace qu’elle peut représenter pour le maintien de la paix et la sécurité internationales. Il devrait s’orienter sur les résultats de l'Assemblée générale concernant le cadre juridique y relatif. Le Conseil doit également utiliser ses pouvoirs pour s’assurer que l’IA servira la paix, en anticipant les risques et les opportunités ou en encourageant le Secrétariat et les missions de paix à utiliser cette technologie de manière innovante et responsable.
Ma délégation a utilisé l’intelligence artificielle pour notre premier débat sur la confiance sous notre présidence, ainsi que dans le contexte d’une exposition avec le CICR sur les dilemmes digitaux. Nous avons pu reconnaitre le potentiel impressionnant de cette technologie pour servir la paix. Nous nous réjouissons donc de faire de la « artificial intelligence for good » une partie intégrante du Nouvel agenda pour la paix.
Je vous remercie.