Nous vivons dans un monde automatisé à grande vitesse, grâce à la révolution algorithmique. Les relations internationales ne sont donc pas à l’abri de ces changements radicaux dans le développement technologique. Dans ce contexte, la communauté scientifique internationale cherche à apporter des réponses à ces nouveaux défis d’innovation, en particulier face aux menaces et aux turbulences mondiales croissantes d’aujourd’hui.
Les progrès de l’intelligence artificielle (IA) font déjà partie de notre quotidien et sont inévitablement là pour durer. Cependant, nous sommes confrontés à d’importants déséquilibres sociaux, économiques et énergétiques qui constituent aujourd’hui des sources de grandes tensions et de conflits où l’utilisation de l’IA exerce un poids décisif sur les conséquences géopolitiques et l’adéquation des normes du droit international.
Un début de cadre juridique
En effet, même avant la pandémie, de nombreux gouvernements et organisations ont commencé à promouvoir la mise en place de mécanismes de consultation et de dialogue politique pour avancer vers une législation internationale sur l’IA. C’est ainsi qu’en octobre 2023, les pays du G7 ont adopté « Le Processus d’IA d’Hiroshima », qui comprend essentiellement un code de conduite international destiné aux agents de l’IA, ainsi qu’un ensemble de principes favorisant la coopération en faveur du développement des pratiques d’IA sûres.
Le Parlement européen vient d’approuver le 13 mars le Règlement sur l’Intelligence Artificielle, également appelé Loi sur l’Intelligence Artificielle, qui, conformément aux principes d’Hiroshima, vise une harmonisation des services technologiques, établissant des conditions spécifiques pour la surveillance des systèmes d’IA à haut risque, des mesures de soutien à l’innovation et des mécanismes de contrôle des opérations bancaires en matière de vérification biométrique de l’identité et de gestion des risques de crédit et financiers. Cependant, à l’instar de la ligne non interventionniste des États-Unis, son adhésion n’est pas obligatoire pour les entreprises, dont la responsabilité finirait par être résolue par la législation commerciale.
Quels sont les apports et les dangers de l’IA pour la géopolitique ?
Le monde manque de gouvernance de l’IA, ce qui signifie qu’il existe de nombreuses lacunes juridiques concernant les mécanismes de résolution des différends associés à cette question, surtout s’ils concernent des questions de sécurité nationale et internationale.
Le fossé technologique qui existe entre de nombreux pays en matière de conceptions et d’infrastructures d’IA rend non seulement difficile l’accès aux connaissances et à l’information, mais constitue également un domaine complexe lié à la confidentialité des États.
L’IA vise à simplifier l’information, gagner du temps, transférer des connaissances, renforcer et développer les capacités, perfectionner les méthodes de travail, les processus correctifs, l’analyse, la prévention des risques, la modernisation des systèmes numériques, le traitement et la transmission des données, les communications et toutes ces questions liées au social, économique, la transformation commerciale, sportive et culturelle. Ces raisons favorisent son fonctionnement et son utilité pour le développement de l’humanité.
Malgré tout, les risques dépassent les marges de régulation des affaires intérieures lorsque les gouvernements profitent des avantages de l’IA pour générer des conflits pouvant inclure la mise en œuvre d’espionnage, de sabotage, d’ingérence, de vol d’informations ou l’utilisation de l’IA à des fins de guerre pour faire fonctionner des centrales nucléaires. les bombes, les armes chimiques et tout ce qui touche aux guerres non conventionnelles, y compris les cyberattaques.
Par conséquent, la transparence joue une importance essentielle pour que les différents acteurs internationaux puissent formuler des politiques publiques efficaces ancrées dans des codes d’éthique responsables en matière d’IA. En ce sens, il est important de souligner que la réglementation ne vise pas à ralentir ou à restreindre les avancées de l’IA mais à définir les paramètres de fiabilité de son développement.
Un exemple en est son utilisation dans la diplomatie écologique, qui a favorisé la transition énergétique avec les processus d’optimisation et d’intégration des énergies renouvelables et leur connexion avec l’électricité, à travers des micro-réseaux et un stockage d’énergie adéquat qui utilisent un logiciel d’intelligence artificielle qui facilite ces conditions. L’IA a également été adaptable pour réduire la consommation d’énergie en faveur de la réduction de l’impact des gaz à effet de serre et de l’atténuation des catastrophes naturelles.
Concilier les intérêts en jeu
Mais nous insistons sur le fait que la plus grande difficulté dans le domaine géopolitique, comme je l’ai indiqué précédemment, est de concilier les intérêts en jeu dans la régulation de l’IA. Cette dernière est totalement différente des autres technologies car hyper-évolutive, puisqu’elle est précisément là où les stratégies, notamment celles des grandes puissances, empêchent de trouver des mécanismes de consensus en la matière, transformant l’IA en une arme technologique très sophistiquée et présentant des niveaux de danger élevés. C’est le cas de la course aux armements avec laquelle l’IA génère une nouvelle configuration tactique de la géométrie du pouvoir.
La communauté internationale doit désormais œuvrer pour parvenir à un cadre conceptuel à travers des accords qui reflètent le consensus obtenu dans le processus d’Hiroshima et appliquer ainsi les principes de précaution, d’agilité, d’inclusivité et d’imperméabilité pour promouvoir une gouvernance opérationnelle et adaptable de l’IA à l’échelle mondiale, notamment pour éviter toute catastrophe technologique causée soit par un accident, soit par des cyberattaques.
En conclusion, il semble que l’avancée de la course technologique va au même rythme que la croissance des tensions internationales, sans considérer que la priorité numéro 1 n’est pas seulement de protéger le commerce ou les services d’IA mais aussi les démocraties et les droits humains universels. Et c’est précisément là le principal défi de la diplomatie technologique, regroupant les acteurs publics et privés autour de la sensibilisation à l’utilisation humaniste de l’innovation et de la robotique pour renforcer et perfectionner les capacités humaines à leur propre bénéfice, dans des secteurs fondamentaux tels que l’agriculture, le développement durable, la science et l’énergie, ce qui se traduirait par une réduction du coût de la vie pour les populations.