Skip to main content

Compte tenu de la disponibilité et de l’impact des réseaux sociaux, des logiciels malveillants et de la désinformation à l’échelle mondiale, il est essentiel d’élargir au maximum le champ d’application de la réglementation en matière d’IA. Aucun pays ni aucune organisation ne doit être laissé pour compte. Des efforts régionaux et multilatéraux sont actuellement déployés dans le cadre d’un contre la montre pour la réglementation de l’IA. L’utilisation des mesures de sûreté de l’AIEA comme modèle de réglementation de l’IA assurerait la sécurité, la transparence et le développement bénéfique de l’IA.

Des réglementations internationales en matière d’IA sont nécessaires pour éviter les normes contradictoires ou concurrentes. Elles sont aussi nécessaires pour garantir la sécurité, la fiabilité et la transparence des IA construitent sur des modèles d’apprentissage profond ou de langage étendu tels que ChatGPT et GPT-4.1. L’élaboration de règles et de réglementations internationales devrait impliquer tous les pays et organisations concernés.

Efforts de réglementation de l’IA à ce jour

La France, l’Allemagne et l’Italie sont parvenues à un accord le 18 novembre 2023 sur la future réglementation de l’IA, avec une autorité de l’UE chargée d’en contrôler le respect.

Le président de la Fédération de Russie a proposé « …des principes de contrôle de l’intelligence artificielle communs similaires aux règles de non-prolifération nucléaire » (TASS, 24 novembre 2023).

Le « Sommet sur la Sûreté de l’IA 2023 », qui s’est tenu le 1er et 2 novembre 2023 à Bletchley Park, au Royaume-Uni, a convenu de promouvoir une IA et une réglementation de l’IA sûre et fiable, et de contrôler les risques liés à l’IA. Lors du sommet, l’UE, les États-Unis, la Chine et d’autres pays ont convenu de « gérer collectivement les risques liés à l’intelligence artificielle ». Les Nations unies ont également approuvé la déclaration de Bletchley Park. La Prochaine Réunion du sommet intergouvernemental britannique sur la sûreté de l’IA aura lieu en France en 2024.

Le 26 octobre 2023, le secrétaire général des Nations unies a nommé un « organe consultatif sur l’intelligence artificielle » composé de 39 membres issus de pays développés et en développement. Cet organe consultatif se penchera sur les risques, les opportunités et la gouvernance internationale de l’IA.

Le 30 octobre 2023, le président des États-Unis a publié un décret sur la réglementation de l’IA, notamment pour garantir la sûreté et la sécurité des applications de l’IA, protéger les consommateurs et promouvoir l’innovation et la concurrence.

Le 7 septembre 2023, le G7 (États-Unis, Royaume-Uni, France, Allemagne, Italie, Japon, Canada) s’est engagé à élaborer, pour les systèmes d’IA avancés, des critères d’orientation et un code de conduite international pour les organisations. Ce projet international pour les organisations développant des systèmes d’IA avancés met notamment l’accent sur la nécessité de la sûreté, la sécurité, la fiabilité, la transparence, ainsi que la gestion des risques et des normes internationales. L’UE examine actuellement ces critères d’orientation.

Le 14 juin 2023, le Parlement européen a approuvé la loi européenne sur l’IA, une première dans le monde. Si elle est ratifiée par les États membres de l’UE, cette loi entrera en force d’ici 2025.

Le 13 juillet 2023, l’autorité chinoise de régulation de l’internet a publié des règles définitives sur l’IA générative : « Interim Measures for the Management of Generative Artificial Intelligence Services » (mesures provisoires pour la gestion des services d’intelligence artificielle générative). La réglementation intègre de nombreux principes dont les critiques de l’IA débattent en Occident : violation de la propriété intellectuelle par les modèles d’IA ; violation de la vie privée par l’IA ; non-discrimination par les algorithmes d’IA ; et transparence des entreprises d’IA en matière de données et de formation.

Les plus hautes sphères politiques sont donc de plus en plus conscientes de l’importance et de l’urgence d’une réglementation de l’IA et de la pertinence de l’expérience acquise en matière de contrôle de la prolifération nucléaire.

Une réglementation internationale de l’IA est nécessaire dès maintenant

L’AIEA (Agence internationale de l’énergie atomique) a été créée pour promouvoir l’utilisation pacifique de l’énergie nucléaire et mettre en place un système efficace au niveau international interdisant et contrôlant les activités non pacifiques. Pour les mêmes raisons, une Agence internationale de l’intelligence artificielle (AIIA) devrait être créée pour réglementer l’IA et garantir la sûreté, la transparence et le développement bénéfique de l’IA. Il s’agit là d’une question urgente, notamment pour mettre en place un système international unifié et éviter que des pays ou des groupes de pays ne développent leurs propres systèmes de réglementation de l’IA, différents et éventuellement contradictoires.  Elon Musk et Warren Buffet ont fortement insisté sur le fait que la gravité et l’ampleur des risques associés à l’IA sont plus dangereuses que celles associées aux armes nucléaires.

Une AIIA (https://www.iglobenews.org/iaea-safeguards-a-model-for-international-ai-regulation/) serait chargée de la réglementation internationale de l’IA ainsi que de la vérification indépendante et objective des systèmes et applications nationales d’IA pour assurer qu’elles respectent les obligations nationales et internationales. Ce processus de vérification garantirait que l’IA est développée et utilisée uniquement à des fins sûres et pacifiques, tout en identifiant des (potentiels) développements et applications d’IA dangereux et interdits.

Mesures de sûreté de l’AIEA : Un modèle pour l’AIEA

L’expérience de l’AIEA est particulièrement pertinente. Les raisons et le rôle de la réglementation de la nouvelle AIIA correspondent essentiellement à ceux pour lesquels le système international de mesures de sûreté de l’AIEA a été créé. Les mesures de l’AIEA impliquent la vérification indépendante des systèmes nationaux afin de fournir des assurances crédibles que les matières, articles et installations nucléaires sont utilisés uniquement à des fins pacifiques.

De même, l’AIIA aurait la double tâche de promouvoir l’utilisation sûre et pacifique de l’IA tout en vérifiant et en contrôlant que l’IA n’est pas utilisée à des fins illicites ou déstabilisatrices. Les obligations et les avantages pour les États participant à l’AIEA seraient les suivants :

  • Respecter les réglementations internationales en matière d’IA et accepter la vérification internationale de leurs activités dans ce domaine.
  • Déclarer toutes les activités de R&D en matière d’IA, les applications de l’IA et les autres activités d’IA des entités concernées, qui doivent toutes respecter les engagements et obligations juridiques et autres de l’État en matière d’utilisation pacifique et bénéfique de l’IA.
  • Vérification de l’exhaustivité et de l’exactitude des déclarations nationales en matière d’IA
  • La qualification des inspecteurs internationaux habilités à inspecter et à vérifier les déclarations d’activités d’IA et à découvrir les activités d’IA non déclarées (à l’instar de ce que font les inspecteurs des mesures de sûreté de l’AIEA en ce qui concerne les matières et les activités nucléaires)
  • L’accès à la technologie de l’IA et la coopération technique pour développer leurs systèmes d’IA à des fins pacifiques
  • Un système d’alerte rapide au cas où l’IA serait soupçonnée ou utilisée à des fins illégales, antisociales ou criminelles
  • L’identification et la prévention du développement, des applications et de la concurrence incontrôlés en vue de s’emparer du « marché de l’IA » ou de le contrôler
  • Fournir des informations sur les inspections de l’IA et d’autres données pertinentes et convenues à une base de données internationale sur l’IA.
  • Les violations graves des règles de l’AIIA pourraient être portées devant le Conseil de sécurité des Nations unies (CSNU), comme est le cas pour les violations graves des mesures de sûreté de l’AIEA.

AIIA : Une approche inclusive ou exclusive de la réglementation de l’IA

Une AIIA serait créée dans le cadre d’un processus international visant à promouvoir et à garantir l’utilisation pacifique et productive de l’IA générative. Pour fonctionner de manière efficace, une AIIA nécessite une coopération internationale impliquant tous les États et leurs organisations/experts ayant des activités et des intérêts dans le domaine de l’IA. Seule une approche internationale peut permettre de faire face aux dimensions mondiales, aux défis et au développement rapide de la technologie de l’IA. Il faut donc impliquer dès le départ non seulement le G7 et l’UE, mais aussi d’autres pays clés, notamment le Brésil, la Chine, l’Inde, la République de Corée, la Russie et d’autres encore.

Compte tenu de la disponibilité et de l’impact des réseaux sociaux, des logiciels malveillants et de la désinformation à l’échelle mondiale, il est essentiel d’élargir au maximum le champ d’application de la réglementation relative à l’IA.  Aucun pays ni aucune organisation ne doit être laissé pour compte.

Il faut espérer que le nouvel organe consultatif des Nations unies sur l’IA lancera le plus tôt possible un processus inclusif de réglementation internationale de l’IA, tel qu’une AIIA.

Photo © kjpargeter sur Freepik
Mentions de Cookies WordPress par Real Cookie Banner