L’accord entre les dirigeants du G7 sur des principes directeurs et sur un code de conduite en matière d’intelligence artificielle

09 novembre 2023
Banque de connaissances

L’accord intervenu entre les dirigeants du G7 portant sur des principes directeurs internationaux en matière d’intelligence artificielle (IA) et sur un code de conduite volontaire destiné aux développeurs d’IA dans le cadre du processus d’Hiroshima pour l’intelligence artificielle a été réalisé. Ces principes et le code de conduite volontaire compléteront, au niveau international, les règles juridiquement contraignantes auxquelles les colégislateurs de l’UE mettent actuellement un point final dans le cadre de la législation de l’Union sur l’IA. La présidente de la Commission européenne, Ursula von der Leyen, était au nombre de ceux qui ont souscrit à la déclaration des dirigeants du G7, publiée par la présidence japonaise du G7 de 2023.

La présidente von der Leyen a déclaré: «L’intelligence artificielle comporte d’immenses avantages potentiels pour les citoyens et l’économie. Néanmoins, l’accélération des capacités en matière d’IA s’accompagne également de nouveaux défis. Déjà pionnière en matière de réglementation avec sa législation sur l’IA, l’Union contribue également à mettre en place des garde-fous et à définir une gouvernance en matière d’IA à l’échelle mondiale. Je salue avec satisfaction l’adoption par le G7 des principes directeurs internationaux et du code de conduite volontaire, qui reflètent les valeurs de l’UE consistant à promouvoir une IA digne de confiance. J’appelle tous les développeurs d’intelligence artificielle à signer et à mettre en œuvre dès que possible ce code de conduite.»

Veiller à la sécurité et à la fiabilité de la technologie

Les onze principes directeurs adoptés par les dirigeants des sept pays et de l’UE, qui forment le G7, fournissent des orientations aux organisations qui développent, déploient et utilisent des systèmes d’IA avancés, tels que des modèles de fondation et une IA générative, afin de promouvoir la sécurité et la fiabilité de la technologie. Ces principes directeurs comprennent des engagements visant à atténuer les risques et atténuer les utilisations abusives et à recenser les vulnérabilités, à encourager le partage responsable d’informations, le signalement d’incidents et les investissements dans la cybersécurité, ainsi qu’à mettre en place un système d’étiquetage permettant aux utilisateurs d’identifier les contenus générés par l’IA.

Étayés par les résultats d’une enquête auprès des parties prenantes, ces principes directeurs ont été mis au point conjointement par l’UE et les autres membres du G7, dans le cadre du processus d’Hiroshima sur l’intelligence artificielle. Les principes directeurs ont ensuite servi de base à l’élaboration d’un code de conduite, qui fournira des orientations pratiques et détaillées aux organisations qui développent l’IA. Le code de conduite volontaire promouvra également une gouvernance responsable de l’IA à l’échelle mondiale. Ces deux documents seront réexaminés et mis à jour si nécessaire y compris au moyen de consultations multipartites inclusives, pour garantir qu’ils restent adaptés à cette technologie en mutation rapide et soient aptes à faire face à ses évolutions. Les dirigeants du G7 ont invité les organisations qui développent des systèmes avancés d’IA à s’engager à appliquer le code de conduite international. Les premiers signataires seront annoncés dans un avenir proche.

Contexte

Le processus du G7 sur l’intelligence artificielle, dit «processus d’Hiroshima», a été mis en place le 19 mai 2023 afin de promouvoir des garde-fous pour les systèmes avancés d’IA au niveau mondial. Cette initiative s’inscrit dans le cadre d’un éventail plus large de discussions internationales sur les garde-fous en matière d’IA, notamment au sein de l’OCDE, du Partenariat mondial pour l’intelligence artificielle (PMIA) et dans le cadre du Conseil du commerce et des technologies (CCT) UE-États-Unis et des partenariats numériques de l’UE.

Depuis qu’elle a annoncé pour la première fois son intention d’élaborer un code de conduite lors de la réunion ministérielle du CCT du 31 mai 2023, la Commission européenne a œuvré activement avec les principaux partenaires internationaux au sein du G7 à la conception des principes et du code de conduite en matière d’IA. Ces engagements internationaux sont cohérents avec les règles juridiquement contraignantes, qui sont négociées à l’heure actuelle dans le cadre de la législation, plus exhaustive, sur l’intelligence artificielle (législation de l’Union sur l’IA), qui s’appliquera dans l’UE.

La proposition de législation de l’Union sur l’intelligence artificielle garantira la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l’investissement et l’innovation dans le domaine de l’IA, ainsi que l’utilisation de celle-ci, dans l’ensemble de l’UE. La législation sur l’IA prévoira des règles fondées sur les risques juridiquement contraignantes, applicables aux systèmes d’IA qui sont mis sur le marché ou mis en service sur le marché de l’Union.



Laissez une réponse

Votre adresse email ne sera pas publiée. Les champs obligatoires sont indiqués *