l’IA, comprendre son cadre juridique
Depuis quelques mois, il est impossible de passer à côté de la montée en puissance des intelligences artificielles (IA). Capables de passer un examen universitaire, de contester un PV de stationnement ou encore de reproduire une voix, elles semblent inarrêtables.
« les futures versions de cette technologie pourraient être un risque pour l’humanité ».
Cela a même mené, au mois de mars, des spécialistes et des acteurs de technologie, aux côtés de milliers d’autres personnes, à signer un moratoire. Cette pétition visait à mettre en pause pendant six mois les recherches sur l’intelligence artificielle. Un cadre pourrait être construit grâce à ce temps d’arrêt, dans lequel des recherches futures pourraient être menées de façon sécurisée.
Au mois de mai, cela a même amené Geoffrey Hinton, l’un des pères fondateurs de l’intelligence artificielle, à quitter Google. Ses travaux ont permis en grande partie de créer une base pour le développement d’outils tels que ChatGPT ou Midjourney. Il déclarera ensuite, dans une interview au New York Times, regretter « l’œuvre de sa vie ». Il y expliquait que « les futures versions de cette technologie pourraient être un risque pour l’humanité ».
Devant de telles actualités et déclarations, il semble intéressant de regarder quelles sont les réglementations mises en place pour encadrer ces IA qui semblent presque sans limites.
La première grosse actualité à ce sujet s’est déroulée en Italie, au mois de mars. Le pays a été le premier à interdire ChatGPT, l’intelligence artificielle conversationnelle d’OpenAI. Le chatbot a finalement été de nouveau autorisé un mois plus tard. Pour cela, OpenAI avait l’obligation de se mettre en règle auprès du gouvernement italien. Aussi, l’une des demandes du gouvernement était la mise en place d’un système permettant la vérification de l’âge des utilisateurs.
Intelligence artificielle : le plan d’action de la CNIL
Du côté français, la CNIL, autorité chargée de la protection des données personnelles, a dévoilé le 16 mai sa feuille de route portant sur le déploiement de l’intelligence artificielle. Quatre grands axes définissent ce plan. Le premier est de commencer par appréhender le fonctionnement des IA et leur impact sur les personnes. Ensuite, permettre, tout en les encadrant, le développement d’IA respectueuses des données personnelles. Puis accompagner et fédérer les acteurs innovants français et européens. Et finalement auditer et contrôler les systèmes d’IA afin de protéger les personnes. Cette feuille de route a pour objectif de permettre à la CNIL d’aider les systèmes d’IA à se développer. Elle est aussi là pour garantir la protection des personnes et de leurs données personnelles.
les IA organisent “le plus grand pillage de l’Histoire de l’Humanité”
Noémie KLEIN, journaliste, essayiste, réalisatrice et altermondialiste canadienne
Pour commencer, la Commission Européenne a présenté en avril 2021 l’IA act. Cette proposition de règlement vise à harmoniser les lois sur l’intelligence artificielle au niveau européen.
Ce texte classe les IA en quatre niveaux :
- le plus haut niveau, on retrouve les usages de l’IA qui représentent un risque inacceptable seront purement interdits. On retrouve, par exemple, dans cette catégorie les systèmes établissant une note sociale ou encore les systèmes ciblant des personnes vulnérables, comme les enfants.
- les systèmes à haut risque, autorisés seulement après être passés par une procédure très encadrée. On trouve ici les systèmes d’IA portant notamment sur les domaines de l’emploi ou encore de l’enseignement.
- les systèmes à risque limité sont soumis à des obligations de transparence. Par exemple, dans le cas des chatbots, l’interaction avec une intelligence artificielle devra être mentionnée.
- la dernière catégorie regroupe les systèmes représentant un risque minimal voir nul, comme les filtres anti-spam. Ces IA doivent seulement respecter le règlement général sur la protection des données (RGPD). Cette dernière catégorie représente actuellement la majorité des systèmes d’IA utilisées dans l’Union Européenne.
“L’approche de l’UE en matière d’intelligence artificielle est centrée sur l’excellence et la confiance“
Le 11 mai, soit 2 ans après la proposition de ce règlement, les eurodéputés réunis en commission ont approuvé le texte. Cela ouvre la voie à un vote des eurodéputés, cette fois-ci réunis en assemblée plénière au Parlement Européen. Ce vote aura lieu entre le 12 et le 15 juin. Le Conseil de l’Union européenne sera ensuite consulté si le texte est adopté. À ce moment-là, les États membres rédigeront et voteront le texte final.
L’espoir de Margrethe Vestager, serait que le texte soit adopté avant la fin de l’année. Sa rentrée en vigueur est planifiée pour 2025. Ce règlement serait une première mondiale en la matière.
En parallèle de cela, l’Union européenne et les États-Unis se sont alliés pour travailler sur un « code de conduite ». À destination des géants du web travaillant sur l’IA, il sera basé sur un engagement volontaire. Annoncé le 31 mai, il sera présenté plus en détail dans les semaines à venir. Cette alliance a aussi été proposée à d’autres pays tels que le Canada ou le Royaume-Uni. Elle a pour objectif de commencer à établir une réglementation au niveau mondial avant que la Chine n’impose la sienne.
Aux États-Unis, la National Telecommunication and Information Administration, a lancé le 11 avril une consultation au sujet de l’intelligence artificielle auprès du grand public. Au début du mois de mai, le Président Biden a aussi rappelé la nécessité d’avoir des systèmes d’IA fiables, audités et sécurisés. Mais pour l’instant, aucun projet de loi n’est prévu. De plus, la mise en place d’une réglementation serait probablement rendue difficile par l’organisation fédérale des États-Unis.
Le Gouvernement chinois a réaffirmé sa volonté d’améliorer la surveillance des données et des réseaux de l’IA.
Du côté de la Chine, qui utilise ses propres systèmes d’intelligence artificielle, la Cyberspace Administration of China a annoncé vouloir une utilisation fiable et sûre des outils d’IA. Le gouvernement a aussi déclaré vouloir mener une inspection des outils d’IA afin de vérifier leur conformité aux valeurs socialistes fondamentales. De plus, lors d’une réunion du parti communiste chinois ayant eu lieu le 31 mai, le gouvernement chinois a réaffirmé sa volonté de d’améliorer la surveillance des données et des réseaux de l’IA.
Le Royaume-Uni, a, lui aussi, commencé à poser des règles au sujet de l’IA au cours de l’été 2022. Le pays veut organiser le premier sommet mondial sur l’intelligence artificielle. Il propose aussi d’accueillir à Londres le siège d’un potentiel régulateur mondial de l’IA. Cette déclaration affiche sa volonté d’occuper une place importante dans le domaine de l’intelligence artificielle.
Ce rapide tour d’horizon des législations mises en places par certains pays au sujet de l’intelligence artificielle nous permet de conclure que malgré la volonté de mettre en place des lois sur le sujet, rien ne s’est pour l’instant concrétisé. Mais les nombreux projets et déclarations sur l’IA nous montrent que ce n’est qu’une question de temps avant que cela ne se concrétise.
Sentez-vous libre de nous laisser vos commentaires à ce sujet.
L’équipe Communication (Roxane & Boris)