C’était l’un des votes les plus attendus avant la pause estivale: le Parlement européen a adopté, mi-juin, sa position de négociation sur le texte qui régit l’avenir de l’intelligence artificielle (IA) en Europe. Dans la foulée, les pourparlers entre les eurodéputés et les 27 États membres de l’Union européenne (UE) ont pu débuter, et un accord définitif devrait être dégagé au cours des prochaines semaines. Objectif affiché de ce chantier vertigineux: mieux encadrer l’IA sur le Vieux Continent pour limiter ses risques.
L’impulsion, pour y parvenir, provient de la Commission européenne. Dès 2020, l’institution, qui se targue de faire de la transition numérique de l’UE l’une de ses priorités, a dévoilé de premières «orientations» en matière d’IA. Un «livre blanc» a suivi, puis, en avril 2021, l’exécutif européen a dévoilé sa proposition de «règlement établissant des règles harmonisées concernant l’intelligence artificielle», plus connu à Bruxelles sous le nom d’«AI Act». Ce sont donc les négociations de cet «AI Act» qui entrent actuellement dans leur dernière ligne droite.
Avec ce texte long de 119 pages (dans sa version traduite en français), la Commission européenne a d’emblée expliqué que son but était de «mettre en balance les bénéfices et les risques» de l’IA. En résumé, selon l’institution, l’IA est «susceptible d’apporter à nos sociétés des bénéfices très divers, qui vont de l’amélioration des soins médicaux aux progrès dans le monde de l’éducation», mais la Commission souligne que «les caractéristiques spécifiques de certains systèmes d’IA peuvent créer de nouveaux risques pour la sécurité des utilisateurs et les droits fondamentaux». Dans sa proposition, l’exécutif européen est ainsi parti du principe selon lequel «la plupart des systèmes d’IA présentent des risques minimes ou nuls», mais que «certains d’entre eux sont […] à l’origine de risques qu’il s’agit de maîtriser pour éviter qu’ils n’aient des effets indésirables».
Pour Margrethe Vestager, vice-présidente exécutive de la Commission européenne pour «Une Europe adaptée à l’ère du numérique», cette Danoise qui, à Bruxelles, est surnommée «la dame de fer», «en matière d’IA, la confiance n’est pas un luxe, mais une nécessité absolue». Alors, pour garantir cette confiance, la Commission a proposé d’interdire certaines utilisations de l’IA jugées trop dangereuses. En effet, cette proposition de règlement ne porte pas tant sur la technologie de l’IA per se, mais plutôt sur l’encadrement des usages de cette technologie. Ainsi, pour chaque système utilisant l’IA, l’institution s’interroge: le niveau de risques inhérents à son utilisation est-il acceptable ou pas?
Des pourparlers houleux
Concrètement, la Commission a mis sur la table l’idée de classer les systèmes d’IA utilisés dans l’UE selon leur niveau de risque, c’est-à-dire inacceptables, à haut risque, à risque limité ou présentant un risque minimal. Un système d’IA présentant un risque inacceptable doit, selon la Commission, être interdit. C’est le titre II de la proposition qui établit la liste des pratiques d’IA interdites. Plus précisément, ces dernières sont celles «dont l’utilisation est considérée comme inacceptable, car contraire aux valeurs de l’Union, par exemple en raison de violations des droits fondamentaux».
La Commission cite notamment les «pratiques qui présentent un risque important de manipuler des personnes par des techniques subliminales agissant sur leur inconscient» ou qui exploitent «les vulnérabilités de groupes […] spécifiques tels que les enfants ou les personnes handicapées afin d’altérer sensiblement leur comportement d’une manière susceptible de causer un préjudice psychologique ou physique à la personne concernée ou à une autre personne». En ligne de mire se trouvent aussi par exemple les systèmes d’IA qui permettent l’introduction de «notations sociales» par des gouvernements.
«En matière d’IA, la confiance n’est pas un luxe, mais une nécessité absolue.»
Margrethe Vestager, vice-présidente exécutive de la Commission européenne pour «Une Europe adaptée à l’ère du numérique»
Les États membres comme les eurodéputés se sont saisis de ce texte et l’ont retravaillé, page par page, paragraphe par paragraphe, ligne par ligne, et même mot par mot parfois. En décembre dernier, le Conseil de l’UE (qui rassemble les pays de l’UE) a réussi à s’entendre sur sa position de négociation. Mais côté Parlement européen, les pourparlers ont duré plus longtemps.
La proposition de règlement a été étudiée au sein des commissions du Marché intérieur et de la protection des consommateurs (IMCO) et des Libertés civiles, de la justice et des affaires intérieures (LIBE). En mai, les membres de ces commissions parlementaires se sont réjouis, après plusieurs reports du vote, d’avoir réussi à enregistrer «un pas de plus vers les premières règles sur l’intelligence artificielle» à l’issue d’un scrutin sous haute tension.
Exploiter le potentiel positif de l’IA
Mais le vote le plus attendu était celui de la confirmation par la plénière du Parlement (c’est-à-dire par l’ensemble des eurodéputés) de la position des commissions IMCO et LIBE. C’est finalement par 499 voix pour, 28 contre et 93 abstentions que la position de négociation préparée conjointement par l’eurodéputé roumain Dragoş Tudorache (membre du groupe Renew Europe) et l’eurodéputé italien socialiste Brando Benifei a été adoptée.
Le premier a maintenu que cette «loi sur l’IA donnera le ton au niveau mondial en matière de développement et de gouvernance de l’intelligence artificielle, en veillant à ce que cette technologie, appelée à transformer radicalement nos sociétés grâce aux avantages considérables qu’elle peut offrir, évolue et soit utilisée dans le respect des valeurs européennes que sont la démocratie, les droits fondamentaux et l’État de droit», tandis que le second a expliqué vouloir «exploiter le potentiel positif de l’IA en termes de créativité et de productivité, mais nous nous battrons aussi pour protéger notre position et contrer les dangers qui pèsent sur nos démocraties et nos libertés lors des négociations avec le Conseil».
«Tout va si vite, et l’irruption des IA génératives comme ChatGPT bouscule nos travaux.»
Sylvie Guillaume, eurodéputée du groupe de l’Alliance progressiste des socialistes et démocrates au Parlement européen
Pour les deux, le soulagement était de mise, tant les discussions autour de ce texte ont été épineuses et leur ont donné du fil à retordre avant de réussir à proposer une mouture du règlement pouvant convenir à une majorité d’eurodéputés, de tous bords politiques. Mais Sylvie Guillaume, membre du groupe de l’Alliance progressiste des socialistes et démocrates au Parlement européen (S&D), ne cache pas qu’elle et ses collègues «ont pris de plein fouet» les progrès technologiques fulgurants dans le secteur: «Tout va si vite, et l’irruption des IA génératives comme ChatGPT bouscule nos travaux», constate-t-elle. L’élue arrivée au Parlement européen en 2009 se sent dépassée, au point de souhaiter rendre son tablier à la fin de la législature actuelle. Elle explique que ces négociations si fastidieuses sur l’avenir de l’IA ne sont pas étrangères à son choix.
De nouvelles pratiques interdites
In fine, la position de négociation des eurodéputés intègre bel et bien de nouvelles obligations pour les fournisseurs d’IA génératives (dont ChatGPT, donc, mais aussi ses éventuels successeurs). La proposition initiale mise sur la table par la Commission européenne en avril 2021 ne contenait pas de telles dispositions. Le Parlement européen a aussi ajouté à la liste des pratiques interdites l’identification biométrique à distance, notamment par des entités privées.
«L’UE va être la première juridiction au monde à légiférer en matière d’IA et elle ne peut pas se permettre de mal le faire», prévient Ursula Pachl, directrice générale adjointe du Bureau européen des unions de consommateurs (BEUC). Le top départ des négociations en «trilogue» (comprendre: entre les États membres de l’UE et le Parlement européen) a d’ores et déjà été donné. L’Espagne, qui occupe la présidence tournante du Conseil de l’UE pour six mois, jusqu’à la fin de l’année, espère que les co-législateurs arriveront rapidement à accorder leurs violons, afin que Madrid puisse épingler un éventuel accord sur «l’AI Act» à son tableau de chasse. Mais d’ici là, les réunions risquent encore de se multiplier.
«Nous nous battrons aussi pour protéger notre position et contrer les dangers qui pèsent sur nos démocraties et nos libertés lors des négociations avec le Conseil.»
Brando Benifei, eurodéputé italien socialiste
Pour éviter d’avoir un train de retard face à des évolutions technologiques en cascade, la Commission européenne a, en parallèle, proposé qu’en ligne, tous les contenus émanant d’une IA générative soient estampillés comme tels. Là encore, le but est de mieux lutter contre les dérives de l’IA, avec l’objectif de tordre le cou à la désinformation. Grâce à ce nouvel «étiquetage», un «usager ordinaire pourra voir que tel texte, telle image ou tel son n’a pas été créé par des êtres humains, mais par un robot», a détaillé Vera Jourova, vice-présidente de la Commission européenne responsable des valeurs et de la transparence.
En clair, sur les réseaux sociaux, quand des IA fabriquent de toutes pièces des images comme celles du pape François noyé dans une doudoune Balenciaga XXL ou du président français Emmanuel Macron en gilet orange ramassant des poubelles à Paris, alors il faut que la non-authenticité de ces clichés soit inscrite noir sur blanc. Et à la différence de «l’IA act», la Commission européenne travaille là directement avec les géants du numérique (comme Google, Microsoft, Twitch, Vimeo ou TikTok) pour qu’ils s’engagent volontairement à appliquer cette nouvelle règle. Toutefois, le réseau social Twitter, dirigé par Elon Musk, a déjà fait savoir qu’il ne comptait pas faire d’efforts en la matière.