Vote de l’IA au Parlement Européen : Synthèse par Colette Bouckaert
19 juin 2023

Mardi 14 juin, le Parlement européen a adopté le projet de règlement sur l’Intelligence artificielle par 499 voix pour, 28 contre et 93 abstentions.

Thierry Breton lors de la conférence de presse qui a suivi le vote a déclaré « que les règles garantiraient que l’IA qui est développée et utilisée en Europe soit pleinement conforme aux droits et valeurs de l’UE, notamment sur la surveillance humaine, la sécurité, la protection de la vie privée, la transparence, la non-discrimination et le bien-être social et environnemental ».

QUE PRECONISE LE RAPPORT : ELARGISSEMENT DES OBLIGATIONS EN FONCTION DU RISQUE GENERE

Le Parlement a élargi la liste des pratiques interdites qui avaient déjà été retenues par la Commission et le Conseil. Il a suivi une approche fondée sur les risques et établit des obligations pour les fournisseurs et ceux qui déploient des systèmes d’IA en fonction du risque qu’elle peut générer. La liste a donc été complétée avec l’interdiction des utilisations suivantes :

Les principaux apports de ce texte sont les suivants :

  • Le texte confirme l’interdiction de l’identification biométrique à distance en temps réel et a posteriori dans des espaces accessibles au public.
  • Il prévoit aussi l’interdiction des systèmes d’identification biométrique utilisant des caractéristiques sensibles, comme le genre, l’origine ethnique ou encore l’orientation politique, ainsi que celle des systèmes de police prédictive.
  • La question de la classification des systèmes d’IA à haut risque avait également occupé une part importante des négociations en interne au PE. Les systèmes d’IA qui peuvent porter « gravement atteinte » à la santé, à la sécurité et aux droits fondamentaux des personnes ou à l’environnement seront étiquetés en tant que systèmes à haut risque, tout comme les systèmes d’IA utilisés pour influencer les électeurs ou le résultat des scrutins.
  • Au chapitre des IA à usage général et des IA génératives (comme ChatGPT), les fournisseurs de systèmes devront « évaluer et atténuer les risques potentiels ». Leurs modèles devront être enregistrés dans la base de données de l’UE avant leur mise en circulation sur le marché européen. Des exigences supplémentaires existent pour les fournisseurs de systèmes d’IA génératives, qui devront clairement faire apparaître un marquage sur les contenus générés par l’IA afin qu’ils puissent être identifiés facilement.
  • Au cours des négociations, l’industrie créative avait insisté pour que les droits d’auteur soient protégés. Le texte prévoit ainsi que des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA soient obligatoirement rendus publics.
  • Le rapport confirme aussi l’ambition du PE de parvenir à l’équilibre entre la protection des utilisateurs et l’innovation, avec plusieurs dispositions, telles que la possibilité pour les entreprises de recourir à des « bacs à sable réglementaires ».
  • Des sanctions allant jusqu’à 7% du chiffre d’affaires annuel pourraient être infligées en cas de manquement et des dispositions prévoient aussi qu’un système d’IA puisse être, si besoin, retiré du marché.

Pour rappel, les entreprises pourront d’ailleurs, sur base volontaire, s’inscrire dans le cadre du futur « pacte sur l’IA » qui doit leur servir à être prêtes lorsque l’AI Act entrera en vigueur.

Il faut voir sans doute dans cette disposition une volonté d’adaptation aux règles déjà établies par le DSA (Digital Services Act) et le DMA (Digital Market Act).

CREATION D’UNE AUTORITE DE REGULATION DE L’IA

Le texte envisage de créer une autorité indépendante pour superviser la conformité de ces nouvelles règles qui aurait le pouvoir d’inspecter les entreprises et d’imposer des sanctions en cas de non-conformité. Il n’est pas précisé quelle sera la nature des sanctions, mais elles devraient inciter les entreprises à plus de vigilance.

L’ETHIQUE DES SYSTEMES D’IA

Ces nouvelles dispositions mettent l’accent sur l’éthique des systèmes de l’IA afin d’encourager les entreprises à adopter des principes éthiques tels que la non-discrimination ou le respect de la dignité humaine. Les citoyens pourront donc demander des explications sur des systèmes d’IA à haut risque lorsqu’ils constateront qu’ils ont fait l’objet d’un préjudice ayant une incidence significative sur leurs droits fondamentaux.

PROCHAINES ETAPES

  • Les négociations de trilogues entre le Parlement, le Conseil et la Commission vont dont pouvoir commencer et l’objectif que ce sont fixés les co-rapporteurs Brando Banifei (S&D Italie) et Dragos Tudorache (Renew Roumanie) est l’aboutissement d’une législation finale sous présidence espagnole. La future Présidence ambitionne d’ailleurs d’arriver à un accord avec le Parlement et la Commission avant novembre 2023.
  • Le mandat de négociation du PE a aussi été approuvé par les eurodéputés et les premières négociations interinstitutionnelles (trilogues) ont débuté dans la soirée suivant le vote du Parlement.
  • Le règlement devrait être applicable à partir de 2026

COMMENTAIRES DE L’INSTITUT

Les propositions reprises dans ce rapport sont la reconnaissance d’un principe de garantie humaine à l’échelle européenne mais il nous faudra nous interroger sur la place que nous laissons à l’humain dans ce monde, pas très lointain, de demain.

L’Institut des droits fondamentaux du numérique (iDFrights) se félicite que ce rapport encourage l’innovation en matière d’IA et soutient les PME. En effet les eurodéputés ont prévu des exceptions pour les activités de recherche et les composants d’IA fournis dans le cadre de licences libres

Il est tout à fait rassurant par ailleurs, de voir que l’UE a pris le parti de répondre favorablement à l’arrivée des intelligences artificielles sécuritaires. Il faudra simplement surveiller de très près l’application de ces exceptions.

L’Institut recommande cependant de ne pas sacrifier l’innovation sur l’autel de la régulation afin de ne pas renouveler, comme l’ont dit plusieurs professionnels de la « tech ». Nous ne pouvons pas refaire les erreurs qui ont été commises au moment de la révolution du numérique et qui a conduit à freiner l’innovation et à voir nos cerveaux migrer outre atlantique. N’oublions pas que 2 ingénieurs ayant travaillé avec META sur CHATGPT sont français.  Il faut accompagner l’innovation, encourager la recherche, et travailler ensemble pour rendre dès maintenant les outils qui seront développés dans les systèmes de l’IA, éthiques et bénéfiques pour la société.

Le chercheur en intelligence artificielle et vision artificielle  français Yann Le Cun vient de révéler que  Meta travaille déjà sur un modèle d’IA capable de « comprendre le monde sous-jacent » Il faut sans doute voir derrière cette annonce le fait que nous assistons au début de ce que l’on pourrait appeler « l’informatique organique » Nous quittons progressivement les rives de la rationalité fondée sur des modèles mathématiques pour entrer dans celle de la raison fondée sur des modèles biologiques. Cette forme d’IA pourrait donc être capable à terme de « raisonner un peu à la façon d’un être humain ». Nous ne pouvons plus simplement réfléchir à toutes ces innovations, nous devons accompagner leur développement pour créer l’émulation et surtout une véritable concurrence vis-à-vis Sillicon Valley.

À NOTER 

Le même jour, à Paris, le président français Emmanuel Macron a déclaré lors du salon Viva Technology que « l’Union européenne ne devrait pas réglementer seule l’IA. Le bon cadre ne peut pas être seulement l’Europe continentale, il doit aussi inclure les Américains ». La réglementation devrait être discutée au sein du G7, de l’Organisation de coopération et de développement économiques et de l’Unesco, afin d’éviter un « biais » continental européen, a ajouté le président qui promet de mobiliser 500 millions d’euros pour faire émerger « cinq à dix IA clusters »

D’ici novembre, le président français souhaite qu’une « doctrine » sur l’IA – qui devrait être « en mouvement, car l’innovation est en mouvement » – soit élaborée avec la participation d’universitaires, de régulateurs et d’entreprises. Les préoccupations relatives à l’IA devraient être prises en compte, a-t-il déclaré, afin de garantir, par exemple, l’absence de préjugés racistes, sexistes ou antisémites. Les citoyens devraient également être informés lorsque du contenu est généré par l’IA.

Macron a également annoncé un investissement de 50 millions d’euros supplémentaires pour quadrupler les capacités du supercalculateur Jean Zay déployé par le CNRS.

Colette Bouckaert

Colette Bouckaert

Secrétaire générale de l’iDFRights

Retrouvez plus d'articles sur : #intelligenceartificielle | europe | IA

Suivez-nous

Sur Linkedin

Plus d’articles

Une nouvelle politique industrielle pour protéger nos données personnelles I Tribune d’Alexis Roussel pour le Nouvel Economiste

Une nouvelle politique industrielle pour protéger nos données personnelles I Tribune d’Alexis Roussel pour le Nouvel Economiste

« À celles et ceux qui pensent qu’il n’y a pas d’alternative à l’accaparation des données, nous répondons : l’alternative existe. Il faut cesser la collecte massive de données, mais il faut aussi du courage politique pour mettre en œuvre une nouvelle politique de gestion du numérique. Ce qui implique donc le courage de revoir l’orientation de nos dépenses publiques »

lire plus