Réactions des parties prenantes suite au vote le 11 mai 2023 dans les commissions du Marché intérieur (IMCO) et des Libertés civiles (LIBE) à la législation européenne sur l’Intelligence Artificielle (AI Act).
Cette législation vise à réglementer l’Intelligence Artificielle. Elle a été longuement négociée dans les commissions car certaines dispositions étaient très controversées. Les compromis sont donc l’aboutissement d’un accord dont l’équilibre a été difficile à trouver.
Nous reprenons ci-dessous l’essentiel du texte qui sera mis au vote de l’ensemble des députés lors de la session plénière de Strasbourg le 14 juin 2023. Il a le mérite de vouloir d’encadrer l’usage et la commercialisation de l’IA, d’encourager l’innovation tout en garantissant la sécurité des droits des utilisateurs.
La proposition de rapport ainsi voté s’est prononcée en faveur des dispositions suivantes :
- Définition de l’IA
Elle serait alignée sur celle de l’OCDE (Organisation de Coopération et de Développement Economique) qui stipule que « Un Système d’intelligence artificielle est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels ».
- Les pratiques interdites
Elles concernent celles qui pourraient être utilisées telles que des techniques susceptibles d’influencer voire de manipuler les citoyens européens. Le Parlement, après de longues discussions s’est prononcé en faveur d’une interdiction totale de ces systèmes y compris dans des situations exceptionnelles comme celles d’attaques terroristes jusqu’alors autorisées.
- L’IA à usage général
L’apparition de ChatGPT dans le paysage numérique a amené le Parlement à élargir son champ d’application. Il a donc été inclus dans la proposition :
- Que le règlement ne couvrira pas les systèmes d’IA à usage général. Les obligations seront à la charge des opérateurs économiques qui intègrent ces systèmes dans une application considérée à « haut risque ». Cependant les fournisseurs de GPAI (General Purpose Artificial Intelligence) devront aider les opérateurs à se mettre en conformité en fournissant les informations nécessaires sur le modèle de l’IA utilisé. Des exigences plus strictes sont proposées pour les modèles qui sont de puissants systèmes d’IA. Dans ces cas précis, les obligations couvrent la gestion des risques, la gouvernance des données, qui doivent être vérifiées par des experts indépendants.
- Catégorisations des applications à haut risque
Le texte prévoit un régime plus strict pour les applications d’IA à « haut risque ». Les eurodéputés ont supprimé la catégorisation automatique mais ajouté une mention supplémentaire qui précise qu’un système à « haut risque » doit présenter un risque « significatif » d’atteinte à la santé, à la sécurité ou aux droits fondamentaux des personnes.
Ce vote a suscité de multiples réactions et nous avons sélectionné les plus importantes :
- Les organisations de défense des droits de l’homme ont salué l’interdiction de la reconnaissance faciale dans les espaces publics, mais ont déploré que les systèmes d’IA à haut risque (soumis à des exigences de sécurité plus strictes) ne soient considérés comme tels que lorsqu’ils atteignent un seuil de « risque significatif de préjudice » (article 6). « Les développeurs pourront décider si leur système est suffisamment « important » pour être considéré comme présentant un risque élevé, ce qui constitue un signal d’alarme majeur », a déclaré Sarah Chander, conseillère politique principale pour European Digital Rights.
- La Confédération européenne des syndicats a qualifié le nouveau texte d’amélioration par rapport à la proposition de la Commission, mais a déploré qu’il n’aborde pas l’utilisation de l’IA sur le lieu de travail – soutenant que la « faille » de l’article 6 élimine les garanties introduites par les députés. Le commissaire à l’Emploi, Nicolas Schmit, s’est d’ailleurs récemment prononcé en faveur de la création de règles sur l’IA et l’emploi.
Le groupe ITI représentant l’industrie technologique s’est inquiété en particulier en ce qui concerne les nouvelles règles pour les « modèles de fondation » tels que ChatGPT : « Une approche de la réglementation de l’IA basée sur les risques est indispensable pour maintenir un environnement propice à l’innovation et pour atténuer les effets néfastes potentiels de l’utilisation de l’IA », a déclaré Guido Lobrano, représentant européen en chef de l’ITI, dans un communiqué.
Colette Bouckaert
Secrétaire Générale de l’iDFrights