Les news qui ont fait l’actu
Dans le cadre du partenariat entre l’IDFRights et SKEMA Business School, voici un aperçu de notre actualité vue par des étudiants du Master de management & droit des affaires de Skema.
Semaine du 06 au 13 novembre 2021
Rédigée par Lyes Bendou, Alexandre Cusanno, Mathilde de Biasi, Léa Dupont, Vincent Kerharou, Louis Poulain, Emmy Paret, Manon Roy, Oriane Serrot , Alexis Spagnolo, Emma Walter, Mélanie Welisarage, étudiants de Master 1 Management & Droit des affaires SKEMA/ULCO, sous la direction de Mme Isabelle Bufflier et M. Frédéric Munier, professeurs SKEMA BS
Lyes Bendou
Alexandre Cusanno
Mathilde De Biasi
Léa Dupont
Vincent Kerharou
Louis Poulain
Emmy Paret
Manon Roy
Oriane Serrot
Alexis Spagnolo
Emma Walter
Mélanie Welisarage
L’audition au Parlement européen de la lanceuse d’alerte France Haugen : une mise en avant des projets de loi DSA et DMA.
Des affiliés au groupe cybercriminel Sodinokibi ont été arrêtés
air2021 : Quel futur souhaitable pour l’ouverture et le partage des données ?
Depuis 2016, en réponse à la mission éthique qui lui a été confiée par la loi pour une République numérique (dite « loi Lemaire »), la CNIL organise des débats publics autour des nouveaux enjeux du numérique, au croisement d’expertises terrain et scientifiques au travers. Cette année a été l’occasion d’organiser un débat intitulé air21 pour Avenirs, Innovations, Révolution. Son but ? Envisager les avenirs souhaitables, questionner les innovations et appréhender les révolutions en cours. La CNIL a choisi de débattre plus particulièrement ce lundi 8 novembre de l’avenir de l’open data et du partage des données. À cette occasion, la présidente de la CNIL, Marie-Laure Denis a insisté sur l’importance de promouvoir une approche du partage des données éthique et respectueuse de la vie privée dès la conception (ethics by design) et a annoncé la création d’un groupe de travail visant à clarifier l’application des textes en matière de publication et de réutilisation des données.
Pourquoi cette actu ? L’intérêt de cette actualité réside dans le thème retenu par la CNIL. Puisque les données ouvertes sont des données auxquelles tous peuvent accéder et être largement utilisées et partagées, elles ne représentent pas seulement un enjeu “tech” mais posent des questions sociales, économiques et environnementales. D’où l’importance, soulignée par la CNIL, d’un tel débat sur l’éthique lié à la protection et au partage de ces données qui doit être particulièrement respectueuse de la vie privée.
Oracle inaugure son premier centre de données en France, à Marseille
Google : la justice européenne valide l’amende de 2,4 milliards d’euros pour pratiques anti-concurrentielles infligée par la Commission européenne
La justice américaine somme Apple de modifier les moyens de paiement de l’App Store
Naissance de l’Arcom au 1er janvier 2022, exit l’Hadopi et le CSA
Le législateur par le biais de la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique a cherché à endiguer le streaming illégal et protéger les auteurs. La loi nouvelle met au cœur du dispositif de lutte une nouvelle autorité administrative indépendante : l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Dès le 1er janvier 2022, l’ARCOM remplacera et fusionnera l’HADOPI et le CSA. Pour l’heure, il est difficile d’affirmer que les nouvelles mesures seront efficaces et si cette nouvelle autorité administrative aura les moyens humains, financiers et techniques pour remplir ses missions.
Le projet de loi de finances (PLF) pour 2022 prévoit une enveloppe supplémentaire de 900 000 euros pour le fonctionnement de cette nouvelle autorité. Toutefois le bilan de la seule Hadopi n’est pas des plus brillants car depuis 2009 elle a coûté 82 millions d’euros pour 13 millions d’avertissements envoyés lui permettant de récupérer 87 000 euros.
Pourquoi cette actu ? Il nous a semblé intéressant de relever la naissance de l’ARCOM car elle nous paraît emblématiser tout le problème du secteur numérique. Disruptif par nature, il ne cesse d’évoluer à un rythme et sous des formes qui rendent difficile sa régulation. Il n’est pas sûr malheureusement qu’un nouvel organisme décourage les internautes de recourir au streaming illégal, en particulier dans le domaine nouvellement exploré du sport, où la bataille pour la perception des droits de diffusion fait rage…
Un nouveau groupe cybercriminel détecté par l’ANSSI
Données personnelles : sur Facebook et Instagram, des options de ciblage publicitaire vont disparaître
Focus de la semaine
Le gouvernement annonce son plan de recherche en intelligence artificielle
La stratégie en matière d’intelligence artificielle du gouvernement continue de s’étoffer. En 2018, à la suite du rapport Villani qui voulait faire de la France un leader en intelligence artificielle, Emmanuel Macron avait lancé un premier volet de dotation pour la recherche, d’un montant de 1,5 milliard d’euro.
Lors de la « Paris AI Week » organisée du 8 au 19 novembre dernier par France Digitale, Cédric O, secrétaire d’État chargé du numérique et Frédérique Vidal, ministre de l’Enseignement supérieur, de la Recherche et de l’Innovation, ont annoncé l’injection de 2,2 milliards supplémentaires dans le secteur de l’intelligence artificielle.
Cela a été l’occasion pour la ministre Frédérique Vidal de dresser le bilan des actions menées depuis 2018, avec la création de 4 nouveaux instituts interdisciplinaires, la création ou le renforcement de 3 autres instituts d’excellence ou encore la création du supercalculateur Jean Zay, inauguré en 2019. Elle a précisé que cela avait permis aussi d’augmenter significativement le nombre de doctorants, « 500 de plus ont été financés depuis 2018 ». Du côté des entreprises, les données disponibles font remonter une croissance du nombre de startups dans le secteur, la Frenchtech réunissant plus de 500 entreprises aujourd’hui.
La suite du plan stratégique mis en place se focalisera tout d’abord sur la formation. L’objectif est de former et de financer au moins 2 000 étudiants en 1er cycle (DUT/licence/licence pro), 1 500 étudiants en master et 200 doctorants supplémentaires par an avec la création d’un « portail national » qui recensera les formations à la science des données, à l’IA et à la robotique. Une partie de l’enveloppe sera également dédiée au financement d’un programme d’attractivité autour de chaires internationales de recherche. Le Programme « Choose France » aura pour objectif de recruter une quinzaine de scientifiques internationaux de haut niveau en IA pour venir enseigner et faire de la recherche en France. Le cadrage scientifique sera conjointement élaboré dans les prochaines semaines par le Commissariat à l’énergie atomique et aux énergies alternatives (CEA), le Centre national de la recherche scientifique (CNRS) et l’Institut national de recherche en sciences et technologies du numérique (Inria).
La recherche en IA, constituera une priorité du programme gouvernemental avec un focus sur la recherche sur « l’IA embarquée » (composants et architectures nanoélectroniques, couches logicielles et interfaces composants/logiciels) et « l’IA frugale » (en données, en puissance de calcul, efficience énergétique), « l’IA décentralisée » (complémentarités et alternatives entre les architectures décentralisées et le cloud pour l’IA) ainsi que sur « l’IA de confiance » dans les systèmes critiques et complexes.
La répartition de l’enveloppe allouée des 2,2 milliards d’euros va se faire sur 5 ans avec 700 millions d’euros pour la formation (provenant du plan France 2030) et 800 millions d’euros pour l’innovation (provenant du PIA4 et d’autres crédits publics). Ces sommes seront attribuées en partie via le PIA (programme d’investissements d’avenir) et via des appels à projets.
Pourquoi cette actu ?
Après que l’OCDE a pointé l’attention sur les dérives potentielles de l’intelligence artificielle et du Big Data, et à l’heure où l’Union européenne s’apprête à adopter un règlement communautaire sur l’éthique de l’intelligence artificielle, le gouvernement complète son plan stratégique offensif en matière d’IA en souhaitant que la France en devienne l’un des leaders mondiaux. Les deux ministres ont toutefois précisé que la règlementation ne devait pas être « un frein à l’innovation ». Ils ont ajouté que « si régulation il y a, celle-ci ne doit pas empêcher les expérimentations. Une fois le potentiel de l’IA déterminé, il sera temps de réguler pour éviter les dérives mais pas avant, laissent entendre les deux ministres ». Au moment où la lanceuse d’alerte Frances Haugen alerte le monde entier sur les dérives concernant l’utilisation de nos données personnelles utilisées par les géants du numérique et les risques non maîtrisés des algorithmes utilisés, considérer le législateur comme « un empêcheur de tourner en rond » paraît surprenant. Toutefois, le ministre Cédric O a argumenté dans le sens d’une souveraineté numérique européenne en matière d’IA en déclarant : « Si on veut faire en sorte que l’IA soit portée par des valeurs européennes, alors les Européens doivent se fixer comme premier objectif de faire émerger des champions industriels » et a ajouté « Nous vivons dans un monde où le leader fixe le standard ». Souhaitons que ce « standard » prenne en compte le droit à la protection de la vie privée et des données personnelles des citoyens français.
Le point de vue étudiant
La censure du projet de loi de « vigilance sanitaire » par le Conseil constitutionnel et la question de la protection des données personnelles des enfants et de leurs droits fondamentaux
Depuis plusieurs années, avec l’essor des réseaux sociaux et leur fréquentation par de jeunes adolescents, de nombreux débats sur la protection des données personnelles des enfants ont fait surface. En 2020, la CNIL a organisé un sondage et d’une consultation en ligne sur les pratiques numériques des jeunes. Ses résultats ont poussé le législateur à réagir. Après avoir fait adopter en octobre en 2020 une proposition de loi protégeant les enfants influenceurs, la majorité parlementaire, sous l’égide du député Bruno Studer, a déposé récemment une proposition de loi visant à contraindre les fabricants d’appareils connectés à renforcer l’usage du contrôle parental sur Internet.
Mais la crise sanitaire a posé de nouveaux problèmes en termes de collecte de données personnelles des enfants. En effet, la vaccination des 12-17 ans ayant été autorisée, le passe sanitaire peut désormais intégrer leurs données de santé concernant soit leur vaccination soit les tests qu’ils auront pu pratiquer. Un projet de loi portant diverses dispositions de vigilance sanitaire, adopté et promulgué le 10 novembre dernier, permet de prolonger la politique anti-Covid du gouvernement jusqu’au 31 juillet 2022, sans nouveau vote du Parlement. Il prévoyait dans son article 9, inséré à la suite d’un amendement du gouvernement, que les directeurs des établissements d’enseignement scolaire puissent accéder aux informations médicales relatives à leurs élèves afin de procéder à leur traitement. Des parlementaires soucieux de préserver la vie privée des enfants et le secret médical ont saisi le Conseil constitutionnel pour réclamer l’invalidation de cette disposition. Ils ont estimé que le texte ne comportait pas suffisamment de garanties, au regard de données sensibles relatives à des personnes pour la plupart mineures. Pourtant, permettre la transmission du statut vaccinal des élèves aux directeurs des établissements scolaires aurait pu conduire ces derniers à faciliter leur organisation dès qu’un cas de Covid-19 se serait présenté au sein d’une classe. Depuis la rentrée scolaire de septembre 2021, lorsqu’un cas de Covid-19 est avéré dans une classe, seuls les élèves non vaccinés doivent s’isoler, les élèves vaccinés pouvant continuer à suivre les cours en présentiel. Dès lors, comment les directeurs des établissements scolaires peuvent-ils mettre au point les dispositifs du gouvernement s’ils n’ont pas accès au statut médical et vaccinal de leurs élèves ?
Le 9 novembre 2021, le Conseil constitutionnel a validé en grande partie le projet de loi, mais non l’article 9.
Quant aux informations accessibles par les directeurs établissements, le Conseil constitutionnel a estimé que ces dispositions auraient permis d’accéder non seulement au statut virologique et vaccinal des élèves, mais également à l’existence de contacts avec des personnes contaminées, et ce, sans le consentement des élèves et/ou de leurs parents. Si les données vaccinales des élèves étaient transmises aux directeurs des établissements scolaires, certains parents craignaient indirectement une stigmatisation des élèves. Rappelons que les données médicales ne sont pas n’importe quelles données mais des données dites sensibles, encore davantage pour des enfants mineurs qui sont par essence vulnérables. Le Conseil rappelle que lorsque sont en cause des données à caractère personnel de nature médicale, une particulière vigilance doit être observée dans la conduite de ces opérations et la détermination de leurs modalités.
Quant au traitement des informations récoltées par les directeurs d’établissements, pour le Conseil constitutionnel, les informations médicales en cause étaient susceptibles d’être communiquées à un grand nombre de personnes, dont l’habilitation n’était subordonnée à aucun critère ni assortie d’aucune garantie relative à la protection du secret médical.
En conséquence, il a estimé qu’en se bornant à prévoir que « le traitement de ces données permet d’organiser les conditions d’enseignement pour prévenir les risques de propagation du virus », le législateur n’a pas défini avec une précision suffisante les finalités poursuivies par ces dispositions, même s’il reconnaît que le législateur poursuivait « l’objectif à valeur constitutionnelle de protection de la santé ».
C’est ainsi l’atteinte au secret médical qui est ici retenue comme raison de censurer cette mesure ainsi qu’une atteinte disproportionnée au respect de la vie privée. Bruno Retailleau, le président du groupe LR a d’ailleurs à ce sujet publié sur Twitter le fait que « la protection du secret médical doit rester l’un de nos principes essentiels ».
La décision du Conseil constitutionnel place ainsi en avant toute la problématique de la conciliation entre protection des données personnelles de l’enfant, secret médical et lutte contre la propagation du virus.
Cette décision met également en lumière la vulnérabilité particulière des enfants mineurs quant à leurs données personnelles et aux données pourtant dites sensibles que sont leurs données médicales. A cet égard, dès 2016, l’article 8 du RGPD a pour la première fois envisagé des dispositions concernant le consentement des enfants au traitement de leurs données personnelles mais laissant toutefois aux États membres une certaine marge de manœuvre. Ainsi en France, en dessous de 15 ans, le responsable du traitement des données personnelles d’un enfant doit demander son consentement à la fois à l’enfant mais aussi aux détenteurs de l’autorité parentale, alors qu’au-dessus de 15 ans, l’enfant peut seul donner son consentement dès lors intervient dans le cadre des services de la société de l’information (réseaux sociaux notamment).
Dans la mesure où en l’espèce, les données traitées par le passe sanitaire sont des données de santé, données identifiées comme sensibles par le RGPD, le consentement doit en outre être explicite et, ce, quel que soit l’âge de l’enfant, à la fois de la part de ce dernier mais aussi des détenteurs de l’autorité parentale, parents ou tuteurs.
Il semble donc que les dispositions particulières prévues à l’égard des données de santé des enfants par le biais de la loi sur la vigilance sanitaire auraient certainement mérité mieux qu’un simple amendement gouvernemental, avec une étude d’impact et un débat démocratique comme l’invoquaient certains parlementaires à l’appui de leur saisine du Conseil constitutionnel.
D’autant que le 28 avril 2021 dernier, le Comité des ministres du Conseil de l’Europe a adopté une déclaration relative à la protection du droit au respect de la vie privée des enfants dans l’environnement numérique. Ce texte insiste sur les conséquences et l’impact de la pandémie de la Covid-19 sur les enfants en raison de l’augmentation des activités en ligne, et cherche à encadrer la protection des données recueillies sur les enfants en renforçant leurs droits, leur accès à une culture du numérique mais aussi le traitement des données en tant que telles, notamment en matière de santé et dans le cadre éducatif. Le Comité invite les États à agir au plus vite pour préserver les droits fondamentaux des enfants. Il est donc impératif dans cette période de pandémie, où les risques pour les enfants sont accrus, que l’intérieur supérieur de l’enfant, reconnu constitutionnellement depuis 2019, soit placé par les États dont la France, au cœur même de leur vigilance qui ne peut pas être simplement une « vigilance sanitaire ».
Par Natascha BARBOSA, étudiante en M2 DDA, sous la supervision de Isabelle Bufflier et Frédéric Munier