Les news qui ont fait l’actu
Dans le cadre du partenariat entre l’IDFRights et SKEMA Business School, voici un aperçu de notre actualité vue par des étudiants du Master de management & droit des affaires de Skema.
Semaine du 22 au 27 novembre 2021
Rédigée par Lyes Bendou, Alexandre Cusanno, Mathilde de Biasi, Léa Dupont, Vincent Kerharou, Louis Poulain, Emmy Paret, Manon Roy, Oriane Serrot , Alexis Spagnolo, Emma Walter, Mélanie Welisarage, étudiants de Master 1 Management & Droit des affaires SKEMA/ULCO, sous la direction de Mme Isabelle Bufflier et M. Frédéric Munier, professeurs SKEMA BS
Lyes Bendou
Alexandre Cusanno
Mathilde De Biasi
Léa Dupont
Vincent Kerharou
Louis Poulain
Emmy Paret
Manon Roy
Oriane Serrot
Alexis Spagnolo
Emma Walter
Mélanie Welisarage
L'Unesco adopte une recommandation sur l'éthique de l'intelligence artificielle
Le 25 novembre 2021, les 193 membres de l’UNESCO, institution spécialisée de l’Organisation des Nations unies (ONU), ont d’adopté une recommandation sur l’intelligence artificielle. La directrice générale de l’UNESCO a ainsi indiqué que ce texte représentait le « premier cadre éthique mondial pour l’usage de l’intelligence artificielle ». L’objectif est de donner un cadre à ce nouveau système et notamment de trouver le bon équilibre entre la collecte de données et la gestion de la vie privée des citoyens. Ce texte a été le fruit du travail d’un groupe d’experts internationaux constitué en mars 2020. Une première version avait été rédigée à la suite d’un vaste processus de consultation qui s’est déroulée en ligne, mais aussi au travers d’ateliers et de consultations régionales. C’est donc la version définitive de la recommandation vient donc d’être adoptée. L’Unesco y recommande ainsi aux États et aux entreprises de mettre en place « des études d’impact » pour identifier les avantages et les risques, d’envisager « les répercussions sur les droits de l’Homme, le droit du travail, l’environnement et les écosystèmes », d’étudier des mécanismes de « diligence » et de « supervision ».
Pourquoi cette actu : Ce nouveau texte illustre la volonté d’encadrement par des normes éthiques de l’intelligence artificielle tant sur le plan national qu’international. Cependant, l’influence de cette nouvelle recommandation est à nuancer. En effet, il s’agit, comme souvent au plan international et en matière éthique, d’une norme de soft law ou droit souple non contraignante pour les Etats signataires. Elle peut cependant être une source d’inspiration, illustration d’un soft power, qui influence plus qu’il n’impose au moment où l’Union européenne est en passe d’adopter un projet de règlement en matière d’éthique de l’IA.
La CNIL présente à la journée réflexions et débats sur les enjeux éthiques de la santé connectée en France
Le point par les professionnels sur l’open data des décisions de justice
Les représentants du ministère de la Justice, de la Cour de cassation, du Conseil d’Etat et des avocats se sont réunis la semaine dernière aux Rendez-Vous des Transformations du droit. Ils ont discuté des avancées à venir dans le domaine de l’open data des décisions de justice. Le constat est que le calendrier de mise en oeuvre s’échelonne jusqu’à fin 2025 mais l’encadrement juridique demeure incertain. Le cadre juridique fixé est protecteur de la vie privée des personnes physiques notamment par le biais du principe d’occultation systématique des noms et des prénoms des personnes puis du dispositif d’occultation complémentaire qui est laissé à l’initiative du juge. Mais des interrogations importantes et des risques subsistent et expliquent pourquoi le processus prend du temps. La Cour de cassation réfléchit par ailleurs à la certification des outils et des données, en effet il y a déjà aujourd’hui plus de 15 000 décisions publiées par an sur le site Légifrance et ce nombre sera multiplié par plus de 15 d’ici 2025. Des risques se posent donc en termes de forum shopping, d’altération des données et de respect de la spécificité juridique, chaque affaire ayant ses données contextuelles et ses variables propres.
Pourquoi cette actu : Alors que la Constitution française, au travers de la Déclaration des droits de l’homme et du citoyen et la Convention européenne de sauvegarde des droits de l’homme consacrent comme droit fondamental le droit d’accès à la justice des citoyens, la transformation numérique de la justice pose nécessairement la question d’un accès facilité et plus complet aux décisions de justice rendues par toutes les juridictions. La France, depuis 2013, met en œuvre une politique d’open data ou ouverture des données publiques, consacrée, en ce qui concerne les décisions de justice, par la loi Lemaire du 7 octobre 2016 pour une République numérique. Néanmoins, l’une des difficultés rencontrées est de parvenir à protéger les données personnelles des personnes concernées ainsi que leur vie privée. L’anonymisation est ainsi devenue la question cruciale car par le biais de l’intelligence artificielle, il est plus facile d’identifier les personnes, même indirectement. Il s’agit donc de concilier les bénéfices à venir de l’open data avec ces risques pour les citoyens, ce qui peut expliquer la lenteur de la mise en place des projets gouvernementaux. C’est certainement le prix à payer pour une justice plus accessible, plus prévisible mais aussi plus vertueuse.
L’Assemblée nationale adopte en première lecture une proposition de loi sur le cyberscore des plateformes numériques, réseaux sociaux et sites de visioconférences
Le 26 novembre 2021, l’Assemblée nationale a adopté en première lecture, une proposition de loi relative au cyberscore des plateformes numériques destinée au grand public, préalablement adoptée par le Sénat le 22 octobre 2020. Ce texte doit permettre aux internautes d’évaluer par le biais d’un visuel la sécurisation de leurs données sur les plateformes, réseaux sociaux et sites de visioconférences qu’ils fréquentent, de manière semblable au nutriscore des produits alimentaires. Les informations du cyberscore seront tirées d’un audit de sécurité que les opérateurs concernés devront faire réaliser par des prestataires qualifiés par l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Les internautes devraient ainsi être informés non seulement de la sécurisation mais également de la localisation d’hébergement de leurs données personnelles. Ce texte très général prévoit qu’un décret fixe les critères permettant d’identifier les plateformes et sites concernés, en fonction de l’importance de leur activité, et qu’un arrêté précise les critères pris en compte par le diagnostic de sécurité. L’entrée en vigueur de ce texte, s’il est adopté, est prévue au 1er octobre 2023.
Pourquoi cette actu : Le vol de données personnelles et les cyberattaques sont au cœur de l’actualité. La protection des données personnelles des citoyens français et européens est donc une question essentielle, et leur permettre d’identifier facilement au premier coup d’oeil les sites fiables paraît être une avancée certaine, vu le succès des nutriscores en matière alimentaire. Néanmoins, tout comme le Secrétaire d’Etat au numérique Cédric O le signalait, avec ce nouvel outil il faut se méfier du sentiment de « fausse sécurité », ce n’est pas parce qu’un site est bien classé et que ces données sont hébergées en France qu’il ne peut pas être la cible de cyberattaques. Ce qui est particulièrement intéressant ici est que le cyberscore concernera les plateformes les plus fréquentées par le grand public et où corrélativement, la captation de leurs données est la plus aisée pour des opérateurs peu vertueux. Quant à la connaissance de la localisation de l’hébergement de leurs données personnelles par les internautes, le cyberscore peut certainement devenir le bras armé de la souveraineté numérique française et européenne, à condition bien entendu que des solutions d’hébergement y soient disponibles. Lorsqu’on voit les ambiguïtés et les difficultés rencontrées et par le Cloud européen et le projet Gaia-X il est possible de légitimement s’interroger sur cette capacité.
Un projet de loi indien s’apprête à interdire toutes les cryptomonnaies privéesalerte
Les chauffeurs Uber interpellent la CNIL
La ville d’Annecy, en proie à une cyberattaque
Le 25 novembre 2021, le maire de la ville d’Annecy a signalé “l’arrêt de tous les services informatiques de la ville”, rendant inaccessible l’ensemble des démarches administratives des services municipaux. Tout porte à croire que la ville a été la cible d’un logiciel rançonneur, un programme malveillant utilisé afin de prendre en otage des données personnelles et le contrôle des systèmes. En décembre dernier, la municipalité de la ville avait déjà été victime de cyberattaque. Elle avait dû faire appel à des spécialistes pour arriver à récupérer les accès et les données, ce qui avait pris plusieurs jours. Toutefois, cette attaque n’a pas impecté la plupart des services municipaux en physique qui sont restés ouverts.
Pourquoi cette actu : Après les hôpitaux français ciblés par des cyberattaques c’est au tour des municipalités. Annecy n’est cependant pas la seule à avoir été ciblée. Ce fut le cas de La Rochelle, la métropole d’Aix-Marseille, Vincennes, Charleville-Mézières ou encore Angers. Mais c’est aussi le cas à l’étranger également, par exemple les principales villes canadiennes (Toronto, Vancouver et Montréal), ont vu leurs réseaux de transports récemment piratés. S’il paraît évident que les cyberdélinquants attaquent des systèmes apparemment moins bien protégés, la défense s’organise et on constate que la seconde cyberattaque d’Annecy n’a pas affecté le fonctionnement quotidien de la municipalité. Par ailleurs, nous avions signalé dans de précédentes actualités que les services de police européens et internationaux s’organisaient efficacement pour démanteler les réseaux de de cyberdélinquants. Comme le dit la maxime « Tout seul on va plus vite, mais ensemble on va plus loin »…
Huawei : 190 applications de l'AppGallery infectées par un cheval de troie
L'Italie inflige des amendes de 10 millions d'euros à Apple et Google pour une mauvaise utilisation des données de leurs clients
Une solution au stockage des données numériques : des documents encodés sur ADN font leur entrée aux Archives nationales
Focus de la semaine
Régulation des grands acteurs du numérique : le Conseil de l’Union européenne donne son accord sur le DSA et le DMA
Le 25 novembre 2021, les 27 ministres européens chargés du Numérique, réunis au Conseil à Bruxelles ont adopté, à l’unanimité, une « orientation générale » sur le Digital Services Act (DSA). Deux jours plutôt, ils s’étaient déjà mis d’accord sur le Digital Markets Act (DMA) ou « règlement sur les marchés numériques ».
Les deux projets de règlement ont été publiés en décembre 2021 par la Commission européenne. Et si à l’époque, personne ne savait combien de temps allaient durer les négociations, tous les États avaient affiché leur intention d’aller vite. Ce feu vert du Conseil de l’Union européenne en est la preuve ! Désormais, tous espèrent que le Parlement et le Conseil parviendront à un texte final d’ici le printemps 2022.
Ce n’est toutefois pas seulement une question de timing. Comme le souligne Thierry Breton, commissaire européen au Marché intérieur, l’adoption des deux propositions à l’unanimité des États montre que « tout le monde a compris l’importance cruciale des enjeux. » En effet, il s’agit à la fois de protéger les utilisateurs des contenus et produits illicites, dangereux ou contrefaits et de lutter contre le monopole des GAFAM en renforçant les exigences de transparence et en prévenant les abus de position dominante. Grâce à ces textes, « L’Europe sera le premier continent avec un vrai corpus solide de règles pour l’univers digital. »
Toutefois, le Conseil et le Parlement n’ont pas toujours été en phase, notamment à propos du DSA. Si le Conseil a souligné l’importance du retrait obligatoire et rapide des contenus illégaux signalés par des tiers de confiance, il a rapidement exclu les options les plus radicales concernant le contrôle des publications sur les grandes plateformes, comme par exemple le filtrage généralisé des publications. Et le processus législatif n’est pas terminé : des désaccords persistent entre la Commission, le Conseil et le Parlement et les lobbys restent très actifs.
Pourquoi ce focus : D’une part, il s’agit d’un sujet d’actualité brûlant : la régulation des géants du numérique. On peut d’ailleurs rattacher cette actu à la tribune d’Emmanuel Combe, président actuel de l’Autorité de la concurrence française, publié dans Le Monde le 22 novembre dernier, dans laquelle il cite le Digital Services Act (DSA) et le Digital Markets Act (DMA) et rappelle que l’idée sous-jacente de ces textes est qu’une régulation ex-ante, sous la forme d’obligations et d’interdictions, sera plus rapide et efficace qu’une détection ex-post.
D’autre part, cette actualité présente un aspect historique : “C’est un jour historique” a réagi Thierry Breton, relayé par Cédric O, le secrétaire d’Etat chargé de la transition numérique et des communications électroniques qui a souligné que “L’orientation générale obtenue à l’unanimité des États membres […] constitue un résultat historique”.
Le point de vue étudiant
La digitalisation des dispositifs d’alerte professionnelle à l’épreuve du RGPD
De nombreuses entreprises sont aujourd’hui soumises à une avalanche de règlementations, notamment à celles qui imposent à certaines sociétés de mettre en place un dispositif d’alerte professionnelle.
L’alerte professionnelle ou whistlelblowing instrument de bonne gouvernance venu d’outre-atlantique, a mis du temps à s’implanter en France. En effet, une défiance historique à l’égard des délateurs, résultant d’un passé sombre et peu glorieux n’était guère propice à favoriser son expansion. Pourtant les lanceurs d’alerte ont amplement démontré, au fil de révélations toujours plus médiatisées qu’ils défendaient l’intérêt général au mépris souvent de leur intérêt personnel comme cela a été le cas de la pneumologue Irène Frachon qui mena le combat, finalement vainqueur, dénonçant le Médiator des laboratoires Servier ou plus récemment de Frances Haugen , ex-salariée, au cœur de la révélation des Facebook files.
L’émergence d’une multiplicité de dispositifs de recueil d’alerte professionnelle
L’encadrement des alertes professionnelles en entreprise est restée longtemps très lacunaire. Certes, quelques textes sans grande cohérence furent adoptés en matière de lutte contre la corruption, de fraude fiscale ou de conflits d’intérêt, alors que dès 2002, de grandes entreprises, sollicitées par des investisseurs américains, sous le joug de la loi Sarbanes Oxley, mettaient en place des dispositifs d’alerte professionnelle, limités par la CNIL, plutôt hostile, aux domaines financier, comptable, bancaire et de lutte contre la corruption.
Par la suite, le texte emblématique fut la loi Sapin II adopté le 9 décembre 2016. Ce texte a eu le grand mérite de mettre en place, pour la première fois en Europe, un statut unifié et protecteur du lanceur d’alerte, même s’il reste encore déficient. En effet, ceux qui avaient le courage de dénoncer les faits litigieux à leur hiérarchie continuaient à être injustement sanctionnés ou licenciés. Depuis l’entrée en vigueur de ce texte, force est de constater que la loi est restée fort peu appliquée par les entreprises, les enquêtes réalisées démontrant que seules 30% des administrations publiques et 50% des entreprises privées avaient mis en place un dispositif de recueil des alertes en interne.
L’Union européenne a fini par s’emparer de la question et une directive européenne 2019/1937 en date du 23 octobre 2019 renforçant la protection des lanceurs d’alerte doit prochainement être transposée par les États membres, avant le 17 décembre 2021 et notamment par la France.
Aujourd’hui, les entreprises soumises à la loi Sapin 2, complétée par un décret n° 2017-564 du 19 avril 2017 sont tenues de mettre en place plusieurs dispositifs d’alerte professionnelle. Le dispositif de l’article 17 de la loi s’adresse aux dirigeants de grandes sociétés de plus de 500 salariés et 100 millions de chiffres d’affaires et concerne « un dispositif d’alerte interne destiné à permettre le recueil des signalements » mais émanant uniquement « d’employés » et relatif « à l’existence de conduites ou de situations contraires au code de conduite de la société ».
Force est de constater que le dispositif de l’article 8, lui, est beaucoup large. En effet, il englobe davantage de petites entreprises, personnes morales de droit privé de plus de 50 salariés, quel que soit leur chiffre d’affaires. De plus les personnes concernées par l’alerte, dans ce dernier cas, sont « les membres de leur personnel » mais « aussi des collaborateurs extérieurs et occasionnels ».
Enfin, il ne faut pas oublier que la loi du 27 mars 2017 relative au devoir de vigilance des sociétés mères et des entreprises donneuses d’ordre est venue aussi renforcer l’arsenal des alertes éthiques en entreprise, en matière de respect de droits humains au sens large. Elle a exigé des très grandes entreprises (au moins 5.000 salariés employés en France, ou au moins 10.000 salariés employés en France ou à l’étranger) l’implantation d’un « mécanisme d’alerte et de recueil des signalements relatifs à l’existence ou à la réalisation des risques, établi en concertation avec les organisations syndicales représentatives dans ladite société ».
En définitive, l’arsenal des dispositifs d’alerte mis en place montre que le législateur, confronté à l’insuffisance de la répression des comportements litigieux, a choisi de multiplier dans des domaines différents, plusieurs dispositifs de prévention et détection par le biais de l’alerte professionnelle.
Les dispositifs d’alerte professionnelle, un risque pour les données personnelles ?
Depuis 2005, les dispositifs d’alerte professionnelle sont régulés par la CNIL. Rien de surprenant quand on sait que ces derniers mêlent de manière directe ou indirecte les coordonnées et des renseignements sensibles relatifs à des personnes physiques, soit en tant que lanceurs d’alerte soit en tant que personnes dénoncées, et dès lors, impliquent le traitement de données à caractère personnel.
Pour la CNIL un dispositif d’alerte professionnelle est « un système mis à la disposition des employés d’un organisme public ou privé pour les inciter, en complément des modes normaux d’alerte sur les dysfonctionnements de l’organisme, à signaler à leur employeur des comportements qu’ils estiment contraires aux règles applicables et pour organiser la vérification de l’alerte ainsi recueillie au sein de l’organisme concerné ».
Au regard des conséquences que les dispositifs d’alertes professionnelles peuvent engendrer, la CNIL a placé le déroulement des alertes professionnelles, dans un premier temps sous un mécanisme d’autorisation préalable et depuis l’entrée en vigueur du RGPD, soumis désormais plutôt à un système d’accountability, par le biais d’un référentiel adopté en décembre 2019.
Depuis lors, la mise en conformité au RGPD nécessite, s’agissant spécifiquement de la mise en place du dispositif de recueil des alertes et signalements en matière professionnelle, la réalisation obligatoire d’une analyse d’impact sur la protection des données (AIPD). Cette dernière doit être réalisée avant la mise en place du dispositif. Elle doit contenir : la description des opérations et des finalités du traitement des données ; les garanties offertes par l’employeur aux personnes concernées sur leurs droits et libertés ; les mesures envisagées pour assurer la sécurité de ces données. Sont fournis également dans le référentiel CNIL des outils pratiques pour effectuer cette analyse. Si l’analyse indique que le dispositif présente un risque d’impact élevé sur la protection des données personnelles, il est alors nécessaire que l’employeur consulte la CNIL préalablement à sa mise en œuvre.
La lente mise en place au sein des entreprises des dispositifs légaux malgré les sanctions lourdes encourues
Deux ans après l’adoption de la loi Sapin 2, une enquête de l’AFJE et Ethicorp, montrait que 60% des 1500 entreprises interrogées admettaient ne pas être en conformité avec la loi en raison, notamment, des difficultés à appréhender et à comprendre les normes applicables et du manque d’implication des instances dirigeantes.
Pourtant, ce sont bien les dirigeants des sociétés concernées qui sont responsables personnellement de la mise en place des dispositifs légaux et en particulier d’alerte professionnelle de la loi anti-corruption. Pourtant, les sanctions encourues par les dirigeants eux-mêmes, en cas de non-respect des textes ne sont pas des plus légères.
L’Agence française anticorruption (AFA) a ainsi été créée pour s’assurer de la mise en place réelle du dispositif prévu par la loi. Il est essentiel pour les entreprises de parvenir à prouver leur mise en conformité sans quoi les dirigeants pourraient encourir à titre personnel jusqu’à 200 000€ d’amende. La société quant à elle, peut voir le montant de cette amende porté au quintuple en cas de non-conformité, soit à 1 million d’euros.
Aussi, si les dispositifs d’alerte ne sont pas correctement, voire pas du tout, mis en place, ou encore si l’on empêche les salariés de pouvoir les utiliser, les dirigeants de l’entreprise encourent jusqu’à 1 an d’emprisonnement.
En cas de non-respect des obligations liées au devoir de vigilance, la responsabilité civile de la personne morale peut là encore être déclenchée. La directive européenne en préparation dans ce domaine pourrait avoir des sanctions plus énergiques.
La digitalisation des dispositifs d’alerte professionnelle, avancée ou recul pour la protection des données personnelles ?
Parce que les entreprises concernées rencontrent des difficultés à mettre en place les dispositifs complexes de conformité aux normes (ou compliance,) certaines start-ups, pour certaines ayant déjà mis en place une digitalisation des obligations liées au RGPD, proposent les mêmes services, notamment en matière de lutte contre la corruption, y compris pour les dispositifs d’alerte professionnelle.
A titre d’exemple, la start-up Data Legal Drive, spécialisée dans le domaine de la conformité au RGPD a élaboré, avec le cabinet d’avocats Vigo, un logiciel de conformité anti-corruption, développé et hébergé en France.
L’annonce de la mise en place de ce logiciel le 25 novembre 2021 marque une nouvelle ère, y compris pour les dispositifs d’alertes professionnelles. Il vient faciliter la mise en conformité des entreprises en leur apportant un véritable soutien. Celles-ci ont un besoin accru de digitalisation pour répondre aux obligations de préventions, de signalement et de traitements des risques posées dans la loi Sapin II. De telles plateformes numériques peuvent aider les entreprises concernées à remplir leurs obligations, à faire remonter et centraliser plus facilement les informations. Une fois ces informations répertoriées, de telles plateformes facilitent l’identification des conduites contraires notamment au code de conduite anti-corruption et accélèrent dès lors la mise en place de solutions pour y remédier. La digitalisation des procédures de conformité permet ainsi de révéler et de signaler plus facilement les éventuelles alertes ou risques relevés par les collaborateurs de l’entreprise. De tels logiciels automatisés, permettant de suivre de manière quasiment instantanée l’évolution du dispositif anti-corruption s’inscrivent résolument dans la compliance by design.
Ces logiciels soulignent la bonne mise en œuvre de processus de conformité au sein de l’entreprise, et ce de manière efficace, rapide et confidentielle. Grâce à de tels logiciels, la mise en place des dispositifs d’alertes sera facilitée.
Toutefois, qui dit automatisation des processus, notamment en ce qui concerne les dispositifs d’alerte professionnelle, dit risque accru pour les données personnelles et nécessité d’anticiper l’accès indirect qu’un tel traitement pourrait engendrer. Le fait qu’une start-up, spécialiste des logiciels de conformité au RGPD, mette en place un logiciel anti-corruption semble certainement être un gage de respect des données personnelles des personnes concernées par le lancement d’alertes professionnelles.
Reste néanmoins le risque non négligeable de cyberattaques des sous-traitants de données personnelles, qui se sont multipliées ces derniers mois en France et donc de fuites de données récoltées au sein des entreprises par son intermédiaire. Il est alors intéressant de comparer le bénéfice coûts/avantages de ce type de logiciel, entre la lutte accrue contre les comportements déviants au sein de l’entreprise et l’atteinte potentielle aux données personnelles et droits fondamentaux des salariés et collaborateurs.
Par Sarah Launay, étudiante de Master 2 en droit des affaires, avec la relecture assidue d’Isabelle Bufflier et Frédéric Munier, professeurs SKEMA BS