DSA-DMA : Analyse des votes par Jean-Marie Cavada et Colette Bouckaert
2 août 2022
DSA-DMA : Analyse des votes par Jean-Marie Cavada et Colette Bouckaert

2 août 2022

Accueil I #Opinions I DSA-DMA : Analyse des votes par Jean-Marie Cavada et Colette Bouckaert

DSA-DMA : ANALYSE DES VOTES

Le vote des deux règlements DSA (Digital Services Act) et le DMA (Digital Market Act) en plénière au Parlement européen le 5 juillet 2022

Et alors ? Et maintenant ? 

 

Le Parlement européen a voté le 5 juillet, les deux accords de trilogue sur le DSA (à 539 voix en faveur du texte, 54 voix contre et 30 abstentions) et sur le DMA (à 588 voix en faveur, 11 contre et 31 abstentions). La bonne nouvelle est que ces deux textes ont été adoptés à une très large majorité sans les amendements déposés en plénière et qui ont été rejetés.

Le Conseil va maintenant devoir valider ces deux règlements. Ce sera normalement le 18 juillet pour le DMA et en ce qui concerne le DSA la réunion des Ministres est prévue en septembre. Dans la mesure où il s’agit de règlements et non de directives, ces deux textes seront d’application directe dans l’ensemble des Etats membres.

Ces deux législations étaient extrêmement attendues. Elles sont à n’en pas douter une avancée considérable lorsque l’on sait d’où l’on vient dans la lutte pour la responsabilisation des plateformes et contre les contenus illégaux. L’Europe vient de se doter de deux outils qui étaient absolument nécessaires pour préserver à minima les consommateurs et les professionnels des dérives constantes des géants du numérique. L’UE devient quoi qu’on en dise, leader en la matière. C’est donc un bon début mais pas un aboutissement. Si nous avons gagné une bagarre importante malgré les réticences d’une partie du Parlement européen dont certains membres sont très proches des géants du numérique, nous n’avons pas gagné la bataille car ces deux règlements auraient mérité d’être plus audacieux pour être vraiment efficaces et leur mise en application s’annonce pour l’un comme pour l’autre d’ores et déjà compliquée.

Comme notre Institut iDFrights l’a souligné dans plusieurs contributions précédentes, la mise en œuvre du DMA qui concerne l’encadrement des grandes plateformes et celle concernant les obligations du DSA s’effectueront par palier. La Commission européenne aura la lourde charge administrative de les répertorier et devra désigner in fine celles auxquelles les législations vont s’appliquer. Ceci prendra plusieurs mois, avec sans doute à l’issue du processus des recours de la part des géants du numérique qui pourront contester la catégorie dans laquelle la Commission les aura classés. Pour réaliser ce travail, la Commission envisage de recruter d’ici à 2024 plus de 100 personnes. Cependant, certaines obligations du DSA notamment concernant la lutte contre les contenus dangereux ou illicites seront supervisées par des autorités nationales. En France par exemple ce sera l’ARCOM, laquelle a déjà évalué que ces missions auraient un coût significatif et qu’elle aura donc besoin de crédits supplémentaires. Gageons que l’articulation entre les actions dédiées à la Commission conjuguées à celles des autorités nationales ne simplifiera pas les choses. Il faudra qu’elles apprennent à se compléter

Les Institutions européennes sont soulagées de l’adoption de ces deux textes et ne se lassent pas d’éloges à ce sujet. On peut quand même regretter que le DSA ne fasse que préciser les obligations des plateformes en matière de retrait de contenus problématiques tels que décrits dans la directive e-commerce… sans les rendre directement responsables des contenus qu’elles transportent.

Le Diable étant dans les détails, on peut s’étonner d’autre part de ce que les grandes plateformes se réjouissent de l’adoption des deux règlements. Elles considèrent qu’ils vont faciliter le fonctionnement du marché unique du numérique et clarifier les responsabilités de chacun en ligne. C’est bien la preuve qu’il aurait fallu aller plus loin.

L’Institut pour sa part, et son Président l’a maintes fois répété lors de ses interventions, se félicite surtout d’avoir limité les dégâts… Car il y aurait encore beaucoup à dire sur les conditions de l’obligation de retraits des contenus notifiés. Il est évident qu’il va falloir rapidement réfléchir à mettre un frein aux abus qui continuent à proliférer sur le net et notamment le piratage, la contrefaçon et la désinformation. Faire un texte sur la lutte contre les contenus illicites en les maintenant en ligne après leur notification… n’est quand même pas le meilleur signal à envoyer à toutes les entreprises et les professionnels qui subissent les dérivent des plateformes tous les jours.

A ce titre, L’Institut tenait à remercier les députés qui ont su écouter nos réserves comme nos propositions et ont toujours défendu avec conviction leurs engagements pour tenter de renforcer les dispositions de ces règlements et qui ont malgré toutes les embûches rencontrées permis que ces deux textes respectent l’équilibre, même fragile, auquel nous sommes parvenus.

L’Institut continuera donc à défendre ce qui est son « ADN » c’est-à-dire faire en sorte que « tout ce qui est illégal hors ligne, soit illégal en ligne ».

L’analyse de ces deux textes ne fait que commencer et l ’Institut sera donc très attentif à l’évolution des discussions qui vont précéder les mises en application. Par exemple le DMA s’appliquera-t-il à NEXFLIX ou pas ?  La semaine passée lors d’une rencontre d’experts mondiaux du droit de la concurrence en Grèce, un spécialiste a émis l’idée que NEXFLIX dans la version de sa plateforme soutenue par la publicité, puisse être considéré comme un « service d’intermédiation en ligne » au sens du DMA puisqu’elle permettrait à ses annonceurs d’avoir accès à ses utilisateurs !!!! C’est tout un travail d’interprétation juridique et d’arbitrage politique qui se prépare. Nous y prendrons notre part.

L’optimisme n’excluant pas la vigilance, réjouissons-nous qu’en Europe le monde numérique dont les géants ont profité de l’absence de règles pendant si longtemps s’assainisse peu à peu en établissant un environnement en ligne plus sécurisé.

 

Jean-Marie Cavada

Président iDFrights

 

Colette Bouckaert

Secrétaire générale iDFrights,
Membre du Comité Europe

 

Retrouvez plus d'articles sur : contrefacon | environnement

Suivez-nous

Sur Linkedin

Plus d’articles

Les critères de certification (EUCS) : les menaces sur la sécurité et la souveraineté européenne s’accentuent

Les critères de certification (EUCS) : les menaces sur la sécurité et la souveraineté européenne s’accentuent

En 2024, l’Institut, dans un article du 8 avril, s’inquiétait déjà du manque de consensus des Etats membres dans le cadre du règlement « cybersecurity Act » tout particulièrement sur critères de certification (EUCS). Plusieurs d’entre eux, dont la France insistaient sur la nécessité d’inclure un niveau plus élevé de sensibilité des données, comme celles de la santé ou de sécurité défense dans une clause « d’immunité aux lois extraterritoriales ». Cette notion était d’ailleurs exclue de la dernière version du texte.

lire plus
Le règlement e-Privacy : c’est fini

Le règlement e-Privacy : c’est fini

La Directive 2020/58/CE adoptée 2002 concernait la « vie privée et communications électroniques ». Elle visait à prendre en compte les nouveaux acteurs du marché, et les évolutions technologiques et commerciales survenues dans le cadre des communications électroniques.
En janvier 2017, la Commission décide la révision de cette directive pour l’actualiser. C’est avec cet objectif que le règlement « e-privacy » est proposé

lire plus
Vers le début de la fin de l’irresponsabilité des hébergeurs ? par  Jean-Pierre Spitzer 

Vers le début de la fin de l’irresponsabilité des hébergeurs ? par  Jean-Pierre Spitzer 

Maître Laure Boutron- Marmion vient d’assigner Tik Tok en responsabilité au nom de sept familles ayant chacune un enfant qui a été victime des algorithmes de ce réseau. Deux ont commis l’irréparable, manifestement encouragés par les messages qui leur étaient délivrés sur ce réseau.
Elle a insisté sur le fait que d’autres affaires mettant en cause la responsabilité de Tik Tok sont en cours aux États-Unis.

lire plus