ACCORD ISSU DES NEGOCIATIONS DE TRILOGUES SUR LE DIGITAL SERVICES ACT (DSA)

3 mai 2022

Accueil I #Travaux I ACCORD ISSU DES NEGOCIATIONS DE TRILOGUES SUR LE DIGITAL SERVICES ACT (DSA)

1 – LES MOTEURS DE RECHERCHE – CONSIDERANT 27
Après bien des discussions, les moteurs de recherche font partie de la liste des services couverts par le DSA. Inclus seulement dans un considérant les moteurs de recherche seront traités au cas par cas. On peut considérer comme positif qu’ils n’aient pas été intégrés dans les services de cache. Néanmoins, rien n’était encore clair à l’issue du dernier trilogue. Il faudra attendre les réunions techniques, mais on peut déjà dire que cela ne reflète en l’état que le statut quo.

2 – LE RETRAIT DES CONTENUS ILLICITES PAR L’INCLUSION D’UN MECANISME DE STAY-DOWN (ARTICLE 14 – CONSIDERANT 40b)
L’Institut l’a dit et répété : cet article est l’article charnière du texte, sans un dispositif de lutte durable et efficace contre les contenus illicites, le règlement perd beaucoup de son intérêt. La question du retrait des contenus illicites signalés reste ouverte et sera traitée au niveau technique dans les jours à venir. L’Institut espère toujours un sursaut de la part des négociateurs pour qu’une obligation plus ambitieuse vienne renforcer la responsabilité des plateformes.
La rédaction du considérant 40b n’est pas acceptable en l’état car cette position est en deçà de la situation actuelle. Il est évident qu’il revient aux fournisseurs de services d’hébergement de déterminer si les conditions techniques et opérationnelles qu’ils choisissent pour exercer leurs activités leur permettent de traiter les mécanismes de notification et d’action et d’y répondre. Dans ces conditions, si l’on veut un texte performant, il faut que la notification et l’action soient précisément faites à l’encontre des services susceptibles de remédier efficacement à la diffusion des contenus illicites.
Faire un règlement de lutte contre les contenus illicites, en ne prévoyant pas leur retrait dès leur notification est non seulement un non-sens, mais un vrai recul par rapport à la directive e-commerce.

3 – EXEMPTION POUR LES PME – ARTICLES 16 – 17 – CONSIDERANT 43a
Les micro-et les petites entreprises sont exemptées des obligations de diligence raisonnable propres aux plateformes et cette exemption sera maintenue pendant un an après qu’elles soient devenues des entreprises moyennes, tout en bénéficiant des exemptions prévues pour les plateformes moyennes.
L’Institut a toujours dit qu’il était nécessaire pour la protection des consommateurs et des professionnels européens dans la lutte contre les contenus illégaux, d’inclure tous les types de plateformes dans le DSA. Les risques et les dommages subis sont aussi graves sur les petites et moyennes plateformes que sur les grandes. Les micros et petites entreprises argumentaient qu’elles n’avaient pas les moyens de mettre en œuvre les mesures préconisées dans le texte. En conséquence, la Commission s’est engagée à soutenir financièrement les PME pour les aider à se conformer aux obligations du DSA.

4 – LES SIGNALEURS DE CONFIANCE (ARTICLE 19)
Les co-législateurs ont supprimé l’exigence de représenter « l’intérêt collectif » pour être considéré comme un « signaleur de confiance » En effet cette approche privait les titulaires de droits de la possibilité de devenir un « signaleur de confiance » au sens du DSA, alors qu’ils ont toute l’expertise nécessaire pour bénéficier de ce titre. Leurs notifications vont donc pouvoir bénéficier d’un traitement prioritaire lorsqu’ils identifieront un contenu illicite sur une plateforme.
L’Institut se félicite de cette décision. En effet, les ayants droits sont les seuls habilités à pouvoir déterminer le caractère licite ou non d’un produit ou d’un contenu.

5 – « LES DARK PATTERNS » INTERDITES POUR LES PLATEFORMES (ARTICLE 23a)
Les interfaces trompeuses (dark patterns) sont interdits pour toutes les plateformes. Cette interdiction s’applique en parallèle de celle du RGPD et de la directive sur les pratiques commerciales déloyales de 2005. La Commission va devoir fournir des orientations permettant de déterminer les pratiques interdites, en particulier la mise en avant de certains choix.
L’accord final à l’issue des réunions techniques devrait concerner les systèmes de recommandation. Notamment des obligations de transparence à toutes les plateformes sur les paramètres de classement utilisés par les algorithmes. Mais l’obligation de fournir une version des algorithmes sans profilage pourrait n’être imposée qu’aux très grandes plateformes.

6- PROTECTION DES DONNEES (ARTICLE 24) ET CELLES DES MINEURS (ARTICLE 23 B)
Les plateformes en ligne accessibles aux mineurs devront prendre des mesures pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service. La publicité ciblée des données des mineurs est interdite.
Par ailleurs le ciblage publicitaire fondé sur le profilage utilisant des données sensibles sans consentement sont interdites pour toutes les plateformes.

7 – APPLICATION DU KYBC (ARTICLE 24) ET LES PLACES DE MARCHE (ARTICLE 24a-b et c)
Les plateformes auront une obligation d’information et de surveillance plus stricte des places de marché. Elles devront s’assurer que les commerçants qui utilisent leurs services ne puissent le faire qu’après avoir fourni un ensemble d’informations de base et devront faire leurs meilleurs efforts pour s’assurer que celles-ci sont fiables et complètes et notamment se conformer à des obligations sur la sécurité des produits et fournir des informations sur les dommages directs résultant de la violation du règlement par les prestataires de services.
L’Institut se félicite de l’inclusion d’un considérant sur les contenus trompeurs ou mensongers qui ne sont pas illégaux mais contribuent à des risques systémiques (art 26)
L’Institut voit dans cette décision, le début d’une volonté de lutter enfin contre les produits contrefaits et celle de la prévention des fraudes en ligne. C’est une excellente nouvelle pour les consommateurs. Cependant, il faut regretter que l’accord ne soit pas allé plus loin et que ces obligations se limitent aux seules places de marché, ce qui est une occasion manquée de s’attaquer à l’ensemble des contenus illicites en ligne (dangereux, non conformes et de qualité inférieure). On notera notamment que le considérant 39 b qui devait permettre des contrôles aléatoires sur les produits pour vérifier la fiabilité des informations fournies par les utilisateurs professionnels, soit devenue une mesure non contraignante : les marketplaces n’auront à fournir que « leurs meilleurs efforts » pour vérifier les informations avant la mise en ligne des produits et des contenus.

8 – DIFFUSION DE CONTENUS PORNOGRAPHIQUES (ARTICLE 27)
Une référence à la cyber-violence de manière à englober les contenus haineux et la désinformation est incluse parmi les mesures énumérées à cet article : nécessaire mais insuffisant.

 

 

CONCLUSION
L’Institut se réjouit que l’on ait pu arriver après des négociations difficiles à un accord politique. Ce texte est une première réponse aux enjeux de lutte contre les contenus illicites en ligne. Il doit encore être finalisé au niveau technique puis approuvé par le Conseil de l’UE et enfin par le Parlement en séance plénière avant d’être définitivement adopté. Une fois la procédure terminée il entrera en vigueur 20 jours après sa publication au journal officiel de l’UE et il sera mis en application 15 mois plus tard pour les plateformes en ligne. Pour les « très grandes plateformes » en en application du règlement sur le DMA, la Commission aura 3 mois pour désigner lesdites plateformes qui disposeront de 4 mois pour se mettre en conformité.
Il est évident que le texte aurait pu aller plus loin en ce qui concerne la responsabilité des plateformes de commerce en ligne sur leurs produits, et bien sûr le point le plus sensible reste ouvert et l’Institut souhaite de véritables améliorations sur la rédaction de l’article 14 et de son corollaire, le considérant 40 b. Il est incompréhensible dans cette législation de pouvoir imaginer qu’un contenu reste accessible et visible en ligne après sa notification. Cette décision risquerait d’aboutir à ce que les plateformes n’aient aucun intérêt à traiter rapidement les notifications.

Jean-Marie Cavada Colette Bouckaert
Président iDFrights Secrétaire générale iDFrights

 

Partager l'article :Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin