Les dernières négociations – Avant le vote du 05 juillet 2022
24 juin 2022
Les dernières négociations – Avant le vote du 05 juillet 2022

24 juin 2022

Accueil I #Opinions I Les dernières négociations – Avant le vote du 05 juillet 2022

Les discussions interinstitutionnelles avancent et de l’issue de la dernière réunion technique semble émerger des propositions de compromis intéressantes. Il reste néanmoins des désaccords sur les points sensibles comme la publicité, et le retrait des contenus notamment, qui doivent encore être tranchés. La Présidence française de l’Union européenne envisage d’exempter les « très grandes plateformes » à but non lucratif des frais de supervision dus à la Commission et auxquels les autres « très grandes plateformes » sont soumises

 

MODERATION DES CONTENUS – Article 6 –

L’accord qui se dessine se joue entre le Conseil et le Parlement, ce dernier ayant accepté de supprimer l’article concernant la réduction du taux d’erreur des outils automatiques pour le reprendre seulement dans un considérant. Le Conseil de son côté pourrait accepter ce compromis si en contrepartie il est inscrit dans le considérant que les plateformes sont « encouragées » à prendre des mesures efficaces sur ce point.

SURVEILLANCE DES CONTENUS – Article 7 – et MODERATION DES CONTENUS – Article 12

Rien n’est arrêté sur ces articles. Le Parlement campe sur ses positions concernant l’interdiction d’imposer des outils automatiques et le Conseil insiste sur la suppression de cette disposition. Seule concession du Parlement, la référence au chiffrement « de bout en bout » sur la protection du chiffrement contre les Etats qui pourrait être supprimée.

 

LES INJONCTIONS DE RETRAITS DES CONTENUS – Article 8 – et LA TRANSMISSION DES INFORMATIONS – Article 9 –

Ces deux articles sont toujours en négociation.

Le Conseil maintient sa position sur le champ territorial des injonctions. Il aimerait conserver le renforcement de l’indépendance du texte dans le cadre de l’application des procédures judiciaires nationales et souhaite supprimer l’article proposé par le Parlement sur les « recours efficaces des utilisateurs » contre l’ensemble de ces injonctions proposant son intégration dans un considérant.

 

LE RETRAIT DES CONTENUS – Article 14  

Un accord semble être acté dans la dernière version de ses compromis concernant la procédure de signalement et le retrait des contenus (notice and action). C’est l’article charnière du texte et sa rédaction a beaucoup inquiété l’Institut qui a écrit de nombreuses contributions pour demander l’exclusion de l’amendement proposé par le Parlement dans la mesure où cette disposition remettait en cause l’efficacité du DSA en permettant à des contenus illicites et dangereux de rester accessibles et visibles en ligne après leur notification ce qui risquait d’aboutir à ce que les plateformes n’aient aucun intérêt à traiter rapidement les notifications.

Le compromis supprime le maintien en ligne des contenus dont l’hébergeur examine la légalité et précise la nécessité d’une « connaissance effective d’un contenu illicite » à la fin de l’examen de notification.

 

REDACTION FINALE

Comme il fallait s’y attendre, le Conseil a cédé au Parlement et la rédaction finale du compromis devient extrêmement vague afin que chacun s’y retrouve et puisse en faire l’interprétation qu’il veut. La CJUE a de beaux jours devant elle.

Dans les faits, il est moins bien que la proposition initiale, mais il n’interdit pas le « specific monitoring » il dit juste que le « general monitoring » est interdit…

Considérant 41-a – correspondant à l’article 14

 Ce considérant qui reprenait la mauvaise rédaction de l’article 14-3a) depuis supprimé était problématique de par son articulation entre le contenu illégal et le principe de la liberté d’expression. En effet, l’Institut considère que soit un contenu est illégal et doit être supprimé soit le contenu est couvert par une exception au droit d’auteur motivée par la liberté d’expression et il est maintenu.

Le nouveau compromis inscrit dans le dernier 4 colonnes du 8 avril propose une rédaction qui, bien que n’étant pas parfaite, apporte cependant une meilleure lisibilité à l’amendement dont l’Institut se félicite et qu’il peut soutenir.

 

LES ABUS DES PLATEFORMES – Article 20 –

La question reste ouverte concernant l’utilisation abusive des plateformes par des entreprises ou des utilisateurs malveillants et notamment lors de la récidive de diffusion de contenus illicites sur une plateforme ou de multiplication de signalements injustifiés de contenus illicites. L’Institut soutient la proposition du Parlement qui se rapproche de la position du Conseil qui considère que les plateformes doivent suspendre les comptes de ceux qui diffusent des contenus illicites et de ceux qui abusent du système de signalement. Pour ces derniers par ailleurs, Le Conseil recommande simplement qu’il soit donné aux plateformes un droit de décider de la suspension ou non de leurs comptes.

 

TRACABILITE ET MESURES CONSERVATOIRES – Article 22

Concernant la traçabilité des vendeurs, plusieurs organisations professionnelles souhaiteraient qu’elle soit renforcée en intégrant une obligation pour les places de marché en ligne de procéder périodiquement à des vérifications aléatoires des biens et services proposés sur leurs sites. Elles souhaitent par ailleurs l’élargissement à toutes les plateformes l’interdiction de l’utilisation des interfaces trompeuses « dark patterns » actuellement prévue uniquement pour les « très grandes plateformes »

L’Institut est favorable à cette disposition qui est une mesure qui renforce la sécurité des consommateurs lors de leurs transactions en ligne

En ce qui concerne les mesures conservatoires, la proposition de la Commission européenne précisait qu’elles ne pourraient être applicables que si le préjudice à prévenir était « irréparable » mais rédigé ainsi l’article est inefficace. Lorsque les entreprises européennes subissent des pratiques d’éviction de marché, elles n’ont d’autres solutions que d’engager des procédures qui durent des années, alors que le préjudice est immédiat.

L’Institut appuie l’inclusion d’un tel article dont l’objectif est de prévenir les abus de position dominante des géants du net dont souffrent toute l’économie numérique européenne.

 

LA PUBLICITE CIBLEE – article 24

Comme nous l’encouragions dans notre synthèse sur le DMA (Digital Market Act) le Conseil s’est rangé à la position du Parlement et a accepté d’inscrire l’interdiction de la publicité ciblée pour les mineurs dans le DSA dans un nouvel article (art 23b) ce dont l’Institut se félicite. Cependant tout n’est pas calé pour autant dans la mesure ou le Parlement souhaite appliquer cette disposition à toutes les plateformes alors que le Conseil voudrait se limiter à une application uniquement aux grandes plateformes.

En revanche le Conseil et le Parlement sont alignés sur la transparence des plateformes concernant la publicité. Les informations des consommateurs quant à la façon dont leurs données sont monétisées seraient reprise dans un code de conduite

 

LUTTE CONTRE LES CONTENUS PORNOGRAPHIQUES – Article 24b –

L’Institut soutient par ailleurs la position du Parlement qui continue à réclamer des mesures spécifiques pour combattre la diffusion d’images sans consentement par les plateformes de partage de vidéos pornographiques   

 

 

DESIGNATION DES TRES GRANDES PLATEFORMES – Article 25 –

Le compromis proposé par le Conseil reprend la proposition faite par la Commission il y a quelques semaines. Ce texte prévoit donc que la Commission peut annuler la désignation comme « très grande plateforme » une plateforme qui compte moins de 45 millions d’utilisateurs actifs pendant une année, A préciser que le DMA a désigné ce seuil comme l’un des critères pour être désigné comme « contrôleur d’accès ».

Le débat reste donc ouvert pour connaître le seuil à partir duquel la Commission sera habilitée à considérer que la plateforme est une « très grande plateforme. L’article 25 concernant la définition des « utilisateurs actifs » renvoie sur ce point au considérant 54 qui a été modifié et définit cette notion.

Conclusion

Vote le 5 juillet en pleniere a Strasbourg d’un texte qui ne répond pas a tout ce que nous en attendions.

Certes la responsabilité des plateformes est renforcée, mais elle auront des obligations qu’elles étaient prêtes à accepter.

En ce qui concerne les échanges commerciaux, des améliorations appréciables pour les utilisateurs, mais le texte ne va pas assez loin notamment en ce qui concerne la lutte contre les contenus contrefaits. Dans la mesure ou la responsabilité des plateformes est limitée, cela conduit à une absence de vigilance active indispensable si l’on veut lutter contre ce phénomène qui continue de prospérer sur ces plateformes.

 

Retrouvez plus d'articles sur :

Suivez-nous

Sur Linkedin

Plus d’articles