DSA et DMA : Qui fait quoi ? Dans l’application.
3 octobre 2023

On entend parler quotidiennement du DMA (Digital Markets Act) et du DSA (Digital Services Act), ces deux règlements européens qui visent conjointement à réguler internet. Mais, Il reste encore parfois compliqué de bien comprendre leurs objectifs : limiter la domination économique des grandes plateformes pour le DMA et lutter contre la diffusion des contenus illicites en ligne pour le DSA. Si certaines dispositions dans ces deux textes se rejoignent, l’essentiel est surtout de donner à chacun des pouvoirs particuliers et complémentaires. 

Le DMA cible exclusivement les très grandes plateformes, identifiées comme des contrôleurs d’accès (« gatekeepers » en anglais). Elles doivent répondre à des critères évaluant leur position et leur influence, à savoir : 

  • Avoir une position économique très importante, c’est-à-dire réaliser au moins 7,5 milliards d’euros de CA dans l’espace économique européen ou avoir une capitalisation boursière d’au moins 75 milliards d’euros et une activité dans au moins 3 Etats membres. 
  • Avoir le contrôle d’un service de plateforme « essentiel » c’est-à-dire un service utilisé par au moins 45 millions d’européens par mois et au moins 10 000 professionnels par an dans l’UE.

Le DMA est entré en application le 2 mai 2023.

Le DSA concerne lui la majorité des entreprises proposant des « services intermédiaires » aux utilisateurs européens (fournisseurs d’accès, réseaux sociaux, services en nuages…), qu’elles soient établies en Europe ou ailleurs dans le monde. 

Le règlement a toutefois une structure pyramidale qui détermine les obligations des différents acteurs : 

  • Les fournisseurs de services intermédiaires, 
  • Les plateformes (dont les places de marché en ligne) et 
  • Les très grandes plateformes et moteurs de recherche en ligne (VLOPs, VLOSEs).

Ainsi, le règlement prévoit des obligations spécifiques pour les plateformes (dont les places de marché en ligne) et des obligations supplémentaires pour les très grandes plateformes et moteurs de recherche en ligne (VLOPs et VLOSEs) qui sont identifiées sur la base d’un critère qui renvoie au premier critère établi par le DMA : elles doivent compter 45 millions d’utilisateurs actifs par mois dans l’UE.

À noter toutefois que le DSA ne remet pas en cause la responsabilité limitée de l’ensemble des fournisseurs de services intermédiaires (comme ce fut déjà le cas dans la directive e-commerce) vis-à-vis des contenus et produits illicites. 

Les très petites entreprises et les petites entreprises (moins de 50 salariés et de 10 millions de CA annuels), n’atteignant pas 45 millions d’utilisateurs seront exemptées de certaines obligations.

Son application est prévue en deux temps :

  • Depuis le 25 août 2023 pour les très grandes plateformes et les très grands moteurs de recherche, et 
  • À partir du 17 février 2024, pour les autres fournisseurs de services intermédiaires et plateformes (dont les places de marché en ligne).

Ce cadre étant posé, la mise en application du DMA (même si elle est complexe et déjà contestée par plusieurs contrôleurs d’accès) est très claire. Celle du DSA est évidemment plus délicate dans la mesure où elle concerne un plus grand nombre d’acteurs et impose des obligations qui sont différentes non seulement selon la position et l’influence sur le marché mais aussi selon les services rendus. 

Par ailleurs, l’absence ou le manque de précisions de certaines définitions dans le texte du DSA créent un flou juridique qui conduit à des difficultés quant à leur interprétation.

C’est le cas principalement avec ces trois dispositions :

1°L’obligation faite à toutes les entreprises fournissant des services en ligne aux Européens de désigner un point de contact unique si elles sont établies en Europe ou un représentant légal dans l’un des pays de l’UE, chargé de coopérer avec les autorités nationales en cas d’injonction, et de répondre à toute demande de retrait de contenu de la part de l’un des 27 Etats membres si elles sont établies hors de l’UE.

Analyse de l’Institut

Cette obligation a pour objectif de permettre à l’utilisateur de pouvoir identifier un interlocuteur au sein de la plateforme lorsqu’il voudra déposer une plainte et d’éviter ainsi de se retrouver confronté à des situations complexes et une multiplicité d’intervenants, mais aussi  de responsabiliser la plateforme qui devra répondre aux questions de l’internaute dans le cadre de ses démarches.

2° La mise à disposition des utilisateurs par les plateformes en ligne d’un outil simple et efficace leur permettant de signaler les contenus illicites (article 14).  Dès le signalement elles devront agir rapidement pour procéder à la suppression ou au blocage du contenu illégal. Lorsque le contenu est retiré, les plateformes devront communiquer à l’auteur concerné par le retrait, le motif ayant conduit à sa décision et les moyens de recours dont il dispose (article 15). 

Dans ce contexte, et afin de faciliter les procédures de dépôt de plaintes par les internautes victimes d’agissements illicites en ligne, l’article 22 du DSA prévoit l’intervention à leurs côtés, s’ils le souhaitent, de « signaleurs de confiance ». Les plateformes auront obligation de coopérer avec eux. 

 Ce mécanisme se fera via des organes ou des organisations indépendantes, reconnues pour leur expertise et leurs compétences selon les secteurs d’activité (protection de l’enfance, lutte contre le harcèlement en ligne, les contenus haineux, la contrefaçon etc) qui seront à même de détecter, d’identifier et de notifier des contenus illicites.  Elles doivent obtenir ce statut de « signaleur de confiance » auprès de leur Etat membre. 

Analyse de l’Institut

Cet outil mis à la disposition des utilisateurs devrait faciliter les démarches entreprises par les internautes puisque les signalements validés par ces « signaleurs de confiance » seront traités en priorité. La plateforme devra alors retirer ou bloquer le contenu rapidement.  Rien n’étant précisé, on imagine que le signalement devra se faire auprès du représentant légal de la plateforme ou du point de contact selon le cas.   Cependant, il aurait été judicieux d’accompagner cette fonction de « signaleur de confiance » d’une définition claire des conditions permettant d’accéder à son statut.

3° Par ailleurs, les plateformes doivent mettre en place un système interne de traitement des plaintes formulées par les internautes dont les contenus ont fait l’objet d’une décision de retrait (article 17).

En cas de violations graves et répétées du règlement, les plateformes pourront se voir interdire leurs activités sur le marché européen. De même les utilisateurs publiant fréquemment des contenus manifestement illicites pourront eux aussi être suspendus temporairement et dans un souci d’équilibre du règlement, les plateformes auront obligation de suspendre les comptes des utilisateurs faisant un usage abusif et répété de notifications ou de plaintes infondées (article 20).

Analyse de l’Institut.

Si les hébergeurs et les plateformes sont incités dans le DSA à « agir rapidement » après la notification du contenu illicite, il est important de préciser qu’aucun délai n’est imposé pour l’examen et le retrait des contenus notifié dans le texte. Ce qui affaiblit l’efficacité du règlement.

4° Le statut de « coordinateur pour les services numériques » dans le DSA (article 41) prévoit que chaque État membre devra nommer une entité en mesure d’enquêter, de saisir la justice en cas d’irrégularité et de sanctionner directement les entreprises dans certains cas, notamment en imposant des amendes dont le montant peut représenter jusqu’à 6% du chiffre d’affaires mondial de la plateforme, une astreinte ou en demandant à l’autorité judiciaire de leur Etat d’y procéder. Ces « coordinateurs » siégeront dans un « Comité européen » chargé de mener des enquêtes conjointes, lorsque les délits seront constatés dans plusieurs Etats membres. 

Les Etats conservent donc un pouvoir de surveillance des petites et moyennes plateformes, mais au sens du DMA, la Commission européenne détiendra de son côté le pouvoir de superviser et de sanctionner les très grandes plateformes.

La France a choisi l’ARCOM pour assurer les fonctions de « coordinateur pour les services numériques ».

Analyse de l’Institut

Il faut tout de même se méfier :  cette nouvelle responsabilité de surveillance des très grandes plateformes et des très grands moteurs de recherche par la Commission dans le DSA, financée par les plateformes elles-mêmes,  qui lui verseront des « frais de supervision » en fonction de la taille de leur service et à hauteur de 0.05% maximum de leur revenu net annuel ne crée pas un conflit d’intérêt.

Conclusion

Outre la complexité de l’articulation de ces différents organes entre eux, certaines voies s’élèvent pour regretter le manque de transparence sur les conditions notamment d’obtention du statut de « signaleurs de confiance ». Elles avancent un risque d’impartialité qui pourrait se manifester chez certains d’entre eux à l’égard de contenus qu’ils considéreraient comme « illicites » parce qu’  exprimant des opinions ou donnant des informations contraires à leurs visions et encourageant ou en orientant des recours qui exposeraient les auteurs de ces contenus à des tracasseries qui pourraient potentiellement constituer des entraves à la liberté d’expression, selon elles.

Mais le DSA, comme nous l’avons précisé plus haut a parfaitement intégré ce risque de notre point de vue et mis en place des garde-fous suffisamment efficaces pour décourager des utilisateurs malveillants.

Si on ne peut pas évacuer complètement la possibilité de se trouver face à de telles situations qui seraient à bien des égards dommageables, l’Institut considère qu’il faut choisir ses combats, en gardant présent à l’esprit les effets pervers dont ce texte nous protège en matière de liberté d’expression. Il tient compte des limites assurant le respect des valeurs fondamentales et la protection des droits de tous les citoyens contre des contenus ou des discours qui pourraient leur causer toute forme de préjudice.

l’Institut rappelle d’ailleurs,  dans cet environnement,  la grave décision prise par Elon Musk de faire de X (ex Twitter) un lieu où la liberté d’expression serait absolue. C’est totalement irresponsable. Cela laisse la porte ouverte à tous les abus que des utilisateurs mal intentionnés peuvent tirer de ce parti pris, et la difficulté que nous aurons sans doute, malgré toutes les précautions prises dans le DSA à leur opposer les dispositions du règlement.

Jean-Marie Cavada

Jean-Marie Cavada,
Président de l’iDFRights

Colette Bouckaert

Colette Bouckaert,
Secrétaire Générale de l’iDFrights

Retrouvez plus d'articles sur : DMA | DSA

Suivez-nous

Sur Linkedin

Plus d’articles