Épisode 1 : Analyse de JP. Spitzer : Focus sur les articles 8 et 9 de la proposition de règlement sur le Digital Service Act
21 janvier 2021
Épisode 1 : Analyse de JP. Spitzer : Focus sur les articles 8 et 9 de la proposition de règlement sur le Digital Service Act

21 janvier 2021

Accueil I #Presse I Épisode 1 : Analyse de JP. Spitzer : Focus sur les articles 8 et 9 de la proposition de règlement sur le Digital Service Act

Le 6 janvier dernier le Capitole a été envahi par ceux que leur Président a appelé « The People » ou encore « The Patriots ». Cet acte inqualifiable a eu lieu après un discours du même Donald Trump, discours qu’il n’est pas abusif de qualifier de provocateur. Or, le Capitole jouxtait la roche tarpéienne à Rome, et Donald Trump y a été précipité par ceux-là mêmes qui étaient ses plus grands soutiens : les réseaux sociaux, et en premier lieu son préféré : Twitter !

Pour ce faire, Twitter, suivi par Facebook, s’est arrogé un droit exorbitant qui constitue un danger au moins aussi grand pour la démocratie que Donald Trump : celui de bannir un utilisateur d’un réseau en situation de quasi-monopole ou à tout le moins d’oligopole. C’est là un pouvoir colossal qui a déjà été dénoncé avec force par nombre de commentateurs, dont notre ami et membre de l’IDFRights, le professeur Henri Labayle.

Concomitamment la Commission a présenté ses 2 grands textes annoncés depuis plusieurs semaines pour encadrer ces grandes plateformes, communément désignées sous l’acronyme « GAFAM ». Celles-ci sont aujourd’hui protégées par leur statut d’hébergeur, ce qui pour dire les choses simplement, les exonère de toute responsabilité quant aux propos publiés sur leur support. Cela leur donne un avantage considérable sur toutes les autres publications journalistiques. Ainsi Mediapart auquel les juridictions successives françaises avaient ordonné de retirer de son site la publication d’un enregistrement jugé illicite, avait saisi la Cour Européenne des Droits de l’Homme (CEDH) à Strasbourg et le 14 janvier dernier, les juges de la CEDH ont estimé que c’est à bon droit que la justice française avait interdit la publication de l’enregistrement rappelant « que malgré le rôle essentiel qui revient aux médias dans une société démocratique, les journalistes ne sauraient en principe être déliés de leur devoir de respecter les lois pénales de droit commun au motif que l’article 10 de la Convention des droits de l’Homme ne garantit pas une liberté d’expression sans aucune restriction ». Une telle mésaventure ne peut pas arriver à Twitter, Google ou autres. Ceux-là ne sont pas éditeurs et en tant qu’hébergeurs, ils n’ont qu’une obligation de moyens ; et ce, bien qu’ils se soient érigés en « Gatekeepers » (contrôleurs d’accès). Ce sont là des « gardiens » proches des videurs des boites de nuit : le seul contrôle effectué à l’entrée ne répond qu’à leurs propres règles, c’est-à-dire le fait du prince. De ce point de vue, l’initiative de la Commission est bienvenue. Reste à voir si elle atteint les objectifs de protection du citoyen annoncés.

 

En fait la Commission a édicté deux textes. Cependant le DMA (Digital Market Act) qui comporte des mesures destinées au respect du droit de la concurrence -certes très importantes pour la défense du consommateur- ne concerne pas directement la problématique de la protection des citoyens face à la publication de propos illicites. C’est l’autre texte appelé DSA Digital Service Act), qui mérite toute notre attention.
En premier lieu il convient d’insister sur le fait qu’il s’agit d’une proposition de Règlement, c’est- à dire d’un texte directement applicable dans les 27 Etats membres, dès lors qu’il aura été adopté par le Parlement européen et le Conseil.
En second lieu ce texte très long distingue trois niveaux de responsabilité. Seul le troisième concerne les très grandes plateformes, autrement dit les « GAFAM ». Il n’est cependant pas anodin que, dès le deuxième niveau qui concerne le stockage dans le Cloud, il est mentionné que ces « stockeurs » disposent de leur propre police !…

Pour le troisième niveau -les «GAFAM»- la Commission prévoit l’obligation de ménager un accès à des mécanismes de résolution des litiges, un système de traitement des plaintes, le règlement de celles-ci par voie extrajudiciaire, ainsi qu’une obligation de suspendre les comptes des clients à contenu manifestement illégal. Cependant l’exonération de responsabilité est maintenue !!
Néanmoins, la Commission a créé des sortes d’«épée de Damoclès »,à la fois par la possibilité d’infliger des sanctions -avec des amendes pouvant atteindre 6% du chiffre d’affaires national- et surtout par la possibilité de suspendre la plateforme si elle reste inactive face à des contenus manifestement illégaux. Une première réflexion conduit à saluer les avancées de ce texte, surtout par rapport à celui qu’il vient «remplacer» : la Directive «e-commerce numérique » de 2000. Cela, c’est pour le verre à moitié plein. Cependant, en le considérant à moitié vide, les critiques ne manquent pas !

D’aucuns s’émeuvent du fait que les propos illicites, ou manifestement illicites, ne sont pas définis et seraient ainsi laissés à l’appréciation des Etats membres, ce qui engendrerait des différences d’application et donc des traitements différents de ces « GAFAM », selon les législations nationales. Pour ce qui me concerne, je ne partage pas leur émotion.
En effet, soulever cet argument -qui a l’apparence de la pertinence- fait fi de la nature du texte proposé. Répétons qu’il s’agit d’un Règlement, donc d’un ensemble de normes et mesures directement applicables dans toute l’Union. Autrement dit, les Etats membres ne peuvent pas toucher au texte. Son application et donc son interprétation n’appartiennent qu’aux juges. En premier lieu les juges nationaux. En second et dernier lieu à la Cour de Justice de l’Union qui siège à Luxembourg.

Celle-ci pourra ou devra (selon les circonstances) être saisie par les juridictions nationales pour tout problème d’interprétation du texte. Et elle est seule compétente pour connaitre des questions de validité qui pourraient être soulevées contre ce Règlement. Bref, elle seule assure l’application et l’interprétation de ce texte.
Nulle crainte à propos de distorsions potentielles d’appréciation de ce qui est illicite n’est dès lors fondée.

Reste un sujet qui peut receler des problèmes entre droit national et droit de l’Union : les Règlements, s’ils sont adoptés entreront en application en 2023. Or, nombre d’Etats membres, à l’instar de la France vont adopter, sans attendre des mesures nationales. Certes, la France prévoit dans son projet, que les mesures cesseront d’être appliquées dès que les Règlements de l’Union entreront en vigueur. Néanmoins on ne peut exclure des télescopages constitutifs de risque d’insécurité juridique. Ce risque semble bien supérieur à celui d’une absence de définition de la licéité. D’autant que celle-ci n’est pas inconnue dans le droit de l’Union, de la Charte des droits fondamentaux à la jurisprudence de la Cour, en passant par de nombreux textes -Règlements et Directives-. Donc nul besoin de se lancer dans une définition de ce qui serait illicite dans ce Règlement. Surtout qu’une telle définition -qui pourrait être justifiable au nom de la loi sectorielle- pourrait présenter plus d’inconvénients, en premier lieu politiques, que d’avantages.

D’autres eussent aimé y trouver une forme d’obligation souvent résumée par la formule (en anglais) : « notice and take down » (notifier et retirer). Bien sûr, nous serions tous d’accord pour l’instauration d’une telle obligation qui viendrait rejoindre les plus nobles idées, mais cela serait constitutif de censure ! Il faut donc exclure une telle possibilité « quoi qu’il en coute»…C’est d’ailleurs ce qui s’est passé pour Trump le 6 janvier et qui a été -à juste titre – critiqué par la grande majorité des commentateurs. Puis il y a la position des plateformes, plutôt séduisante en droit.
Selon elles, les clients lors de l’ouverture de leurs comptes, prennent connaissance du contrat qui leur est soumis et, en le signant en acceptent les termes. Dès lors, en concluent-elles, l’hébergeur en supprimant un compte, ne fait qu’appliquer le contrat…
Mais ce raisonnement pèche gravement, car on est plus proche du sophisme que d’un raisonnement juridique. En effet, le contrat, mis en avant par les hébergeurs est un contrat d’adhésion. C’est-à-dire, un texte par lequel, l’hébergeur impose au client ses règles. Ainsi, la décision de suspension, ou de suppression d’un compte constitue un acte par lequel l’hébergeur s’érige en juge et n’applique que son droit, dont il est à craindre qu’il n’exprime pas l’intérêt général, mais le sien !

En matière contractuelle, et surtout en ce qui concerne les contrats d’adhésion, le client doit pouvoir contester les décisions qui lui sont imposées devant un juge, ou à tout le moins devant une autorité indépendante. C’est ce qu’il faut imposer. Et à cet égard, la proposition de la Commission, certes critiquable, va dans le bon sens, mais à tous petits pas…
Malgré cela, la Commission, suivie par les Etats-membres et certains groupes au Parlement européen, semble-t-il, continue à promouvoir cette clause du « bon samaritain ». Ils oublient que ce « samaritain » ne partage pas son bien, mais impose sa loi. En clair, il n’est « samaritain » que pour les autorités publiques, qui se défaussent ainsi de leur devoir de contrôle sur ceux-là même qu’elles devraient contrôler.

Le recours à un tiers indépendant a également fait l’objet de critiques, plus fondées en apparence. Pour certains, un tel contrôle serait tout simplement impossible au motif notamment de l’énorme volume de messages, susceptible d’engendrer un contentieux de masse ingérable. Cet argument n’est pas recevable : c’est comme si l’on refusait de soumettre les conflits liés aux décisions des assureurs à un juge.
En fait au bout de quelques litiges traités par un organe indépendant, une jurisprudence s’établira et une décision « juridictionnelle » permettra de mettre fin à un grand nombre de litiges. La solution prônée par les opposants au contrôle juridictionnel vise à instaurer la suppression de l’anonymat. Outre qu’une telle mesure est contraire au RGPD, elle recèle des effets pervers graves, notamment pour les propos de citoyens minoritaires, ou opposants à un régime, surtout si celui-ci est dictatorial, voire totalitaire….
En conclusion, les propositions de la Commission vont indiscutablement dans le bon sens. La question cruciale de la lutte contre les contenus illicites -qui combine le principe du « bon samaritain » avec un embryon de contrôle extrajudiciaire- constitue une étape. N’oublions pas que l’Union se crée en marchant. A n’en pas douter, d’autres pas suivront.

En revanche, il convient de ne pas perdre de vue que ces « bons samaritains » appliqueront toujours leurs critères, au mieux ceux d’une opinion dominante. Et comme ces « GAFAM » sont de culture business et américaine, ce ne seront sans doute pas les critères que nous eussions aimé voir appliquer, qui le seront. Clairement, ce chantier reste ouvert. D’autant que l’Union représente pour les « GAFAM » le premier marché à la fois par sa richesse et par le degré élevé d’éducation de sa population. C’est ce marché qu’il nous appartient de défendre et c’est aux » GAFAM » auxquels il faut maintenir les libertés d’entreprendre, de commercer, qu’il incombe de respecter et appliquer notre Etat de droit au sein de l’Europe.

Si cela devait s’avérer impossible, il faudra alors que notre Union s’oriente vers ce que Michel Derdevet a déjà appelé de ses vœux : « la recherche d’une autonomie numérique dans le cadre de l’autonomie stratégique ».

Jean-Pierre Spitzer

Président M. Jean-Pierre Spitzer, Avocat à la Cour, Ancien referendaire à la CJUE, Directeur scientifique de l’Union des Avocats Européens ( UAE ), Conseiller juridique du MEF.Spécialisé dans la protection des données personnelles, il intervient comme Data Protection Officer (« DPO ») auprès de nombreuses sociétés et associations françaises et étrangères.
Il forme étudiants, créateurs d’entreprises et administrations afin de les sensibiliser aux problématiques du droit d’auteur, de la propriété industrielle et de la protection des données dans la société de l’information et l’impact des nouvelles technologies et de l’IA dans ces domaines.

Retrouvez plus d'articles sur :

Suivez-nous

Sur Linkedin

Plus d’articles