Audition de M. Jean-Marie Cavada auprès de Mme Aude Bono-Vandorme (LaREM) et Mme Constance Le Grip (LR), nommées pour présenter un rapport d’information sur le Digital Services Act.
2 avril 2021
Audition de M. Jean-Marie Cavada auprès de Mme Aude Bono-Vandorme (LaREM) et Mme Constance Le Grip (LR), nommées pour présenter un rapport d’information sur le Digital Services Act.

2 avril 2021

Accueil I Audition de M. Jean-Marie Cavada auprès de Mme Aude Bono-Vandorme (LaREM) et Mme Constance Le Grip (LR), nommées pour présenter un rapport d’information sur le Digital Services Act.

Mme Aude Bono-Vandorme (LaREM) et Mme Constance Le Grip (LR), membres de la commission des affaires européennes de l’Assemblée nationale, ont été nommées pour présenter un rapport d’information sur le Digital Services Act.

Elles s’attacheront à rechercher dans quelle mesure ce projet de règlement permettra d’assurer une meilleure régulation des contenus en ligne ainsi qu’à évaluer le niveau des garanties apportées aux utilisateurs des services numériques.

Afin de préparer au mieux l’audition, le questionnaire indicatif ci-dessous vous est transmis. Il vous sera demandé, dans la mesure de vos possibilités et dans les limites de votre fonction, des réponses écrites, dans un délai de deux semaines après l’audition, adressées par courriel à francois.marcelot@assemblee-nationale.fr.  Ces réponses écrites revêtent en effet une importance toute particulière, dans la mesure où elles permettront de nourrir le rapport, en plus des échanges oraux. Ce questionnaire fait appel à la fois à des éléments factuels et à des éléments relevant de votre appréciation personnelle.

Vous êtes libre, si vous le désirez, de produire une contribution personnelle, à envoyer selon les mêmes modalités. Le traitement qui sera fait de l’ensemble de ces réponses garantira bien entendu l’anonymat sur la source des réponses fournies aux rapporteures.

 

 

Questions

 

  • Questions d’ordre général

 

  1. Quel regard général portez-vous sur la proposition de règlement DSA de la Commission ?

Je ne peux que vous répondre ce que je dis à chaque fois que la question m’est posée depuis la parution de cette communication :  Il y a dans ce texte des avancées incontestables, indispensables dans le contexte qu’on connaît aujourd’hui, et essentielles pour commencer à encadrer le fonctionnement des plateformes, mais il ne va pas assez loin et n’aura donc malheureusement, sauf à être complété par le Parlement européen, l’impact dont nous avons besoin pour faire face aux défis du numérique qui s’annoncent.

 

  1. Identifiez-vous des lacunes dans la proposition de règlement de la Commission ? Quelles pistes d’évolution sont envisageables au cours des négociations ?

La première de ces lacunes et qui conditionne tout le texte, c’est que l Commission n’a pas fait de distinction entre le statut d’hébergeur et celui d’éditeur de contenus. C’est dangereux car les plateformes actives vont continuer à bénéficier d’un régime de responsabilité limité, et les quelques obligations auxquelles la Commission a souhaité quand même les soumettre, ne seront pas, et de loin, suffisantes.

C’est d’abord à cette question qu’il va falloir s’attacher dans les débats à venir. Les plateformes dont l’activité principale est de diffuser et optimiser les contenus, en tirent un bénéfice conséquent, font une communication au public, et à ce titre doivent être tenues pour responsables des contenus qu’elles diffusent. La Commission leur demande simplement pour continuer à exercer sous le statut d’hébergeur, de ne pas modifier l’information qu’elles diffusent. C’est vraiment insignifiant comme contrainte.

On retrouve cette volonté de limiter la responsabilité des plateformes dans le principe « du bon samaritain ». Cette disposition n’est pas du tout cohérente avec l’objectif de la Commission de lutter en amont contre les comportements abusifs des géants d’internet, puisque la « modération » des contenus sera confiée aux hébergeurs. C’est un non sens

 

  1. Quelle a été la réaction des différents acteurs à l’annonce du DSA, et en particulier des GAFAM que cette réglementation vise ? Quelles conséquences géopolitiques identifiez-vous ?

Je ne peux que donner mon impression, mais je suis quand même très étonné en lisant la presse spécialisée de ne pas y trouver de critiques acerbes (comme celles que nous avons connues au moment de la Directive « droit d’auteur »). Les GAFAM demandent certes des aménagements, mais globalement, je pense qu’ils respirent, un grand nombre de demandes qui leur sont imposées par le futur règlement, sont celles qu’ils sont en train, ou se disent prêts à mettre en œuvre.

 

  • Questions spécifiques
  1. Obligations des plateformes
  1. Le DSA a choisi une approche par obligations graduées, en fonction du statut de l’acteur concerné. Les très grandes plateformes, ont ainsi des obligations supplémentaires par rapport aux plateformes, qui ont-elles-mêmes des devoirs spécifiques par rapport aux attentes des hébergeurs. Cette approche par seuils vous paraît-elle pertinente ?

Pertinentes ? je n’en suis pas sûr, mais de mon point de vue, elles n’apportent pas de plus-value au texte et je crains que l’accumulation de certaines obligations accompagnées d’une énumération de mesures selon les cas, alourdisse le texte et rende complexe sa mise en œuvre.

Cela dit, la bonne nouvelle c’est que ces critères gradués et cumulatifs s’appliqueront à tous les fournisseurs de services intermédiaires qui mettent les consommateurs européens en contact avec des biens, des services ou des contenus, quel que soit leur lieu d’établissement ou de résidence dans l’UE et que cette obligation s’étend aux fournisseurs établis hors de l’Europe qui ont un nombre important d’utilisateurs européens ou qui ciblent des activités vers ou plusieurs Etats membres de l’UE. Ce qui veut dire que des actions pourront être menées à l’encontre de fournisseurs peu scrupuleux souvent installés hors de l’UE. Le pays de destination sera donc de droit même si l’on sait très bien que pour les utilisateurs professionnels ou particuliers, il restera difficile de démontrer l’existence d’un lien « substantiel » entre la plateforme et l’Union..

 

  1. La Commission a fait le choix de ne pas remettre en cause le régime de responsabilité limitée prévu par la directive 2000/31/CE du 8 juin 2000 dite « commerce électronique », qui continuerait de s’appliquer. Une évolution plus profonde pourrait-elle être défendue, menant par exemple à tenir pour responsable les fournisseurs de services intermédiaires en cas de circulation, stockage ou transmission d’un contenu illicite sur leur réseau ?

J’ai en partie répondu à cette question dans votre point 2 mais pour compléter mon propos, je souligne que la Commission n’a pas seulement fait le choix de ne pas remettre en cause le régime de responsabilité limitée des hébergeurs de la directive « Commerce électronique » mais sa position remet en cause la jurisprudence de la CJUE sur la responsabilité des intermédiaires passifs et actifs. Par ailleurs, et c’est très grave, dans l’article 14 de la directive « Commerce électronique » il est dit que « pour que leur responsabilité soit limitée, les plateformes ne doivent pas avoir connaissance d’un contenu illégal ». Dans l’article 6 du DSA , la Commission va plus loin puisqu’elle dit  « ce n’est pas parce qu’elles agissent volontairement et à leur initiative pour retirer des contenus, que les plateformes devront être considérées comme responsables » C’est donc l’inverse du raisonnement de la directive « e-commerce ». Cela vide de son sens toute la jurisprudence et c’est même un retour en arrière.

Il est donc indispensable de parvenir à décorréler le statut des plateformes de diffusion de contenus de celui d’hébergeur.

Il faut améliorer le texte et prévoir un statut de responsabilité renforcée pour les diffuseurs de contenus sur le modèle de celui de la presse avec les responsabilités éditoriales qui l’accompagne.

 

  1. Effectivité de l’application du règlement
  1. Le DSA ne modifie pas la définition des « contenus illicites », prévue par la directive 2000/31/CE sur le commerce électronique du 8 juin 2000. Cette notion continuera de relever des droits nationaux : existe-t-il des différences autour de la notion de « contenus illicites » entre les droits nationaux, et seraient-elles de nature à faire manquer au DSA son objectif ? Existe-t-il plus largement un risque que les acteurs du numériques eux-mêmes jouent un rôle dans la définition des contenus illicites ?

Cette question de la différence de la notion des « contenus illicites » entre les droits nationaux n’est pas nouvelle. Et cette différence d’interprétation au niveau européen existe sur bien d’autres termes, parce qu’ évidemment les législations des Etats membres ont toutes des particularités.  Est-ce que les plateformes tenteront de jouer sur ces interprétations ? et c’est une raison supplémentaire pour soutenir la référence au principe « du pays de destination » dans le texte. Elle garantira l’application du droit de l’Etat membre dans lequel l’infraction aura été constatée.

Il ne serait sans doute pas inutile de prévoir, une fois que le contenu ait été reconnu illicite, non seulement qu’il soit très rapidement bloqué mais  que des pénalités soient appliquées si le délai pour la mise en place effective du blocage prenait trop de temps.

En fait la Commission n’avait pas vraiment le choix. La contrefaçon, les contenus illicites ou le piratage, sont des délits pénaux, plus ou moins réprimés selon les Etats membres, et là était la difficulté d’imposer le droit européen.  De toute manière, en cas de litige, on ne fera pas l’économie de décisions de justice. Nous aurons donc des décisions nationales puis une extension des actions auprès de la Cour de Justice de l’Union européenne qui interprétera et fera appliquer le droit européen.

  1. Plus généralement, la clause « marché intérieur », qui prévoit que les services des prestataires de services en ligne sont soumis à la législation de l’État membre d’établissement, n’est pas non plus remise en cause. Quelle est la position de la France à ce sujet ? Quels sont les enjeux économiques autour de cette question ?

J’ai répondu à cette   question à votre point 4. Au cours de la dernière législature au Parlement européen, je défendais déjà cette position. Avec l’arrivée des plateformes, le principe du « pays d’origine » est devenu obsolète. Il est évident que ces géants du numérique doivent se conformer aux règles fiscales et économiques des pays dans lesquels elles exercent leur activité principale.  Les décisions de justice nationales et européennes n’ont pas suffi à réduire les infractions liées à la protection des données personnelles, aux produits contrefaits, au piratage et aux contenus illégaux qui continuent à prospérer sur les réseaux sociaux et les plateformes. Ces infractions pèsent très lourd économiquement. On voit bien que les sanctions financières très importantes et certes dissuasives ne suffisent pas.  La Commission tente donc dans sa proposition d’édicter des règles du fonctionnement du marché en ligne pour le rendre plus vertueux.  Cependant elle ne va pas assez loin.  Par exemple, un contenu peut très bien ne pas être illicite mais néanmoins être préjudiciable. Or la disposition ‘Know Your Customer » permettra aux plateformes de connaître l’identité de leurs clients commerçants, mais il n’est prévu aucune mesure protégeant les particuliers ou les professionnels contre les commerçants indélicats.

Il est aussi prévu que les plateformes puissent suspendre temporairement ou définitivement les comptes fournissant fréquemment des contenus « visiblement illicites »,  mais la  prévention contre un contenu illicite sera progressive et la condition pour une suspension définitive des utilisateurs qui fournirait des contenus illicites « fréquemment » n’a aucun sens. A partir du moment où il y a récidive dans la diffusion d’un contenu illicite, la sanction devrait tomber immédiatement. Il ne faut pas oublier que souvent les fournisseurs de contenus illégaux font reposer leurs activités sur des services fournis par d’autres services qui eux, sont légaux et qu’ils en tirent des bénéfices conséquents.

 Je ne connais pas précisément la position de la France, mais il me paraîtrait  normal qu’elle  soutienne quand même cet effort en faveur d’une  harmonisation européenne et propose de la parfaire pour la rendre plus  efficace.

 

  1. Sauf pour les très grandes plateformes pour lesquelles la Commission dispose de pouvoirs spécifiques, le DSA fait le choix de laisser aux autorités nationales le contrôle des obligations qu’il édicte, avec la nomination dans chaque État-membre d’un coordinateur des services numériques, disposant de pouvoirs d’enquête et de sanctions. Ces dispositions semblent-elles suffisantes pour garantir l’application effective du règlement ?

Le rôle du coordinateur sera essentiel. Il aura à assurer une gestion uniforme du règlement et de communiquer avec les coordinateurs des autres Etats Membres.  C’est la raison pour laquelle il faudra rester très vigilant quant à la définition de ses responsabilités.  Pourra t’il vraiment mener des enquêtes efficaces ? pourra ‘il appliquer des sanctions qui seront suivies d’effet ? rien n’est moins sûr. Qu’ils aient des ressources suffisantes et qu’ils soient indépendants, parfait, mais comment seront-ils nommés ? on voit bien que certains Etats membres se préparent déjà à détacher des structures d’organisations publiques afin qu’elles répondent  du moins en façade aux critères de sélection…  et puis les coordinateurs  seront chargés de labelliser « les signaleurs de confiance » et ce sera aussi important de voir les conditions à remplir pour devenir « signaleurs de confiance ».. Il faudra compléter cet article 38 dont on peut quand même louer l’existence.

 

  1. Les articles 54 à 57 du DSA prévoient la possibilité pour la Commission d’obtenir des « explications » de la part du prestataire sur les algorithmes qu’il utilise. L’article 57 indique ainsi que dans certaines hypothèses, la Commission peut ordonner d’accéder aux bases de données de la plateforme et à ses algorithmes. Est-il réaliste d’envisager que les grandes plateformes communiquent leurs données et leurs algorithmes, souvent protégés par le secret des affaires ?

La Commission espère ainsi avec cette mesure limiter l’influence des plateformes. L’usage des algorithmes d’ordonnancement montre la détermination des plateformes à hiérarchiser et à réaliser une sélection des contenus. Ces mesures de modérations automatiques sont basées sur leurs propres algorithmes.  C’est bien la preuve qu’elles savent tout à fait ce qui circule sur leurs sites, puisqu’elles en programment l’ordonnancement en fonction de ce qu’elles veulent obtenir de nos données.

 

L’ordonnancement de ces algorithmes est sensé faciliter le retrait des contenus illicites, mais selon leur politique interne, elles peuvent très bien retirer des contenus qui ne sont pas illégaux mais qui ne conviendrait pas à l’image qu’elles veulent développer.

Il est absolument certain que l’encadrement de la « modération » des contenus inquiète les plateformes et elles vont travailler à obtenir plus de souplesse dans la mise en place de la mesure. Que les plateformes disent que leurs algorithmes sont protégés par la Directive du secret des affaires pourquoi pas, qu’elles osent des actions en justice sur la base de ce texte, c’est moins sûr. En effet, les concernant on est davantage dans une situation d’abus d’évictions ou de maintiens excessifs sur leurs sites,  de non respect des droits fondamentaux, voire de recherche de stratégies de manipulations. Dans ces conditions, si des affaires de cet ordre devaient se retrouver devant les tribunaux, je ne suis pas certain qu’elles   auraient gain de cause.  En revanche, en créant un contentieux, elles prendraient le risque qu’un juge fasse très vite la distinction entre la protection du secret d’affaires et la volonté d’enfreindre les règles commerciales internationales par la mise en place de pratiques opaques et anticoncurrentielles.   

  1. Des législations nationales ont déjà été adoptées sur la régulation des contenus numériques par les contenus de services (loi Netz DG en Allemagne, projet de loi en Autriche). L’Assemblée nationale française a également adopté un amendement en France au projet de loi confortant les principes de la République qui anticipe l’adoption du DSA et introduit plusieurs obligations de moyens et de transparence sur la modération des contenus haineux. L’existence de ces différentes législations est-elle de nature à compliquer les négociations, puis l’application du DSA ?

Le DSA sera un règlement. Il sera donc d’application immédiate. Ce sera donc à la Cour de Justice de l’Union européenne d’interpréter et d’appliquer le droit européen. En présence de définitions trop précises, le législateur européen n’aurait d’autre solution de se conformer à ce qui est écrit dans le règlement, ce qui aurait pour conséquence de l’empêcher de rendre des décisions dans l’avenir en fonction de l’évolution des marchés au fur à mesure de l’avancée des connaissances. Il est donc plus prudent que le texte comporte des définitions générales.  Comme je l’ai expliqué à la fin du point 6, en cas de difficultés dans l’interprétation des  définitions ou des décisions prises dans Etats membres,  la CJUE tranchera et en toute logique,  il s’établira une jurisprudence européenne qui s’appliquera à tous les Etats membres. Les choses se réguleront donc d’elles-mêmes, il suffit que les Etats membres restent bien conscients de cela et soient raisonnables dans les dispositions qu’ils prendront. Mais cette question se pose à chaque fois que l’on travaille sur un texte européen. Il est naturel que les Etats membres fassent valoir leurs spécificités, la subsidiarité est un principe du droit européen et il est normal que les Etats membres l’appliquent au mieux de leurs intérêts.  

 

  1. Le DSA fait face à la critique, portée par plusieurs associations, de renvoyer la détermination et la définition du contenu illégal aux Etats membres, voire aux prestataires de services en ligne. Existe-t-il des différences entre les Etats-membres concernant la définition de ces contenus ? Quels sont les enjeux pour le secteur de la culture autour de cette question ?

 

             J’ai répondu à vos interrogations au point 10 de votre questionnaire sur   la question du contenu illégal. Concernant le secteur de la Culture, il est clairement indiqué dans la proposition de la Commission que la Directive « droit d’auteur » ne sera pas impactée par le texte et qu’elle continuera à s’appliquer pleinement. C’est une décision essentielle pour l’ensemble du secteur culturel.

Les organisations professionnelles attachées au secteur culturel sont cependant déçues de l’application d’un régime de responsabilité limitée pour les plateformes. Elles ont globalement des positions identiques à celles que nous avons formulées sur la gestion des contenus illicites par les « services intermédiaires » (expression utilisée dans le DSA en remplacement du terme « hébergeur » de la directive e-commerce) . Cette mesure, permettant comme nous l’avons préciser d’inciter à  ces « services intermédiaires » de lutter volontairement contre ces contenus illicites , mais le bémol est qu’elle leur permet d’échapper quand même  à leur responsabilité éventuelle, alors même qu’en prenant de telles mesures leur rôle n’est plus réellement neutre, automatique et technique. Par ailleurs, pour les industries créatives, même si le texte ne semble pas interdire la mise en place d’un système de « notice and stay down », il aurait été préférable de l’indiquer plus clairement et surtout de préciser que l’interdiction ne s’appliquerait qu’aux surveillances permanentes et systématiques des contenus sans identification. J’insiste encore sur le fait que le texte soit très complexe et je suppose que les organisations culturelles vont continuer à étudier avec précision la proposition et feront part de leurs positions dans les semaines à venir.

Il est toutefois utile de souligner qu’il est dommage que la proposition ne fasse pas référence à la « diversité culturelle » car il est évident que les plateformes ont un rôle capital à jouer dans sa préservation.

 

  1. Très récemment, la plateforme Twitter a été mise en cause par trois utilisateurs, victimes de cyber-harcèlement, pour n’avoir pas suffisamment coopéré avec les autorités judiciaires. La plateforme Twitter aurait ainsi refusé de communiquer à la justice les adresses IP des utilisateurs mis en cause, ce qui aurait provoqué le classement sans suite des plaintes pour cyber-harcèlement. Les plateformes sont pourtant d’ores et déjà tenues par la loi de coopérer avec les autorités judiciaires. Quel levier d’action identifiez-vous afin de renforcer l’effectivité de la législation et la coopération judiciaire avec les plateformes numériques ?

La problématique se situe d’une part sur le fait que les pratiques des plateformes sont basées sur une interprétation à l’américaine, c’est-à-dire libérale sur certains points et plus puritaine sur d’autres. Mais surtout il ne faut pas oublier que même si elles font partie de notre vie quotidienne et qu’on a tendance à les considérer comme faisant partie de l’espace public, elles relèvent juridiquement du droit privé des contrats et qu’elles peuvent donc décider de ce qu’elles souhaitent voir figurer ou pas sur leurs sites

D’autre part, dans la mesure où l’Union européenne n’a pas de compétence en matière pénale, ses interventions, quand elles sont possibles, se limitent à favoriser la coopération entre les Etats. Les limites du champ d’application du DSA se heurtent à cette situation.

 

 

Il faut donc que le droit national édicté soit extrêmement ferme et que les Etats membres renforcent leurs coopérations pour favoriser des positions harmonisées et très rigoureuses pour encourager la Cour de Justice de l’Union européenne à contraindre les plateformes à respecter les lois nationales et que les jurisprudences s’appliquent de manière implacables à chaque manquement.

 

  • Garanties offertes aux utilisateurs
  1. Le DSA conduit à renforcer les obligations de modération des prestataires de services en ligne, et donc à accroître leur contrôle a priori sur la liberté d’expression des utilisateurs.
  • Quel regard portez-vous sur cet équilibre trouvé par le DSA ?
  • Votre question fait écho à celle soulevée au point 9. La commission a bien compris la nécessité d’obtenir plus de transparence dans la « modération » des contenus. Je ne sais pas si cela aura une incidence sur la liberté d’expression des utilisateurs en général, mais toutes les obligations spécifiques pour prémunir l’utilisateur d’une forme de censure sont intéressantes et vont dans le bon sens, celui da préservation de nos libertés individuelles et démocratiques. Les fournisseurs vont devoir donner des informations précises sur leurs conditions générales concernant la restriction de services des contenus de leurs clients y compris des informations sur les outils et les politiques de « modération ». Ce n’est pas vraiment ce que j’appellerai un contrôle sur la liberté d’expression des utilisateurs, mais je dirai que si le règlement est bien appliquer il va avoir un impact sur la circulation des contenus illicites certes mais aussi celui les contenus terroristes, discriminatoires, pédopornographiques, contre les discours haineux, le partage illégal d’images privées sans consentement, sur le harcèlement en ligne, la vente de produits contrefaits et l’utilisation non autorisée des contenus protégés par le droit d’auteur. Il ne faudra surtout pas affaiblir le texte sur ces points essentiels car ces mesures bien appliquées vont donner aux utilisateurs un accès à un univers numérique plus sécurisé.

 

  • Ce rôle de contrôle de la liberté d’expression est traditionnellement dévolu aux juges. Quelles sont les garanties actuellement apportées aux utilisateurs ? Peuvent-elles être renforcées ? Pensez-vous que des recours spécifiques doivent être prévus pour permettre aux citoyens d’agir rapidement à l’encontre d’une décision de retrait des contenus décidée par une plateforme ?
  • Je pense que ces mesures vont permettre d’anticiper et de mieux contenir les sites dont l’activité principale est celle d’encourager les « fake news » De toute manière la question centrale et qui restera sensible sera de savoir si le droit à la liberté d’expression est plus fort que le droit au respect de la vie privée ? 
  • Une des garanties que l’on devrait envisager, à mon sens, pour renforcer la sécurité des utilisateurs, serait de s’inspirer d’un système qui marche et qui permet de concilier liberté, responsabilité, vie privée, celle de se doter d’un statut spécifique qui s’approcherait de celui de la presse avec les responsabilités éditoriales qui l’accompagne. Les plateformes résistent beaucoup à cette idée évidemment.
  • La disposition « Know your Customer » qui permettra aux plateformes de connaître l’identité de leurs clients commerçants par exemple aurait pu permettre aux citoyens d’agir rapidement contre une infraction sur une plateforme commerciale, mais elle ne va pas assez loin,  l’ identification permettra de repérer des auteurs d’infractions  et elle aurait pu avoir un effet bénéfique sur les ventes entre particuliers pour les bloquer,  mais elle ne résoudra rien puisque qu’aucune mesure les protégeant contre les commerçants indélicats n’est prévue.
  • Sur les mesures de recours, la Commission a plutôt bien fait son travail. Le texte impose l’existence d’un système de traitement des plaintes et réclamations contre les décisions relatives à des contenus illicites ou des violations des conditions générales d’utilisation. Cela pourrait encourager les recours et surtout permettre à l’utilisateur qui obtiendra gain de cause de réclamer en justice réparation de son préjudice.
  • Le rôle du « signaleur de confiance (art 19) pourrait jouer un rôle intéressant dans les procédures de recours, mais dans la mesure où ces derniers verront leurs notifications traitées en priorité, il faudra surveiller quelle expertise les coordinateurs, qui auront la charge de nommer ces « tiers de confiance », seront en droit d’exiger de ces derniers pour qu’ils puissent prétendre à ce statut. De plus pour être légitimes les « signaleurs » devraient pouvoir bénéficier de l’autorité requise pour bloquer un contenu notifié.

 

  1. En Allemagne, la loi Netz DG, entrée en vigueur en 2018, contraint les prestataires numériques à supprimer dans un délai de 24 heures après son signalement tout contenu manifestement illégal. Cette loi prévoit que les juridictions peuvent, a posteriori, statuer sur la décision prise par la plateforme. Dispose-t-on d’un retour d’expérience sur l’application de la loi allemande, qui met en place des dispositifs similaires à ceux prévus par le DSA, notamment du point de vue de la liberté d’expression ?

Il semble qu’il soit difficile de mesurer son efficacité. La France essaie d’emboîter le pas à l’Allemagne avec la Loi Avia. C’est le rôle des Etats membres de tenter de mettre en place des législations pour lutter contre la cyber-haine sous toutes ses formes et les contenus terroristes, cela permet de soutenir des positions communes et d’inciter la Commission à légiférer pour étendre et harmoniser des préceptes  essentiels dans nos démocratie à l’Europe.

  • Les sanctions
  1. Le DSA prévoit qu’en cas de non-respect du règlement, les États membres devront veiller à ce que les entreprises soient sanctionnées de façon effective, proportionnée et dissuasive. Ces sanctions ne devront pas dépasser 6% du chiffre d’affaires annuel de l’entreprise sanctionnée.

 Ce plafond est porté à 1% du chiffre d’affaires pour certaines infractions comme la fourniture d’informations incorrectes, incomplètes ou trompeuses, l’absence de réponse ou de rectification d’informations incorrectes, incomplètes ou trompeuses et l’absence de soumission à un contrôle sur place. Quel est votre position vis-à-vis de ces montants ? Les sanctions envisagées vous semblent-elles suffisamment dissuasives ?

 

Les décisions financières qui sont prises peuvent être dissuasives mais elles ne suffisent pas. Au regard des profits réalisés par les GAFAM ; Par ailleurs les décisions prises par les Instances nationales et européennes ces dernières années n’ont pas suffi à réduire les infractions liées à la protection des données personnelles, aux produits contrefaits, au piratage et aux contenus illégaux qui continuent de prospérer sur les réseaux sociaux et les plateformes. D’autre part, comme je l’ai déjà précisé le droit européen de la concurrence n’est pas structuré pour permettre de traiter certaines questions soulevées par l’économie du numérique.

Cette mesure est donc la bienvenue, car elle pourrait résoudre (du moins il faut l’espérer) les difficultés rencontrées jusqu’à maintenant pour faire appliquer des mesures coercitives efficaces à l’issue de très longues procédures. Associée aux autres dispositions concernant les contenus illicites, la nécessité d’exiger une « modération » des algorithmes, et celles concernant les procédures de recours, le DSA contient des avancées intéressantes et les réformes proposées étaient indispensables. Ce texte a une vraie volonté de remise en cause de la domination des plateformes, mais de là à imaginer que ces mesures suffiront à contraindre ces oligopoles, c’est moins sûr.

Benjamin MARTIN-TARDIVAT

Associé fondateur du Cabinet d’avocats WITETIC, Benjamin Martin-Tardivat accompagne les entreprises et les créateurs depuis plus de 20 ans dans la gestion de leur patrimoine immatériel que ce soit en matière de propriété intellectuelle (stratégies, audits, protections, valorisations, défense, …) ou en matière de compliance (mise en conformité RGPD).
Spécialisé dans la protection des données personnelles, il intervient comme Data Protection Officer (« DPO ») auprès de nombreuses sociétés et associations françaises et étrangères. Il forme étudiants, créateurs d’entreprises et administrations afin de les sensibiliser aux problématiques du droit d’auteur, de la propriété industrielle et de la protection des données dans la société de l’information et l’impact des nouvelles technologies et de l’IA dans ces domaines…

Thomas KIEFFER

Thomas KIEFFER, Président d’Europtimum Conseil, cabinet de conseil en affaires publiques européennes fondé en 2009. Ancien assistant parlementaire au Parlement européen (1999-2009). Membre du Conseil d’administration du Cercle des Délégués Permanents Français à Bruxelles. Intervenant dans des formations aux politiques européennes et aux financements européens, en entreprise et université.

Retrouvez plus d'articles sur :

Suivez-nous

Sur Linkedin

Plus d’articles

Que se cache-t-il derrière le projet « Villers-Cotterêts » ?

Que se cache-t-il derrière le projet « Villers-Cotterêts » ?

Le 22 mai dernier, le consortium ArGiMi remportait l’appel à projet « Communs numériques pour l’Intelligence artificielle (IA) générative » que Bpifrance avait publié en octobre 2023 dans le cadre de « France 2030 », le programme phare de soutien aux investissements des entreprises françaises visant à 1) Réindustrialiser la France, 2) Atteindre les objectifs climat 2030, et 3) Assurer l’émergence et la croissance des startups Deeptech françaises. Vaste programme pour lequel Bpifrance dispose de vastes moyens, puisque la banque publique d’investissement peut compter sur ses fonds propres, mobiliser ceux de l’État et doit s’attacher à permettre l’émergence de fonds privés thématiques, avec l’objectif d’injecter pas moins de 5 Md€ entre 2024 et 2028 dans des projets d’IA tous métiers confondus.

lire plus
Analyse de la faisabilité des programmes proposés par les 7 principales listes en vue de l’élection Européenne du 9 juin 2024 – Partie 1 : Les propositions sur le fonctionnement des institutions de l’UE

Analyse de la faisabilité des programmes proposés par les 7 principales listes en vue de l’élection Européenne du 9 juin 2024 – Partie 1 : Les propositions sur le fonctionnement des institutions de l’UE

iDFrights a réalisé une synthèse des programmes des différentes listes de candidats aux élections européennes, en se concentrant sur celles dont les estimations de votes dépassent les 5%, seuil nécessaire pour envoyer des eurodéputés à Bruxelles. Dans cette analyse nous nous sommes particulièrement attachés à deux chapitres clés de ces programmes : le fonctionnement des institutions européennes et les positions concernant les nouvelles technologies et les médias. Notre objectif était d’examiner les thèmes phares abordés par chaque liste dans ces domaines, afin de mieux comprendre leurs orientations et leurs priorités.

lire plus