Le secteur de la culture et de la presse traverse une période charnière, marquée par l’émergence d’exigences nouvelles en matière de régulation, notamment avec l’instauration d’un code de conduite sur l’Intelligence artificielle (non contraignant) et de son cadre associé (obligatoire). Ces recommandations mises en place à partir du 2 août 2025, pensées pour des modèles d’IA à usage général (Google, Meta, Open AI, Mistral entre autres) visent à établir des normes spécifiques pour l’utilisation des contenus protégés par le droit d’auteur et le droit voisin dans l’environnement numérique. Il a pour objectif de garantir que les systèmes d’IA utilisés par les plateformes respectent des principes éthiques notamment en matière de transparence, de protection des données et de responsabilité. Un premier volet entré en vigueur en février 2025 concerne uniquement les usages d’IA dont les risques étaient identifiés comme « inacceptables » qui permettent notamment de manipuler l’opinion publique ou l’utiliser la reconnaissance faciale.
Un code de conduite facultatif, source d’incertitudes
Présenté comme un levier pour harmoniser les pratiques professionnelles, le code de bonnes pratiques visait initialement à instaurer un cadre flexible et structurant destiné à encourager des standards professionnels partagés. Il était censé offrir à tous les fournisseurs de modèles d’IA à usage général un moyen de démontrer le respect de leurs obligations au titre de l’article 53 du règlement sur l’IA. Cependant, dans la réalité, sa mise en œuvre s’avère beaucoup moins prometteuse. En effet chaque acteur, mû par ses propres objectifs — qu’ils soient économiques, stratégiques ou juridiques — cherchera à s’approprier les principes du code selon son propre prisme (Meta a même indiqué son intention de ne pas le signer).
De plus, les fournisseurs sont autorisés à signer les parties du texte qu’ils souhaitent, et donc pourraient ne pas signer la partie « copyright » comme l’a d’ailleurs indiqué X AI par exemple. Cette marge d’adaptation, si elle permet une certaine flexibilité, engendrera aussi des tensions palpables : la pluralité des interprétations ouvrant la porte à des malentendus et parfois à des frictions notables entre les différents groupes d’intérêts concernés.
La transparence, une promesse très partiellement tenue
Bien que la transparence soit présentée comme un principe fondamental du code de conduite, sa mise en œuvre demeure partielle. Le texte prévoit que les plateformes doivent rendre compte de leur utilisation de l’intelligence artificielle et de documenter le traitement des contenus protégés ; cependant, des zones d’ombre subsistent dans la pratique. Les mécanismes de « reporting », bien qu’existants, restent modulables par les acteurs concernés, qui peuvent en définir la portée selon leurs intérêts. Cette flexibilité, couplée à l’absence de sanctions claires, conduit à des pratiques disparates et à un niveau de transparence variable. Pour les ayants droit et créateurs, l’application du code sera donc plus théorique que pratique.
Template obligatoire du code de conduite IA : enjeux pour le secteur culturel et médiatique
Le « template » ou « résumé» obligatoire lié au code de conduite de l’IA est un cadre standard que les plateformes devront utiliser pour prouver leur conformité aux règles établies. Il a été publié le 24 juillet dernier. Il vise à uniformiser la présentation et l’analyse d’informations, surtout dans des secteurs sensibles.
Dans le cadre de l’IA, ce « résumé suffisamment détaillé » à l’attention des fournisseurs d’IA à usage général est conçu pour standardiser la transparence des pratiques.
En cas de litige entre ayants droit et acteurs technologiques, les parties seront dès lors invitées à privilégier des modes alternatifs de résolution des conflits, comme l’arbitrage ou la médiation, mis en place à l’échelle nationale. Alexandra Bensamoun (professeure à l’Université Paris-Saclay et spécialiste de la propriété intellectuelle et de droit du numérique), dans son rapport juridique remis au CSPLA, souligne l’importance de bâtir une infrastructure dédiée, agissant en qualité de « tiers de confiance » capable de faciliter la recherche d’ententes, tout en préservant les équilibres entre innovation et protection des droits. Cependant, cette orientation présente une limite structurelle majeure : la Commission européenne elle-même a précisé que le futur Bureau de l’IA, instance prévue par le règlement, ne serait pas compétent pour traiter les infractions relatives au droit d’auteur. Cette absence de prérogative laisse donc aux mécanismes nationaux le soin d’assurer la protection effective des créateurs, au risque d’accroître la disparité des solutions et de placer les parties prenantes face à des processus parfois longs et incertains.
Le « template » dont l’objectif est d’harmoniser comporte donc des limites préoccupantes : il ignore la diversité des œuvres et régimes juridiques nationaux, sa documentation floue nuit à la traçabilité, et l’absence d’outils fiables compromet la protection des ayants droit.
Il est pertinent de s’interroger sur l’équilibre de ce « template ». Sa structure rigide peut instaurer une concurrence déloyale et freiner l’innovation en limitant l’adaptation aux divers secteurs. Bien que son but soit la protection des ayants droit, il ne répond pas toujours à leurs besoins spécifiques.
Ce format excessivement normé réduit l’efficacité des pratiques et crée une tension entre liberté et contrainte, compliquant la recherche d’un accord satisfaisant pour tous.
Le code de conduite, qui devait améliorer la transparence et simplifier les échanges entre plateformes et ayants droit, a abouti à la mise en place de mécanismes insuffisants. Les procédures restent complexes, ce qui nuit aux relations entre créateurs, producteurs et diffuseurs, et limite l’efficacité des outils mis en place.
Conformité au droit européen : un objectif encore distant
Au cœur de la problématique se trouve la nécessité d’assurer le respect de la législation européenne en matière de droit d’auteur et de droits voisins.
Or, le code de conduite et son « template » ne garantissent pas, en l’état actuel, une conformité pleine et entière à ces exigences juridiques. Le caractère non contraignant du code, combiné à l’absence de mécanismes robustes de contrôle et de sanction, fait obstacle à l’atteinte de l’objectif principal : protéger efficacement les droits des ayants droit conformément aux standards européens.
Dans la mesure où ce texte pourra être interprété différemment selon la manière dont chaque État membre l’appliquera. Cette diversité d’approches pourrait entraîner des variations dans la protection et la régulation des pratiques relatives à l’IA et au droit d’auteur en Europe, ce qui pourrait avoir un impact sur la coopération entre les secteurs concernés.
L’IA Act a certes prévu la création d’un Bureau européen de l’IA (AI Office), chargé de superviser l’application du règlement. Cette nouvelle instance aura pour mission principale de garantir une mise en œuvre harmonisée des obligations relatives aux systèmes d’IA à usage général (GPAI) à travers les différents États membres. Le Bureau européen de l’IA sera ainsi un organe central de coordination, veillant à l’uniformité des pratiques et à la cohérence de l’encadrement réglementaire à l’échelle de l’Union. Cette volonté d’harmonisation risque toutefois d’être contrariée puisque la gestion du droit d’auteur continuera de relever des autorités nationales, ce qui pourrait même renforcer les disparités déjà présentes dans la mise en œuvre effective des réglementations.
Par ailleurs, chaque État membre devait désigner, au plus tard le 2 août, au moins une autorité compétente en charge de la supervision et de l’application du règlement. En France, c’est la CNIL (Commission nationale de l’informatique et des libertés) qui semble pressentie pour remplir ce rôle, en particulier en ce qui concerne les systèmes d’IA à haut risque ou ceux manipulant des données personnelles sensibles. Ce choix reflète la volonté d’assurer une vigilance accrue sur la protection des droits fondamentaux, tout en dotant le pays d’un organe expérimenté capable d’articuler exigences techniques et garanties éthiques dans la régulation des technologies émergentes. Il est essentiel de souligner que, malgré l’importance de son expertise, ce choix définitif quant à l’étendue de ses compétences ou à sa participation active dans les nouveaux dispositifs européens—qu’il s’agisse du futur Bureau européen de l’IA ou de mécanismes nationaux de contrôle—n’a pas encore été arrêté de façon officielle. Cette absence de décision formelle laisse planer une incertitude sur la place exacte que la CNIL occupera dans l’architecture de la gouvernance sectorielle.
Ce flottement institutionnel s’explique par la complexité des enjeux en présence : articulation entre le droit européen et les législations nationales, adaptation des missions des autorités selon les spécificités sectorielles (protection de la vie privée, gestion de la propriété intellectuelle, supervision des pratiques technologiques), et nécessité de maintenir l’équilibre entre innovation et préservation des droits fondamentaux.
L’absence de choix officiel quant à l’implication de la CNIL contribue à entretenir une zone d’incertitude pour les acteurs économiques, culturels et technologiques, qui peinent à anticiper le cadre opérationnel auquel ils devront se soumettre.
Il sera donc crucial, dans les mois à venir, de suivre l’évolution du positionnement de la CNIL et la clarification de ses missions dans ce nouveau contexte réglementaire, afin de garantir une protection effective des droits tout en favorisant l’innovation responsable.
Face aux dérives potentielles engendrées par la mise en œuvre trop permissive du code de conduite et son « template » associé, le secteur culturel et celui de la presse ne peuvent rester silencieux. Il est impératif qu’un meilleur équilibre soit rétabli entre le respect des droits de propriété intellectuelle, les règles d’équité que le code prétend garantir et la nécessité de protéger les ayants droit. L’encadrement du droit d’auteur et les droits voisins, tel qu’il est prévu actuellement dans ces textes, se révèle très insuffisant face aux possibilités d’exploitation offertes aux développeurs et aux plateformes. Cette latitude facilite une réutilisation parfois abusive de contenus existants, affaiblissant peu à peu les fondements économiques et juridiques de ces secteurs. Ce déséquilibre manifeste risque d’avoir de lourdes conséquences sur la vitalité et la pérennité de l’ensemble des professions des secteurs culturels et de la presse Les acteurs concernés ont déjà réagi pour dénoncer le manque d’ambition du code de conduite qui met en danger l’intégrité et l’équilibre de leur l’écosystème. En résumé, le code ne permet pas aux ayants droits notamment de :
- Faire valoir leurs droits en raison du manque de transparence
- De signer des accords de rémunération significatifs et éclairés avec les fournisseurs d’IA.
Soutien d’iDFrights à la coalition d’ayants droit et à la lettre ouverte adressée à la Présidente de l’Union européenne
Pour toutes les raisons détaillées dans l’analyse ci-dessus, iDFrights exprime son plein soutien et s’associe sans réserve à la mobilisation des auteurs, interprètes, éditeurs et agences de presse, producteurs et toutes les organisations détentrices de droits, tant européennes qu’internationales, face aux menaces qui pèsent actuellement sur la protection de la propriété intellectuelle dans le contexte de la régulation de l’intelligence artificielle
L’incertitude institutionnelle, la diversité d’interprétations nationales et le manque d’ambition du code de conduite pour l’IA accentuent le déséquilibre au détriment du secteur culturel et de la presse. Cette situation encourage la réutilisation abusive des contenus, menace l’économie des professions concernées et met en danger la création ainsi que la diversité culturelle en Europe, tout en favorisant les fournisseurs d’IA.
iDFrights soutient avec conviction la lettre ouverte que ce collectif a adressé fin juillet à Ursula Von der Leyen, appelant les institutions européennes à adopter rapidement un cadre réglementaire strict qui concilie innovation technologique et protection des droits des créateurs, interprètes, éditeurs, agences de presse et producteurs.
iDFrights engage l’ensemble des parties prenantes à poursuivre et à amplifier la mobilisation afin d’obtenir une régulation réellement protectrice des droits fondamentaux, de l’intégrité du secteur culturel et de la vitalité de la presse et des médias, face aux bouleversements engendrés par le développement rapide de l’intelligence artificielle.

Jean-Marie Cavada
Président IDFrights

Colette Bouckaert
Secrétaire générale iDFrights