En qualité d’organisation dédiée à la défense des droits fondamentaux dans le contexte de l’innovation technologique, l’Institut des Droits fondamentaux du numérique (iDFrights) reconnait l’importance cruciale de définir des cadres réglementaires équilibrés et robustes pour les modèles d’intelligence artificielle (IA).
La définition précise du concept de GPAI est essentielle pour déterminer les entités devant se conformer aux exigences de l’AI Act. À cet égard, nous avons souligné plusieurs points importants qui devraient être pris en compte dans l’élaboration de ces lignes directrices.
Critères de désignation
Beaucoup d’acteurs devront évaluer la nature générale de leurs modèles pour savoir s’ils doivent se conformer aux obligations des fournisseurs de GPAI. Le choix d’un indicateur pragmatique est donc essentiel pour limiter la charge administrative, notamment pour les petites structures.
L’utilisation de la puissance de calcul comme métrique pour évaluer la généralité et les capacités d’un modèle d’IA est remise en question. Il faut rappeler que :
- La taille du calcul d’entraînement ne garantit pas forcément des performances élevées.
- Un modèle entraîné sur un vaste ensemble de données de faible qualité sera moins efficace qu’un modèle entraîné sur un volume plus restreint mais pertinent.
- Deux modèles avec des calculs similaires peuvent présenter des performances radicalement différentes en fonction de leur architecture.
L’Institut recommande donc de mieux refléter la taille, la performance et la position centrale de ces modèles dans la chaîne de valeur de l’IA, il est recommandé de considérer d’autres critères complémentaires.
Nous avons développé notre position concernant le seuil de 10^22 FLOP que nous ne jugeons pas pertinent pour présumer qu’un modèle est un GPAI.
Nous recommandons de :
- Favoriser la transparence et la traçabilité pour assurer un cadre réglementaire adapté.
- Renforcer les mécanismes de contrôle afin de garantir la conformité aux régulations en vigueur.
- Réguler l’accès et l’usage des modèles afin de protéger les droits des utilisateurs et des créateurs de contenus.
- Établir des normes et des accords pour un usage responsable de l’IA.
Nous considérons que des modèles comme DeepSeek R1 et V3, qui ont un impact majeur sur le marché et sont open source devraient donc être pris en compte même si leurs indicateurs de FLOP exacts restent confidentiels.
Conséquences associées au seuil quantitatif de 10^22 FLOP
Si ce seuil est utilisé, il faudra identifier les modèles qui seront concernés par l’AI Act. Parmi eux, les grandes entreprises du secteur (Google, Meta, Microsoft, OpenAI) ont déjà dépassé ce seuil, avec une vingtaine de modèles formés à une échelle similaire.
Toutefois, il est souligné qu’une entreprise peut contourner la législation en licenciant un modèle performant mais nécessitant moins de calcul, ce qui complique la régulation. De plus, les coûts de calcul diminuent avec le temps, ce qui augmentera le nombre de modèles atteignant ce seuil.
Nécessité d’ajouter des critères complémentaires
L’approche du calcul ne permet pas d’identifier tous les modèles à usage général. Il est proposé de prendre en compte :
- L’accès à des ensembles de données uniques et massifs, qui peut conférer un avantage considérable à certains acteurs.
- L’innovation spécifique développée par des entreprises sous le seuil, qui peut pourtant avoir un impact significatif sur l’industrie.
- Les implications sur la propriété intellectuelle, notamment concernant les modèles entraînés avec des données protégées.
Différenciation entre nouveaux modèles et versions dérivées
L’AI Act doit clarifier les critères permettant de distinguer les nouvelles versions d’un modèle des dérivés ou des instances modifiées.
Les suggestions incluent :
- Des changements majeurs dans les sources de données d’entraînement, impactant la propriété intellectuelle et les risques liés aux données personnelles.
- Des risques accrus dans la génération de sorties, notamment les possibles infractions aux droits d’auteur.
- Des processus de fine-tuning impliquant des données sensibles, altérant le profil de risque du modèle.
- Un changement dans l’environnement de déploiement, exposant les utilisateurs à de nouveaux risques en matière de confidentialité et d’utilisation de contenu protégé.
L’idée principale est que les modèles dérivés, notamment ceux entraînés via du fine-tuning, doivent être considérés comme distincts si leurs modifications affectent leur autonomie par rapport au modèle originaL
Définition du fournisseur d’un modèle GPAI
L’AI Act doit clarifier qui est le fournisseur d’un modèle GPAI. Certains cas sont ambigus, comme :
- Les modèles développés en collaboration entre universités et entreprises.
- Les modèles open source modifiés et déployés par d’autres entités.
- Les modèles intégrés dans des systèmes plus vastes, utilisés sans être directement accessibles.
- Les modèles développés sous contrat pour une entreprise cliente.
- Les modèles mis à jour fréquemment, dont la nature évolue avec le temps.
Responsabilités des fournisseurs en aval
Les modificateurs doivent évaluer s’ils doivent se conformer aux obligations des fournisseurs de GPAI. L’AI Act propose d’utiliser une métrique basée sur les ressources de calcul pour déterminer si un modificateur devient un fournisseur.
Cependant, le calcul d’entraînement ne reflète pas nécessairement l’impact réel d’une modification, notamment pour les modèles spécialisés (ex. : fine-tuning médical).
Il est suggéré de prendre en compte :
- La qualité et la taille des datasets.
- Les modifications fonctionnelles (ex. : spécialisation d’une tâche).
- Les optimisations de déploiement.
Open Source : Commercialisation et exemptions
Définition de la mise sur le marché :
L’AI Act doit clarifier quand un modèle est considéré comme commercialisé :
- Si un modèle est intégré dans une plateforme SaaS accessible aux utilisateurs.
- S’il est disponible via une application publique permettant son usage sans vente directe.
- S’il est open source mais largement utilisé dans l’industrie.
- S’il est intégré dans un produit (ex. : assistant vocal) sans être vendu séparément.
Monétisation des modèles open source
L’open source peut être monétisé de plusieurs façons :
- Accès premium, où des fonctionnalités avancées sont payantes.
- Plateformes financées par la publicité ou des partenariats stratégiques.
Cela soulève des questions sur la propriété intellectuelle, notamment concernant les modèles entraînés sur des données protégées.
Estimation des ressources informatiques utilisées
L’AI Act inclut des seuils basés sur les ressources informatiques pour classifier les GPAI. Cependant, les formules existantes doivent être affinées pour mieux s’adapter aux modèles hybrides et open source.
L’estimation du calcul peut être compliquée si :
- Le modèle utilise une architecture hybride.
- Le modèle est accessible via une API, empêchant un accès direct aux données de calcul.
- Le coût du cloud ou des ressources matérielles influence l’évaluation.
Conclusion
L’AI Act doit affiner les critères sur lesquels repose sa mise en œuvre pour mieux encadrer les modèles GPAI, en prenant en compte de :
- La propriété intellectuelle et la protection des données.
- L’impact des modèles sur l’écosystème de l’IA.
- Une approche nuancée des seuils de calcul.

Jean-Marie Cavada
Président iDFrights