Veille UE « Digital & ICC » du 30 janvier au 6 février 2025
7 février 2025

INTELLIGENCE ARTIFICIELLE 

  • AI Act : Les premières règles entrent en vigueur et s’accompagnent des « lignes directrices » sur les pratiques interdites

Pour rappel : Les premières règles de l’AI Act portent sur la définition des systèmes d’IA, l’éducation à l’IA et une liste limitée d’usages interdits présentant des « risques inacceptables ». Les lignes directrices publiée par la Commission sont non contraignantes mais liées à l’article 5 du règlement, qui définit les pratiques interdites en matière d’IA en raison des risques inacceptables entrées en vigueur le 2 février. Elles visent à clarifier les « pratiques interdites » pour les entreprises ne possédant pas d’expertise juridique. 

Depuis le dimanche 2 février, les premières dispositions du règlement sur l’intelligence artificielle (AI Act) sont entrées en vigueur dans l’UE. Le mardi 4 février, la Commission européenne a publié un document de lignes directrices sur les pratiques interdites en matière d’IA. Ces recommandations précisent quatre grandes catégories d’interdictions : 

  • Les techniques manipulatrices ou trompeuses influençant les décisions des individus sans qu’ils en aient conscience, pouvant entraîner des préjudices importants. 
  • L’utilisation de l’IA pour le « scoring social », comme l’exploitation de données non pertinentes pour établir des profils ou prévoir la criminalité d’un individu. 
  • L’utilisation de vidéosurveillance pour créer des bases de données de reconnaissance faciale ou surveiller l’état psychologique des employés, ou encore pour des contrôles d’ordre public. 
  • L’utilisation de données biométriques pour catégoriser les individus sur des critères politiques ou sexuels. 

La Commission doit encore approuver officiellement les lignes directrices sur les pratiques interdites en IA, tout en se réservant le droit de les modifier. Elle a aussi annoncé le lancement d’un « AI Act Service Desk » d’ici l’été 2025 pour aider les entreprises à se conformer au règlement. La définition des systèmes d’IA, essentielle pour appliquer ces règles, reste en attente. 

  • Prochaine étape :  

2 août 2025 : Entrée en vigueur des chapitres sur la gouvernance, l’exécution et les sanctions et date limite pour Les Etats membres pour désigner l’autorité nationale de surveillance du marché responsable des contrôles. 

 

  • La Commission européenne accorde le label STEP à OpenEuroLLM : un projet d’intelligence artificielle multilingue  

Pour rappel : « Technologies stratégiques pour l’Europe » (STEP)est une initiative de l’Union européenne visant à renforcer la compétitivité industrielle en soutenant des technologies stratégiques, telles que l’intelligence artificielle. Le label STEP est attribué aux projets qui démontrent un haut niveau d’innovation et un fort potentiel économique, tout en contribuant à réduire les dépendances stratégiques de l’UE. En recevant ce label, les projets peuvent accéder à des financements supplémentaires de l’UE et bénéficier d’une meilleure visibilité pour attirer des investissements.  

Le projet OpenEuroLLM, visant à développer des modèles linguistiques ouverts en intelligence artificielle  a obtenu le label ‘STEP’ de la Commission européenne le 3 février. Il s’agit du premier projet financé par le Programme pour une Europe numérique à recevoir ce label. OpenEuroLLM bénéficie d’un budget de 37,4 millions d’euros, dont 20,6 millions provenant de ce programme, et réunit des start-ups, des laboratoires de recherche et des centres de supercalculateurs européens pour entraîner ses modèles d’IA. 

 

  • Meta affirme ne pas vouloir signer le code des bonnes pratiques sur l’IA  

Pour rappel : Le Bureau européen de l’IA rédige le premier code de bonnes pratiques pour encadrer les fournisseurs de modèles d’IA à usage général. Son contenu s’appuiera sur un cadre fourni par le Bureau et les contributions de la consultation multipartite. Quatre groupes de travail réunissant diverses parties prenantes doivent finaliser le code d’ici le 2 mai 2025. 

Selon un article publié le 4 février par Bloomberg, Joel Kaplan, nouveau responsable des affaires internationales de Meta, a annoncé que l’entreprise ne signerait pas le code de bonnes pratiques en cours d’élaboration sous l’égide de la Commission européenne. Il juge ce cadre « irréalisable et infaisable », estimant qu’il imposerait des contraintes excessives aux modèles d’IA occidentaux en source ouverte. Kaplan a également affirmé que Meta tiendrait le gouvernement Trump informé des régulations auxquelles l’entreprise fait face à l’international. 

  • Prochaine étape :  

2 mai 2025 : publication de la première version du code de bonne pratique sur l’IA 

 

  • AI Liability Directive : Kai Zenner publie une consultation en ligne 

Pour rappel : Lors d’un premier échange sur la directive sur la responsabilité de l’IA, le 28 janvier, les eurodéputés de la commission IMCO ont exprimé de fortes divergences. Tandis que plusieurs élus, dont Kosma Złotowski (CRE) et Svenja Hahn (Renew), ont dénoncé un texte inutile et contraignant, les sociaux-démocrates et la gauche radicale ont plaidé pour un cadre juridique renforcé. La commission IMCO reste divisée, tandis que certains lobbys tech affichent déjà leur opposition. 

Kai Zenner, assistant parlementaire d’Axel Voss (PPE), a lancé une consultation sur LinkedIn, le 3 février, concernant la directive sur la responsabilité de l’IA. Une dizaine de questions interrogent les participants sur la nécessité d’un nouveau texte, en complément de la directive sur les produits défectueux, ainsi que sur les défis juridiques spécifiques posés par l’IA. L’objectif est de recueillir des avis sur la pertinence et la structure potentielle de cette nouvelle réglementation déjà controversée. 

  • Prochaine étape : 

17 mars 2025 : fin de la consultation 

 

  • Sommet de l’IA : précisions sur le programme  

Pour rappel : La France accueillera le Sommet pour l’Action sur l’IA, un événement mondial réunissant chefs d’État, dirigeants d’organisations internationales, entreprises, chercheurs, ONG et artistes. Ce sommet ambitionne de positionner la France et l’Europe comme acteurs clés d’une IA responsable et inclusive. 

Le Sommet pour l’action sur l’IA, prévu pour discuter des enjeux liés à l’intelligence artificielle, mettra en avant le premier rapport international sur la sécurité de l’IA, publié le 29 janvier. Ce rapport, rédigé par une centaine d’experts, inclut des représentants des Nations unies et de l’Union européenne, et sera présenté sous la présidence de Yoshua Bengio. Il fait le point sur les risques liés aux systèmes d’IA sans proposer de recommandations politiques. La question de la culture et du droit d’auteur sera abordée, bien qu’il n’y ait pas de décisions attendues sur ces sujets, jugés trop spécifiques à l’Europe et la France. Le Sommet mettra en lumière l’impact de l’IA sur la production culturelle. Un livrable est cependant prévu concernant la rémunération, avec la création d’une fondation sur l’IA par l’Élysée pour favoriser l’accès aux données open source et faciliter la recherche publique. Un outil de partage et de monétisation des données des médias sera ainsi envisagé. Les détails du programme ont récemment été mis en ligne.  

  • Prochaine étape : 

10 février : ouverture du Sommet de l’IA

 

  • Création d’Inesia : un institut public français de surveillance de l’intelligence artificielle

Pour rappel : La France s’était engagée, le 21 mai, aux côtés de l’Australie, du Canada, de l’UE, de l’Allemagne, de l’Italie, du Japon, de la Corée du Sud, de Singapour, du Royaume-Uni et des États-Unis, à la création de cet institut scientifique national dédié à l’IA dans le cadre de l’accord signé à Séoul en mai dernier pour une IA sûre, novatrice et inclusive.

Le gouvernement français a annoncé la création de l’Inesia (Institut national pour l’évaluation et la sécurité de l’intelligence artificielle), une structure publique dédiée à l’anticipation des risques liés à l’IA. Piloté par le SGDSN et la DGE, cet institut fédère plusieurs administrations existantes, telles que l’ANSSI, l’Inria, le LNE, et le PEReN. L’Inesia n’a pas de pouvoirs régulateurs mais se concentrera sur l’étude scientifique des impacts de l’IA, en particulier sur la sécurité. De son côté, l’Inesia doit encore établir comment il va interagir avec d’autres agences françaises, comme la CNIL, ainsi qu’avec des organisations internationales et la société civile, en collaborant par exemple avec des projets comme Confiance.ai. Actuellement, seuls neuf pays et l’UE sont membres de ce réseau. Selon une mise à jour du 4 février 2025, les détails de l’organisation pour appliquer l’AI Act en France seront bientôt finalisés. Bien que l’Inesia ne soit pas directement impliqué dans la régulation, il apportera son soutien aux régulateurs qui seront désignés pour cette tâche. De plus, L’EU AI Office est l’organisme qui est responsable de la mise en œuvre de l’AI Act (la législation européenne sur l’IA). Il représente l’Union européenne dans le réseau des AISI, qui est un réseau international d’instituts spécialisés dans l’IA.

 

  • Google revient sur sa promesse que ses IA ne serviront pas à développer des armes

Pour rappel : En 2018, Sundar Pichai, PDG de Google, a présenté une charte éthique de l’intelligence artificielle, fondée sur sept principes, visant à guider le développement et l’utilisation de l’IA. Cette initiative faisait suite à une pétition de salariés demandant l’arrêt de la participation de Google au programme militaire Project Maven du Pentagone. 

Google a mis à jour ses principes concernant le développement de l’intelligence artificielle, le 4 février, en supprimant des engagements cruciaux sur l’éthique, notamment l’abstention de développer des armes et des technologies de surveillance. Cette révision intervient dans un contexte où les obligations des entreprises en matière de sécurité de l’IA se sont réduites, suite à l’annulation par Donald Trump d’un décret de Joe Biden. Bien que Google affirme avoir pris en compte l’évolution des normes et des luttes géopolitiques, ce revirement soulève des questions sur la fiabilité des engagements volontaires des entreprises, notamment en matière de sécurité et de défense. Le changement met en lumière la nécessité de régulations strictes comme l’IA Act pour prévenir des décisions unilatérales potentiellement dangereuses comme dans le cas de Google. 

 

DMA/DSA

  • Douze pays de l’UE exhortent la Commission européenne d’accélérer les enquêtes sur l’ingérence électorale via les réseaux sociaux 

Pour rappel : Dans le cadre de l’organisation des éléctions législatives allemandes, un stress test a été mené vendredi avec la Commission européenne, des plateformes en ligne (Google, LinkedIn, Microsoft, Meta, Snapchat, TikTok, X), les autorités allemandes et des organisations de la société civile. L’objectif était de simuler des scénarios pour identifier les risques pouvant affecter les élections, notamment ceux menaçant le discours civique et l’intégrité des processus électoraux. 

Douze pays membres ont envoyé une lettre à la Commission européenne, le 31 janvier, demandant des mesures contre l’ingérence de pays tiers dans les élections, notamment en accélérant les enquêtes sous la législation sur les services numériques (DSA). Parmi les signataires figurent la France et l’Allemagne. Les pays appellent la Commission à renforcer ses moyens d’action, notamment à travers un « bouclier pour la démocratie » et des sanctions individuelles. Cependant, la Commission a indiqué que les enquêtes se poursuivront à leur rythme et des mesures seront prises en temps voulu. 

 

  • L’Allemagne refuse d’activer le mécanisme de crise du DSA avant les élections 

Pour rappel : Le 29 janvier, la commission numérique du Bundestag a invité X, Meta et TikTok à une audition sur la mise en œuvre du DSA avant les élections fédérales, mais ces entreprises ont décliné pour des raisons de calendrier. Une table-ronde avec plusieurs plateformes et la Commission européenne s’était déjà tenue le 24 janvier à Berlin pour évaluer leur préparation face aux risques de manipulation. Un test de mise en situation a également été mené pour mesurer l’efficacité de leurs systèmes de réponse. 

L’Allemagne a décidé de ne pas activer le mécanisme de crise du Digital Services Act (DSA) avant les élections législatives du 23 février. La Bundesnetzagentur (BNetzA) a estimé qu’aucune menace sérieuse ne justifiait une telle mesure, soulignant qu’aucune situation de danger public n’avait été identifiée. Bien que des campagnes de désinformation étrangères aient été constatées, l’Allemagne préfère attendre une réponse de la Commission européenne, plutôt que d’agir seule. En outre, la commission numérique du Bundestag a exprimé sa frustration après le refus des grandes plateformes d’assister à une audition sur la mise en œuvre du DSA. 

 

  • La Commission européenne publie un appel à projets dans le cadre du code de conduite contre la haine en ligne 

Pour rappel : Le code de conduite contre la haine en ligne est le premier à avoir été rattaché au règlement sur les services numériques (DSA), le 20 janvier. Son respect devient donc opposable aux très grandes plateformes signataires dans leur lutte contre la diffusion de la haine en ligne, supervisée par la Commission. 

La Commission européenne a publié le 29 janvier un appel à projets pour la soutenir dans sa lutte contre la diffusion de contenus haineux en ligne, en particulier contre l’antisémitisme. « L’objectif est de renforcer la mise en œuvre du code de conduite révisé sur la lutte contre les discours haineux illégaux en ligne et de contribuer à s’attaquer aux causes profondes de la haine dans l’UE », indique l’appel. La Commission compte y consacrer 440 000 euros sur quatre ans.   

  • Prochaine étape : 

7 avril 2025 : fin de l’appel d’offres 

 

DONNÉES : 

  • Les autorités de régulation numérique irlandaise, belge et française s’attaquent à DeepSeek

Pour rappel : Fondée en 2023 par Liang Wenfeng, DeepSeek est une entreprise chinoise d’IA générative proposant des modèles similaires à ceux du marché, mais à un coût bien inférieur et en open source. Le 30 janvier, la CNIL italienne a demandé à l’entreprise de clarifier son traitement des données des utilisateurs italiens. Suite à cela, l’application a été retirée du marché en Italie et une enquête a été ouverte. 

Depuis la plainte de la CNIL italienne, trois autres grandes autorités nationales ont exprimé des préoccupations concernant le modèle de collecte de données de DeepSeek. L’Irlande a demandé des informations sur le traitement des données des utilisateurs irlandais, tandis que la Belgique a ouvert une enquête après une plainte. La France a également demandé des précisions sur le fonctionnement de l’application et sur le respect de la vie privée. La CNIL française analyse actuellement l’outil. Au niveau européen, la Commission suit de près les actions des États membres et rappelle que DeepSeek devra se conformer aux obligations du DSA dans un délai de 3 mois.  

 

CYBERSÉCURITÉ: 

  • Cybercriminalité : Eurojust et Europol publient leur rapport annuel 

Pour rappel : La coopération renforcée entre Eurojust et Europol s’est particulièrement illustrée lors d’une opération contre le logiciel rançonneur LockBit en février 2024. Cette opération a permis le démantèlement de 34 serveurs dans plusieurs pays, au sein et à l’extérieur de l’UE, et la saisie de plus de 200 comptes de cryptomonnaies utilisés par les cybercriminels. 

L’Unité de coopération judiciaire de l’Union européenne, Eurojust, et l’agence européenne de police criminelle, Europol, ont publié, vendredi 31 janvier, leur rapport annuel Common Challenges in Cybercrime, exposant un ensemble de problématiques relatives à la cybercriminalité. L’édition 2024 du rapport met en exergue les points suivants:  

  • L’importance de la coopération internationale pour lutter contre les crimes transfrontaliers, avec de nouveaux outils législatifs adoptés pour renforcer l’efficacité des mesures. 
  • Le volume croissant des données traitées dans les enquêtes, allant jusqu’aux téraoctets et pétaoctets qui ralentit considérablement le processus d’investigation. 
  • Le manque de personnel qualifié dans de nombreux services d’enquête, ainsi que les difficultés de recrutement et de formation qui entravent également l’efficacité des enquêtes. 
  • La nécessité d’une meilleure coopération avec les acteurs privés  
  • L’efficacité de des mesures européennes telles que le DSA et l’AI Act repose sur leur adoption et intégration rapide par les États membre et nécessite le renforcement des capacités techniques des forces de l’ordre ainsi que l’harmonisation des modèles de traitement de données.  

 

MÉDIAS ET DROITS D’AUTEUR

  • CSAM : la Présidence polonaise supprime les injonctions de détection obligatoires 

Pour rappel : Le 12 décembre, les ministres de l’Intérieur de l’UE n’ont pas validé le compromis de la présidence hongroise sur le règlement CSAM. Neuf pays, dont l’Allemagne et les Pays-Bas, ont maintenu leur blocage déjà formé le 6 décembre. Ils ont exprimé leur inquiétude face aux technologies de détection utilisées dans les communications privées et ont annoncé leur abstention. 

La Présidence polonaise de l’UE a présenté une nouvelle version du règlement CSAM, supprimant les injonctions de détection obligatoires pour les plateformes et messageries privées. Elle propose de rendre permanente la détection volontaire, actuellement autorisée par une dérogation à la directive e-privacy expirant en 2026. Le texte renforce la prévention et les mesures de protection des enfants en ligne, tout en demandant à la Commission d’évaluer, sous trois ans, les possibilités d’une détection obligatoire à l’avenir. Le 5 février, les experts des États membres ont discuté de ce compromis, donnant un mandat à la Présidence pour poursuivre les négociations. Toutefois, des divergences persistent entre les États favorables à la détection obligatoire et ceux, comme l’Allemagne et les Pays-Bas, qui dénoncent une atteinte aux droits fondamentaux. 

 

  • La Commission européenne lance un appel à proposition pour soutenir les journalistes et médias indépendants russes et biélorusses exilés

Pour rappel : En 2024, environ 1 500 journalistes indépendants russes et biélorusses ont déménagé au sein de l’UE. Le soutien aux médias libres, indépendants et pluralistes est une priorité intégrée au sein des réflexions sur le futur « Bouclier pour la démocratie », annoncé dans les lignes directrices politiques de la présidente von der Leyen pour la Commission 2024-2029. 

La Commission européenne a lancé un appel à propositions le 3 février pour soutenir les journalistes et médias indépendants exilés de Russie et de Biélorussie travaillant depuis l’UE. Avec un financement de près de 3 millions d’euros, cet appel vise à créer une plateforme paneuropéenne ou un réseau de hubs médiatiques pour favoriser un environnement médiatique pluraliste. L’objectif est de permettre aux journalistes exilés de continuer à produire et diffuser leurs contenus sans ingérence éditoriale. 

  • Prochaine étape :  

14 mars 2025 : fin de l’appel à proposition 

 

VIE INSTITUTIONNELLE UE

  • Nathalie Loiseau élue présidente de la commission spéciale du Parlement européen sur le Bouclier européen de la démocratie 

Pour rappel : Face à la montée des ingérences étrangères dans la démocratie européenne, le Parlement européen a créé en décembre une commission spéciale sur le « Bouclier européen de la démocratie ». Son rôle est d’analyser les textes actuels prévus contre ces interférences, notamment lors des élections, et de proposer des mesures pour mieux les contrer. 

Le 3 février, Nathalie Loiseau (Renew, France) a été élue présidente de la commission spéciale du Parlement européen sur le Bouclier européen de la démocratie, avec 25 voix sur 33. Son adversaire, António Tânger Corrêa (PfE, Portugal), a obtenu 8 voix. Nathalie Loiseau a déclaré que l’objectif de cette commission était de « protéger nos démocraties lorsqu’elles sont attaquées, quelle que soit l’origine des attaques. A l’est, à l’ouest, au sud, d’où qu’elles viennent ». Csaba Molnár (S&D, Hongrie) a été nommé premier vice-président, suivi de Sandra Kalniete (PPE, Lituanie), Stefano Cavadegna (CRE, Italie) et Vasile Dîncu (S&D, Roumanie). 

 

  • Sarah Knafo désignée rapporteure sur la souveraineté technologique européenne 

Pour rappel : Les eurodéputés de la commission ITRE préparent un rapport sur la souveraineté technologique européenne et les infrastructures numériques, visant à influencer une future proposition législative de la Commission. Inspiré des rapports Letta et Draghi, il analysera les dépendances technologiques de l’UE et proposera des recommandations sur la connectivité, l’IA et l’informatique quantique. L’objectif est de renforcer l’autonomie européenne par des mesures réglementaires et des investissements stratégiques. 

L’eurodéputée française Sarah Knafo (Reconquête!) a obtenu le poste de rapporteure sur la souveraineté technologique européenne, le 5 février, un choix inattendu compte tenu du poids marginal de son groupe politique. Son accession résulte du système d’attribution des rapports, après le retrait d’Alexandra Geese (Verts/ALE). La question de la coopération avec l’extrême droite divise le PPE, dont la position sera déterminante pour l’adoption du rapport. Des députés comme Axel Voss (PPE, Allemagne) ont exprimé leur opposition à toute collaboration avec Knafo. Certains redoutent un texte trop centré sur les intérêts français et influencé par les liens de Knafo avec l’administration Trump. En cas de désaccord, le PPE pourrait rédiger un rapport alternatif avec les socialistes, les libéraux et les Verts.

  • Prochaine étape : 

25 juin 2025 :  Sarah Knafo soumettra son rapport au vote de la commission parlementaire ITRE  

 

  • Programme de travail Commission européenne : publication d’une version préliminaire 

Une version préliminaire de la liste des initiatives du programme de travail de la Commission européenne pour 2025 a été publiée le 5 février. Ce document, qui constitue un projet d’annexe au programme de travail, recense les nouvelles initiatives pour l’année à venir, ainsi que les propositions en attente et les abrogations prévues. La version finale doit être adoptée par la Commission d’ici la fin de la semaine, avant d’être présentée par Ursula von der Leyen aux eurodéputés à Strasbourg. Parmi les initiatives figurant dans ce projet, plusieurs concernent le numérique et l’intelligence artificielle, avec notamment la révision et la simplification du Cybersecurity Act, la mise en place du Digital Networks Act, l’initiative AI Factories, ainsi que l’application de la stratégie européenne pour l’IA.  

  • Prochaine étape :

11 février 2025 : Présentation de la version finale devant les eurodéputés par la présidente Ursula von der Leyen à Strasbourg 

 

AGENDA DE LA SEMAINE PROCHAINE

Parlement européen :  Plénière du Parlement européen  

• Mardi 11 février (15:00) : Déclaration de la Commission – Programme de travail de la Commission pour 2025 

• Mercredi 12 février (12:00) : Commission ECON – TVA: les règles à l’ère du numérique 

• Mercredi 12 février (13:00) : Déclarations du Conseil et de la Commission – Boussole pour la compétitivité 

• Jeudi 13 février (9:00) : Déclaration de la Commission – Menaces pesant sur la souveraineté de l’Union en raison de dépendances stratégiques dans l’infrastructure de communication 

 

Conseil de l’UE :   

• Vendredi 7 février (10:00) :  Groupe de travail compétitivité (Marché intérieur) : présentation par la Commission et échange de vues sur la « boussole pour la compétitivité

• Lundi 10 février (10:00) :Groupe de travail sur la propriété intellectuelle 

• Lundi 10 février (14:30) : Groupe de travail sur la propriété intellectuelle 

• Jeudi 13 février (14:00) : Réunion du Comité de l’Espace européen de la recherche et de l’innovation 

 

Evénements :   

• Vendredi 7 février (10:00-23:00) : Paris – Réinventer l’IA : Une technologie au service de l’humain et de la planète. Infos. 

• Samedi 8 – Dimanche 9 février : Weekend culturel du Sommet pour l’action sur l’IA. Infos

• Lundi 10 – Mardi 11 février : Sommet pour l’action de l’IA. Programme officiel

• Lundi 10 – Mardi 11 février : cycle de conférences organisées en marge du Sommet. Liste des évènements 

Retrouvez plus d'articles sur : #intelligenceartificielle | #souveraineté | #UnionEuropéenne | DMA | DSA | europe | IA

Suivez-nous

Sur Linkedin

Les numéros précédents de notre veille UE  » digital & ICC »

Veille UE « Digital & ICC » du 13 au 20 février 2025

Veille UE « Digital & ICC » du 13 au 20 février 2025

Pour rappel : La Commission européenne a annoncé que L’AI Liability Directive (AILD) devrait être retirée du programme de travail de la Commission dans les prochains mois.
La suppression de l’AI Liability Directive suscite des tensions au sein de la commission IMCO du Parlement européen.

lire plus
Veille UE « Digital & ICC » du 6 au 13 février 2025

Veille UE « Digital & ICC » du 6 au 13 février 2025

Sommet de l’IA : Macron appelle à accélérer le développement de l’IA en Europe
Pour rappel : Le Sommet vise à promouvoir une IA de confiance, alignée sur les valeurs européennes et tournée vers l’intérêt général. Il met l’accent sur les opportunités technologiques, en contraste avec le Sommet de Londres 2023, centré sur les risques de l’IA.
Emmanuel Macron a appelé à une accélération du développement de l’IA en Europe lors du Sommet de l’IA, plaidant pour un marché domestique plus vaste et des procédures simplifiées

lire plus
Veille UE « Digital & ICC » du 23 au 30 janvier

Veille UE « Digital & ICC » du 23 au 30 janvier

AI Act: Brando Benifei critique le retard de la Commission européenne sur les lignes directrices
Pour rappel : L’application de l’AI Act s’étend de février 2025 à août 2027. Cependant, la Commission doit encore publier des lignes directrices pour aider les parties prenantes et les États membres à appliquer concrètement les dispositions de la législation.

lire plus