Exigences jugées excessives : Meta tourne le dos au code de conduite de l’UE sur l’IA

Meta (Facebook) a décidé de ne pas signer le Code de Conduite volontaire mis en place par l'Union européenne Meta (Facebook) a décidé de ne pas signer le Code de Conduite volontaire mis en place par l'Union européenne

🔥 Les essentiels de cette actualité

  • Meta rejette le code de conduite européen sur l’IA, invoquant des incertitudes juridiques, défiant Bruxelles et ses régulations.
  • Le géant américain expose l’incapacité de l’UE à imposer ses règles, tandis que les PME européennes souffrent sous la bureaucratie.
  • Les implications du refus de Meta mettent en lumière un rapport de force déséquilibré avec les géants de la Silicon Valley.
  • La nouvelle loi européenne sur l’IA classe les technologies en quatre niveaux de risque, alourdissant la charge administrative des entreprises.

Meta refuse de signer le code de conduite européen sur l’IA, une nouvelle gifle de la tech américaine à Bruxelles.

Joel Kaplan, le patron des affaires mondiales de Meta, a envoyé balader l’UE vendredi en refusant catégoriquement de signer leur fameux « code volontaire » sur l’IA générative, invoquant des incertitudes juridiques et des exigences dépassant l’AI Act, effectif dès le 2 août 2025.

Le nouveau responsable de la politique mondiale de Meta

Meta rejette les directives européennes sur l’IA

Dans un post LinkedIn, Joel Kaplan a annoncé que Meta ne signera pas le Code de Pratique pour l’IA à Usage Général (GPAI), publié le 10 juillet 2025 après plusieurs reports, qui vise à préparer les développeurs de modèles comme Llama, GPT-4, Gemini de Google DeepMind ou Claude d’Anthropic à l’AI Act.

Ce code non contraignant, axé sur la transparence, les droits d’auteur et la sécurité, est snobé par Meta, qui y voit une entrave inutile.

En refusant de signer, Meta expose l’incapacité de Bruxelles à imposer ses ambitions régulatrices aux géants US.

logo Meta

Les critiques de Meta envers la régulation européenne

« L’Europe fait fausse route sur l’IA », a lâché Kaplan.

« Nous avons épluché le Code de bonnes pratiques de la Commission européenne pour les modèles d’IA généralistes, et Meta refuse catégoriquement de le signer. Ce Code introduit des incertitudes juridiques pour les développeurs, sans parler des mesures qui vont au-delà de ce que prévoit la loi sur l’IA. »

Le ras-le-bol des grandes entreprises technologiques face à la bureaucratie bruxelloise devient palpable, tant la logique de contrôle semble primer sur celle de l’innovation.

Les niveaux de risque de l’IA selon l’UE

La nouvelle loi européenne sur l’IA classe les intelligences artificielles en quatre niveaux de risque : inacceptable, élevé, limité et minimal.

Les technologies à « haut risque », comme celles gérant les infrastructures critiques (énergie, transports) ou le recrutement, devront se plier à des contrôles rigoureux, avec documentation et tests de sécurité.

Ce système, imposé à tous les pays de l’UE, alourdit la charge administrative des entreprises européennes, déjà en difficulté face à la concurrence mondiale.

Les conséquences pour les entreprises non conformes

Les entreprises qui ne respectent pas l’AI Act s’exposent à des amendes de 7,5 millions d’euros (1,5 % du chiffre d’affaires) à 35 millions d’euros (7 % du chiffre d’affaires mondial).

L’UE promet un allègement administratif aux signataires du GPAI, avec une « sécurité juridique accrue ».

OpenAI, derrière ChatGPT, a annoncé son intention de signer, sans doute pour sécuriser sa place en Europe, contrairement à Meta, qui préfère défier Bruxelles.

GPT

Les entreprises européennes face à la réglementation

Kaplan relaie les inquiétudes de 44 poids lourds européens, dont Bosch, Siemens, SAP, Lufthansa, Airbus et BNP.

Dans une lettre ouverte ce mois-ci, ces patrons ont réclamé un report de deux ans de l’AI Act, jugeant ses règles trop complexes.

Ils alertent : cette régulation risque d’étouffer l’innovation et de saboter la compétitivité européenne face aux États-Unis et à la Chine.

Meta refuse d’adhérer au code de conduite européen

Les nouvelles directives de la Commission européenne

Le jour du refus de Meta, l’UE a publié des directives précisant comment les entreprises d’IA doivent se conformer à l’AI Act.

Elles exigent une documentation technique claire, la transparence sur les données d’entraînement, des politiques de droits d’auteur et des protections contre le piratage ou l’abus.

Pour les modèles puissants comme GPT-4 ou Claude, des tests de sécurité, des mesures de réduction des risques et des rapports d’incidents graves sont obligatoires.

« Ces textes permettent aux développeurs d’innover en confiance tout en garantissant des modèles sûrs et alignés sur les valeurs européennes », assure Henna Virkkunen, vice-présidente de l’UE.

Pour limiter la bureaucratie, l’UE permet aux entreprises modifiant des modèles existants de documenter uniquement les changements, sans fournir la documentation complète du modèle.

IMPORTANT - À lire

L'Europe est-elle en train de perdre la bataille de l'IA face aux géants de la tech ? Alors que Meta refuse de se plier aux règles européennes, découvrez chaque mois dans notre revue papier des analyses approfondies sur les enjeux géopolitiques et économiques de l'intelligence artificielle.

Ne manquez pas nos dossiers exclusifs qui décryptent les rapports de force entre l'UE, les États-Unis et la Chine dans la course à l'innovation. Plongez au cœur des stratégies des GAFAM et de leurs impacts sur notre souveraineté numérique.


Participez au débat, et partagez votre opinion !

Faites avancer la discussion en donnant votre avis à la communauté.