Trump ordonne à toutes les agences fédérales de « cesser immédiatement » d’utiliser l’IA d’Anthropic après son refus sur la surveillance de masse

Anthropic contre le Pentagone : le spectacle d'une souveraineté que la France a perdue Anthropic contre le Pentagone : le spectacle d'une souveraineté que la France a perdue

🔥 Les essentiels de cette actualité

  • Après qu’Anthropic a refusé de lever ses restrictions éthiques sur la surveillance de masse et les armes autonomes, Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d’utiliser l’IA Claude, rompant un contrat à 200 millions de dollars.
  • Une entreprise privée peut-elle vraiment dicter à l’armée la plus puissante du monde comment elle doit combattre ? Le refus d’Anthropic soulève une question de souveraineté nationale que même ses opposants à Trump ne peuvent balayer d’un revers de main.
  • Quelque 400 employés de Google et OpenAI ont appelé leurs dirigeants à s’unir pour refuser les demandes du Pentagone, révélant qu’une caste technologique californienne entend désormais arbitrer les choix stratégiques des démocraties occidentales.
  • Pour la France et l’Europe, cette affaire expose une dépendance technologique dangereuse aux géants américains dans des secteurs aussi vitaux que la défense, la santé et l’éducation — une vulnérabilité que les gouvernements européens continuent d’ignorer.

L’affaire Anthropic, qui secoue Washington depuis quelques jours, mérite qu’on s’y arrête, non pour prendre parti dans une querelle américano-américaine, mais pour ce qu’elle révèle des rapports de force contemporains entre États souverains et géants technologiques. Lorsque Donald Trump ordonne, en lettres majuscules sur son réseau social, à « TOUTES les agences fédérales » de cesser immédiatement d’utiliser les services d’une start-up d’intelligence artificielle, ce n’est pas seulement un bras de fer commercial qui s’ouvre, mais un conflit de souveraineté.

Les faits sont les suivants : Anthropic, éditrice du modèle d’IA Claude, a refusé de lever les restrictions éthiques qu’elle impose à sa technologie, malgré l’ultimatum du ministre de la Défense Pete Hegseth. La ligne rouge tracée par l’entreprise concerne deux domaines précis : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes. Son patron, Dario Amodei, a justifié ce refus par une formule qui résonne étrangement dans le brouhaha technophile ambiant :

« Dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques, plutôt que les défendre. »

Voilà donc une entreprise privée qui ose dire non au Pentagone, qui fixe des limites à l’État fédéral le plus puissant du monde, au nom de principes qu’elle juge supérieurs à ses intérêts commerciaux immédiats. Car enfin, Anthropic avait signé un contrat de 200 millions de dollars avec le gouvernement américain. Refuser de se plier aux exigences de son principal client n’est pas un geste anodin.

Quand les entreprises défient les États

On pourrait, à première vue, applaudir cette résistance. Après tout, qui souhaite voir des machines décider seules de la vie ou de la mort d’êtres humains ? Qui peut se réjouir de la surveillance généralisée des citoyens ? La prudence d’Amodei, qui rappelle que les systèmes d’IA « ne sont pas encore fiables au point de leur confier le pouvoir de contrôler des armes mortelles », relève du bon sens élémentaire.

Mais cette lecture serait incomplète. Ce qui se joue ici dépasse largement la question des robots tueurs. C’est la capacité même d’un État souverain à déterminer les conditions de sa défense nationale qui est en cause. Que l’on approuve ou non Donald Trump, ses outrances rhétoriques sur les « entreprises de gauche radicale et woke » n’aident guère à la sérénité du débat, la question qu’il pose est légitime : une entreprise privée peut-elle dicter à l’armée d’une nation comment elle doit « combattre et gagner des guerres » ?

La réponse devrait être non. Du moins pour tout esprit attaché à la souveraineté des nations. Car si Anthropic peut aujourd’hui imposer ses conditions éthiques au Pentagone, qu’est-ce qui empêchera demain Google, Microsoft ou OpenAI de faire de même avec d’autres États, y compris la France ? Ces entreprises, rappelons-le, sont toutes américaines. Elles détiennent un quasi-monopole sur les technologies d’intelligence artificielle les plus avancées. Et elles s’arrogent désormais le droit de définir ce qui est moralement acceptable ou non dans l’usage militaire de leurs outils.

Le soutien apporté à Anthropic par quelque 400 employés de Google et OpenAI, appelant leurs dirigeants à « s’unir pour refuser les demandes du Pentagone », illustre parfaitement cette nouvelle configuration. Une caste technologique, majoritairement californienne, imprégnée d’une idéologie progressiste qu’elle ne prend même plus la peine de dissimuler, entend désormais arbitrer les choix stratégiques des démocraties occidentales.

Anthropic contre le Pentagone : le spectacle d'une souveraineté que la France a perdue

L’impasse de la dépendance technologique

Pour la France, cette affaire devrait sonner comme un avertissement. Le pays, à l’instar de l’ensemble de l’Europe, a accumulé un retard considérable dans la course à l’intelligence artificielle. Il dépend presque entièrement des technologies américaines, dans une moindre mesure chinoises, pour des secteurs aussi stratégiques que la santé, la défense, l’éducation ou encore l’industrie.

Que se passera-t-il le jour où l’un de ces fournisseurs décidera, pour des raisons éthiques ou politiques, de restreindre l’accès de la France à ses services ? Que se passera-t-il si Washington, dans un accès de protectionnisme ou de chantage géopolitique, exige de ces entreprises qu’elles coupent leurs liens avec tel ou tel pays européen ? La menace brandie par Pete Hegseth d’invoquer une législation datant de la Guerre froide pour contraindre Anthropic montre que les outils juridiques existent.

Il serait temps d’en tirer les conséquences. Non pas en rompant toute coopération avec les géants américains, car les marges de manœuvre restent limitées à court terme, mais en engageant enfin un effort massif pour développer des capacités européennes et, si possible, françaises en matière d’intelligence artificielle. Une telle ambition suppose des investissements considérables, une politique industrielle assumée et, surtout, une volonté politique qui fait aujourd’hui cruellement défaut.

L’affaire Anthropic rappelle une vérité que les élites europhiles persistent à ignorer : dans le monde qui vient, seules les nations capables de maîtriser leurs technologies stratégiques conserveront leur liberté. Les autres seront condamnées à subir les choix éthiques, politiques et commerciaux de puissances qui ne leur veulent pas nécessairement du bien. La souveraineté numérique n’est pas un slogan de campagne : c’est la condition même de survie d’une nation libre.

IMPORTANT - À lire

Souveraineté numérique, dépendance technologique, rapports de force entre États et géants de la tech : ces enjeux sont au cœur de notre revue papier mensuelle.

Chaque mois, nous approfondissons les analyses géopolitiques et d'actualité que vous ne trouverez pas ailleurs. Rejoignez nos lecteurs et recevez la revue directement dans votre boîte aux lettres.


Participez au débat, et partagez votre opinion !

Faites avancer la discussion en donnant votre avis à la communauté.

1 commentaires
  1. Assimiler le flicage de la population et la création de machines assez autonomes pour flinguer des gilets jaunes par exemple à de la défense nationale est très malhonnête. C’est en fait encourager l’état profond à porter atteinte à l’intérêt de ses propres citoyens. Je comprend qu’on s’y oppose pour des raisons éthiques.
    Votre article pourrait, avec sa logique, reprocher un jour à « Gaz de France » de refuser de fournir de quoi éliminer deux millions de mauvais français….

Laisser un commentaire

En savoir plus sur Géopolitique Profonde

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture