
Tribunal de Perpignan : En une soirée, ils « cassent » quatre restaurants de cette commune de la côte… pour un butin de 150 €
9 avril 2026
Au procès Athanor, le troublant interrogatoire de l’espion en fauteuil roulant
9 avril 2026Anthropic perd la tentative de la cour d’appel de bloquer temporairement la décision du DOD
Analyse : Notre rédaction a examiné les faits et propose un résumé rapide.
Un regard de nos journalistes sur l'article « Anthropic perd la tentative de la cour d’appel de bloquer temporairement la décision du DOD ».
Résumé synthétique
Le chroniqueur du New York Times Andrew Ross Sorkin et le PDG et co-fondateur d’Anthropic Dario Amodei s’expriment sur scène lors du New York Times Dealbook Summit 2025 au Jazz at Lincoln Center de New York, le 3 décembre 2025.
Michael M.Santiago | Getty Images
Une cour d’appel fédérale à Washington, DC, le Mercredi nié Anthropic demande bloquer temporairement le ministère de la Défense liste noire de la société d’intelligence artificielle alors qu’un procès contestant cette sanction se déroule.
La décision intervient après qu’un juge du tribunal fédéral de San Francisco a accordé à la fin du mois dernier, dans une affaire distincte mais connexe, à Anthropic une injonction préliminaire interdisant à l’administration Trump d’imposer une interdiction sur l’utilisation de son modèle Claude.
« À notre avis, l’équilibre équitable penche en faveur du gouvernement », a déclaré la cour d’appel dans sa décision. « D’un côté, il y a un risque relativement contenu de préjudice financier pour une seule entreprise privée. De l’autre, il y a la gestion judiciaire de la manière et par l’intermédiaire de qui, le ministère de la Guerre sécurise la technologie vitale de l’IA pendant un conflit militaire actif. Pour cette raison, nous rejetons la requête d’Anthropic visant à suspendre l’examen sur le fond. »
Avec les décisions partagées des deux tribunaux, Anthropic est exclu des contrats du DOD mais peut continuer à travailler avec d’autres agences gouvernementales pendant que le litige se déroule. Il sera interdit aux entrepreneurs de la défense d’utiliser Claude dans leur travail avec l’agence, mais ils pourront l’utiliser pour d’autres cas.
Le DOD a déclaré Anthropique, un risque pour la chaîne d’approvisionnement début mars, ce qui signifie que l’utilisation de la technologie de l’entreprise menacerait la sécurité nationale des États-Unis. L’étiquette exige entrepreneurs de défense pour certifier qu’ils n’utilisent pas les modèles Claude AI d’Anthropic dans leur travail avec l’armée.
Anthropique avait a demandé à la cour d’appel de réexaminer la détermination du Pentagone et a fait valoir qu’il s’agit d’une forme de représailles inconstitutionnelle, arbitraire, capricieuse et non conforme aux procédures requises par la loi, selon un dépôt.
Dans son jugement rendu mercredi, le tribunal a reconnu qu’Anthropic « subira probablement un certain degré de préjudice irréparable en l’absence d’une suspension », mais que les intérêts de l’entreprise « semblent être de nature principalement financière ». Alors que la société affirmait que le DOD faisait obstacle à son droit à la liberté d’expression, « Anthropic ne démontre pas que son discours a été refroidi pendant la durée de ce litige », indique l’ordonnance.
En raison du préjudice qu’Anthropic est susceptible de subir, la cour d’appel a déclaré qu’« une expédition substantielle est justifiée ».
Un porte-parole d’Anthropic a déclaré dans un communiqué après la décision que l’entreprise était « reconnaissante que le tribunal ait reconnu que ces problèmes devaient être résolus rapidement » et qu’elle était « confiante que les tribunaux finiront par convenir que ces désignations de chaîne d’approvisionnement étaient illégales ».
« Bien que cette affaire soit nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre objectif reste de travailler de manière productive avec le gouvernement pour garantir que tous les Américains bénéficient d’une IA sûre et fiable », a déclaré Anthropic.
Todd Blanche, le procureur général américain par intérim, a qualifié cette décision de « victoire éclatante pour la préparation militaire », dans un communiqué. poste sur X.
« L’autorité militaire et le contrôle opérationnel appartiennent au commandant en chef et au ministère de la Guerre, et non à une entreprise technologique », a écrit Blanche.
Le DOD s’est appuyé sur deux désignations distinctes auprès du tribunal fédéral américain pour justifier l’action relative au risque lié à la chaîne d’approvisionnement, et elles doivent être contestées devant deux tribunaux distincts.
Le procès d’Anthropic contre le Pentagone en mars faisait suite à quelques semaines dramatiques à Washington DC, entre le ministère de la Défense et l’une des sociétés privées les plus précieuses au monde.
Dans un reportage sur X fin février, le secrétaire à la Défense Pete Hegseth a déclaré Anthropique, un risque pour la chaîne d’approvisionnementet le DOD a rapidement informé l’entreprise de la détermination officielle via une lettre. Anthropique est la première entreprise américaine à recevoir cette appellation, historiquement réservée aux adversaires étrangers.
Peu avant le poste d’Hegseth, Le président Donald Trump a écrit une parution sur Truth Social ordonnant aux agences fédérales de « cesser immédiatement » toute utilisation de la technologie d’Anthropic. Il a déclaré qu’il y aurait une période d’élimination progressive de six mois pour les agences comme le DOD.
Les actions de l’administration Trump ont surpris de nombreux responsables à Washington, où la technologie d’Anthropic était désormais intégrée dans de nombreuses agences. L’entreprise a été la première à déployer ses modèles sur les réseaux classifiés du DOD, et elle a été défendue pour sa capacité à s’intégrer aux sous-traitants de la Défense existants comme Palantir.
Anthropique a signé un 200 millions de dollars contrat avec le Pentagone en juillet, mais alors que la société commençait à négocier le déploiement de Claude sur le DOD, GenAI.mil Plateforme d’IA en septembre, les négociations sont au point mort.
Le DOD voulait qu’Anthropic accorde au Pentagone un accès illimité à ses modèles à toutes fins légales, tandis qu’Anthropic voulait avoir l’assurance que sa technologie ne serait pas utilisée pour des armes entièrement autonomes ou pour la surveillance de masse nationale.
Les deux hommes n’ont pas réussi à parvenir à un accord, ce qui a porté le différend devant les tribunaux.
— Dan Mangan de CNBC a contribué à ce rapport.
MONTRE: Anthropic obtient une injonction préliminaire dans la lutte contre la liste noire du Pentagone
Source : www.cnbc.com
Conclusion : L'équipe suit cette actualité de près pour mieux vous informer.

9999999
