Listen to the article
Le secrétaire à la défense américain, Pete Hegseth, a fixé, mardi 24 février, un ultimatum à la start-up d’intelligence artificielle (IA) Anthropic pour qu’elle lève toutes les restrictions à l’utilisation de son IA par le Pentagone.
La jeune société californienne a jusqu’à vendredi à 23 h 01 (heure de Paris) pour s’exécuter, faute de quoi le ministre entend user d’une loi votée en 1950 qui permet de forcer une entreprise privée à produire des biens pour la défense nationale, a affirmé un responsable à l’Agence France-Presse (AFP). M. Hegseth entend également, en cas de refus, faire inscrire Anthropic sur la liste des sociétés qui présentent « un risque pour les approvisionnements ».
Les entreprises figurant sur cette liste font l’objet de restrictions drastiques en matière de contrats avec le gouvernement américain, lequel renonce de facto purement et simplement à les utiliser, ce qui ne serait pas le cas dans cette configuration.
La liste s’applique généralement à des sociétés dont les autorités américaines craignent que leurs produits ne servent à des activités susceptibles de menacer la sécurité nationale des Etats-Unis. N’y figurent actuellement que des sociétés étrangères, dont l’équipementier chinois Huawei ou le spécialiste russe des logiciels antivirus Kaspersky.
Un bras de fer autour de l’éthique de l’IA
L’ultimatum intervient après une rencontre, mardi, entre Pete Hegseth et le patron d’Anthropic, Dario Amodei. Le ministère a demandé à ses fournisseurs d’IA de lever les restrictions d’utilisation de leurs modèles par défaut, pour élargir les cas d’usage possibles tant qu’ils restent dans la légalité.
Tous ont donné leur accord, y compris Anthropic, mais la jeune entreprise californienne a souhaité empêcher le recours à son modèle d’IA Claude dans deux cas, la surveillance de masse des populations et l’automatisation d’une attaque mortelle.
« Nous poursuivons nos discussions de bonne foi relatives aux usages (de l’IA) », a déclaré à l’AFP un porte-parole d’Anthropic. L’objectif, selon lui, est de s’« assurer qu’Anthropic peut continuer à soutenir la mission de sécurité nationale du gouvernement en accord avec ce que nos modèles peuvent réaliser de façon responsable et fiable ».
Fondée en 2021 par des anciens d’OpenAI, Anthropic a toujours revendiqué une approche éthique de l’IA. Début 2026, la start-up a publié un document appelé « constitution » qui détaille une série d’instructions données à Claude pour encadrer sa production. Elles visent notamment à « empêcher des actions à la dangerosité inappropriée ».








17 commentaires
Uranium names keep pushing higher—supply still tight into 2026.
Interesting update on Le Pentagone fixe un ultimatum à Anthropic pour lever les restrictions sur son IA. Curious how the grades will trend next quarter.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
If AISC keeps dropping, this becomes investable for me.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
Exploration results look promising, but permitting will be the key risk.
The cost guidance is better than expected. If they deliver, the stock could rerate.
Production mix shifting toward Economie might help margins if metals stay firm.
Good point. Watching costs and grades closely.
If AISC keeps dropping, this becomes investable for me.
Good point. Watching costs and grades closely.
Nice to see insider buying—usually a good signal in this space.
Exploration results look promising, but permitting will be the key risk.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.