Le Bon, la Brute et le Truand
Anthropic vs. U.S. Pentagone ; deux fois le budget d'Apollo en un an ; ARC-AGI-2 saturé [English version below]
Bienvenue sur la lettre d’information du Centre pour la Sécurité de l’IA. Le CeSIA est un centre d’expertise et un think-tank indépendant se consacrant à la prévention des risques majeurs liés à l’IA via ses activités de recherche et de formation, d’analyse des politiques publiques et de recommandations stratégiques.
D’abord, les protagonistes.
Le bon. Dario Amodei, PDG d’Anthropic, est un chasseur de primes avisé, réputé pour ne pas sacrifier ses principes sur l’autel du profit. Convaincu que l’IA pourra servir les causes les plus nobles comme les desseins les plus funestes, il veut que l’histoire retienne qu’il a soutenu les premières et combattu les seconds.
La brute. Pete Hegseth, secrétaire à la Défense des États-Unis, s’est vu rebaptiser « secrétaire à la Guerre » par Donald Trump. Vétéran de l’Irak et de l’Afghanistan, tatoué à la gloire des croisades chrétiennes, buveur invétéré, accusé d’agression sexuelle et opposé au droit de vote des femmes, il a résumé en ces termes sa mission au service du Pentagone : « rétablir la culture guerrière au sein du département de la Défense. »
Le truand. Sam Altman, CEO d’OpenAI, a transformé une organisation à but non lucratif censée « mettre l’AGI au service de l’humanité » en une multinationale valorisée 730 milliards de dollars. Accusé d’avoir dissimulé des conflits d’intérêts et trompé ses collaborateurs, il avait failli être démis de ses fonctions en 2023.
Une querelle a éclaté entre le bon et la brute. À la veille de conclure un contrat entre Anthropic et le Pentagone, Hegseth a intimé à Amodei de laisser l’armée utiliser ses modèles « pour tous les usages légaux ». Comprendre, faute d’encadrement légal de l’IA par l’État fédéral : sans restriction digne de ce nom. Amodei exigeait l’exclusion explicite de deux usages : la surveillance de masse de la population états-unienne et les armes entièrement autonomes. Malgré le caractère minimaliste de ces demandes – qui n’excluaient ni l’espionnage du reste du monde ni, plus largement, l’usage de l’IA pour atteindre n’importe quel objectif militaire –, c’était trop demander à Hegseth. Ce dernier a donné deux jours à Anthropic pour se soumettre sans réserve à ses conditions, faute de quoi la société serait désignée comme « risque pour la chaîne d’approvisionnement » et, à ce titre, mise au ban des fournisseurs du Pentagone.
Entre en scène le truand. Alors qu’il négociait lui aussi un contrat avec le département de la Défense, Altman a, dans un mouvement aussi incongru qu’inattendu, apporté son soutien à Amodei. Il a déclaré partager ses convictions et demandé lui aussi d’exclure la surveillance domestique et les armes autonomes de son propre contrat. À ce stade, chacun en aurait logiquement conclu que le sort des deux dirigeants était lié… et se serait trompé. Une heure avant l’échéance de l’ultimatum, Donald Trump déclarait qu’Anthropic était « UNE ENTREPRISE WOKE DE GAUCHE RADICALE » et ordonnait à toutes les agences fédérales de cesser immédiatement d’utiliser ses technologies. De son côté, Sam Altman se vantait d’avoir conclu un accord avec le Pentagone sans renier ses engagements.
Plusieurs théories ont été avancées pour expliquer ce traitement différencié. Un ancien conseiller de l’administration Trump y a vu une « tentative d’assassinat commercial » purement idéologique. Amodei a souligné que la donation récente de 25 millions de dollars de Greg Brockman, président d’OpenAI, à une campagne électorale pro-Trump, avait pu incliner le gouvernement en faveur d’OpenAI. D’autres ont estimé, en passant au crible les déclarations de Sam Altman, que ce dernier avait introduit suffisamment d’ambiguïté dans les clauses de son contrat pour satisfaire aux exigences du Pentagone tout en préservant l’apparence d’une fidélité à ses engagements. Cela n’a pas suffi à convaincre cent salariés d’OpenAI, qui ont appelé leur dirigeant à refuser de se soumettre au chantage du département de la Défense. Et cela n’a fait qu’alimenter le mouvement de boycott de ChatGPT. Quoi qu’il en soit, pour Kevin Roose, éditorialiste au New York Times, cette affaire constitue « de loin la pire action punitive jamais prise par le gouvernement américain à l’encontre d’une grande entreprise américaine, au moins depuis le début du siècle, voire de l’histoire récente ».
Un détail qui n’en est pas un a toutefois échappé à la majorité des spectateurs absorbés par l’échauffourée: Anthropic vient de rompre avec son engagement phare. Jusqu’ici, l’entreprise promettait de ne jamais entraîner ni déployer un modèle avant d’avoir démontré que ses mesures de sécurité suffisaient à prévenir tout risque d’usage malveillant ou d’accident catastrophique. Elle vient d’y renoncer. Dans une compétition sans règles, la vertu a un coût que personne – pas même les « bons » – ne veut payer.
Nouvelles frontières
Ce dont l’IA était incapable hier
Les géants technologiques américains devraient investir 650 milliards de dollars en 2026 dans l’infrastructure de l’IA, contre environ 410 milliards en 2025. Cela représente plus de deux fois le coût actualisé du programme Apollo, qui s’était étendu sur une décennie. (Reuters)
ARC-AGI-2, une évaluation conçue pour être relativement aisée pour les humains et particulièrement ardue pour l’IA, est bientôt obsolète seulement un an après avoir remplacé son prédécesseur ARC-AGI-1 ; les modèles de pointe approchant un score parfait (ARC-Prize).
Un pionnier de l’informatique, Donald Knuth, raconte comment Claude Opus 4.6 a résolu un problème ouvert de théorie des graphes sur lequel il butait depuis plusieurs semaines, l’incitant à réviser son scepticisme sur l’IA générative (Stanford University).
Une étude montre que la plupart des tests de performance pour l’IA se concentrent sur le code et les maths, alors que ces compétences représentent une faible fraction des emplois, et laissent de côté de nombreuses tâches courantes. (Carnegie Mellon University)
Pièces à conviction
L’état de l’art en sécurité de l’IA
Invité de la matinale de France Inter, le chercheur Yoshua Bengio a alerté sur « le pouvoir incontrôlé qui est en train de se développer » avec des IA toujours plus performantes et a appelé à renforcer les garde-fous. (France Inter)
Une enquête explique que la fabrication d’ADN « à la demande » se diffuse rapidement alors que les mesures de surveillance pour empêcher des usages dangereux restent très lacunaires. (Vox)
Au Royaume-Uni, une femme poursuit OpenAI après le suicide de son mari, affirmant qu’une relation obsessive à ChatGPT a accompagné une spirale de délire et d’isolement. (The Guardian)
Cadre légal
Pour que l’IA ne fasse pas la loi
Un coalition inattendue de personnalités issues du monde économique, religieux, politique et universitaire a mis de côté ses désaccords pour appeler à une nouvelle déclaration des droits humains à l’ère de l’IA (NBC News).
Des ONG demandent le retrait d’Aura Salla (ex-lobbyiste de Meta) comme rapporteure au Parlement européen sur le Digital Omnibus, dénonçant un risque d’influence indue dans un texte censé « simplifier » les règles du numérique (Corporate Europe Observatory).
Thierry Breton, visé par une interdiction de visa des États-Unis, presse la Commission européenne de réagir politiquement, et pas seulement juridiquement, pour défendre l’indépendance des institutions européennes (Tech Policy Press).
Dans un essai très commenté, Dean W. Ball, co-auteur du programme officiel des États-Unis en matière d’IA, analyse le bras de fer Anthropic–Pentagone comme un test grandeur nature : qui peut fixer des lignes rouges à l’usage militaire de l’IA, et avec quelle légitimité ? (Hyperdimensional).
Géopolitique de l’IA
Coopération vs. compétition
La Commission européenne lance un appel à candidatures pour former un « forum d’experts » sur l’IA dite « de frontière », afin d’orienter sa stratégie de compétitivité et de sécurité (Commission européenne).
Les entreprises chinoises prennent de l’avance sur les robots humanoïdes en produisant 36 fois plus d’unités que leurs concurrentes aux États-Unis (TechCrunch).
Goldman Sachs a popularisé le concept d’actions « HALO » (heavy-asset, low-obsolescence) reposant sur des entreprises à actifs physiques, supposées moins vulnérables à l’IA, ce qui aurait contribué à pousser les marchés britannique et européen vers des niveaux records (The Guardian).
La vie du CeSIA
De retour de New Delhi, la semaine passée a été particulièrement trépidante pour le CeSIA, avec l’organisation d’un workshop consacré aux lignes rouges de l’IA à l’UNESCO dans le cadre de la réunion annuelle de l’International Association for Safe and Ethical AI (IASEAI). Nous publierons sous peu les résultats de cet atelier.
Vendredi dernier, le CeSIA a lancé à Bruxelles, avec les partenaires du consortium et le Bureau de l’IA de la Commission européenne, un projet pluriannuel (2026–2028) visant à opérationnaliser les exigences de sûreté du règlement sur l’IA (AI Act) via des cadres de modélisation quantitative des risques et des outils d’évaluation, notamment sur les risques de manipulation nuisible découlant des modèles d’IA à usage général.
[ENGLISH VERSION]
The Good, the Bad, and the UglyFirst, the cast.
The good. Dario Amodei, Anthropic’s CEO, is a shrewd bounty hunter, famous for refusing to sacrifice his principles on the altar of profit. Convinced that AI can serve the noblest causes as well as the darkest designs, he wants history to remember him as someone who backed the former and fought the latter.
The bad. Pete Hegseth, the U.S. Secretary of Defense, has reportedly been rechristened “Secretary of War” by Donald Trump. A veteran of Iraq and Afghanistan, tattooed in homage to the Christian crusades, a heavy drinker, accused of sexual assault, and opposed to women’s suffrage, he summed up his mission at the Pentagon like this: “restore a warrior culture within the Department of Defense.”
The ugly. Sam Altman, OpenAI’s CEO, turned a non-profit meant to put AGI “in service of humanity” into a multinational valued at $730 billion. Accused of concealing conflicts of interest and misleading colleagues, he nearly lost his job in 2023.
A feud broke out between the good and the bad. On the eve of finalizing an Anthropic–Pentagon contract, Hegseth ordered Amodei to let the military use Anthropic’s models “for any lawful purpose.” In plain English—given the absence of meaningful federal AI regulation: no real limits. Amodei wanted two uses explicitly ruled out: mass domestic surveillance of Americans, and fully autonomous weapons. Minimal demands, really—ones that still left room for spying on the rest of the world and, more broadly, for using AI in pursuit of virtually any military objective. Still, it was too much for Hegseth. He gave Anthropic two days to accept his terms unconditionally; otherwise the company would be labeled a “supply-chain risk” and effectively blacklisted as a Pentagon vendor.
Enter the ugly. While negotiating his own deal with the Department of Defense, Sam Altman made a move that was as unexpected as it was awkward: he backed Amodei. He said he shared Amodei’s convictions and asked, in his own contract as well, to exclude domestic surveillance and autonomous weapons. At that point, anyone would naturally assume the two CEOs’ fates were intertwined—and they’d be wrong. One hour before the ultimatum expired, Donald Trump declared Anthropic a “RADICAL LEFT WOKE COMPANY” and ordered all federal agencies to immediately stop using its technologies. Meanwhile, Sam Altman boasted that he had secured an agreement with the Pentagon without abandoning his commitments.
Several theories have been offered to explain the double standard. A former Trump adviser called it an attempted “commercial assassination” driven by ideological hostility. Amodei suggested that a recent $25 million donation by Greg Brockman, OpenAI’s president, to a pro-Trump campaign may have tilted the government toward OpenAI. Others, after combing through Altman’s public statements, argued that he had built enough ambiguity into the contract to satisfy Pentagon demands while maintaining the appearance of sticking to his principles.
That wasn’t enough to persuade a hundred OpenAI employees, who urged their leader to refuse the Defense Department’s pressure—and it helped fuel the growing boycott movement against ChatGPT. Either way, for New York Times columnist Kevin Roose, this episode is “by far the worst punitive action the U.S. government has ever taken against a major American company—at least since the start of the century, if not in recent history altogether.”
And yet a crucial detail largely escaped a public engrossed by the brawl: Anthropic has just broken with its flagship commitment. Until now, the company pledged it would never train or deploy a model before demonstrating that its safety measures were sufficient to prevent malicious use or a catastrophic accident. It has now abandoned that pledge. In a ruleless race, virtue comes with a price no one—not even the “good guys”—is willing to pay.
New Frontiers
What AI couldn’t do yesterday
America’s tech giants are expected to invest $650 billion in AI infrastructure in 2026, up from roughly $410 billion in 2025. That’s more than twice the inflation-adjusted cost of the Apollo program, which spanned a decade. (Reuters)
A study finds that most AI benchmarks focus on coding and math—even though those skills account for only a small slice of jobs—while overlooking many everyday tasks. (Carnegie Mellon University)
ARC-AGI-2, a benchmark designed to be relatively easy for humans and especially hard for AI, is already on the verge of obsolescence just one year after replacing ARC-AGI-1, as frontier models approach a perfect score. (ARC-Prize)
Computer-science pioneer Donald Knuth describes how Claude Opus 4.6 solved an open problem in graph theory he had been stuck on for weeks—prompting him to revise his view of generative AI. (Stanford University)
Ledger of Harms
AI risks SOTA
On France Inter’s morning show, researcher Yoshua Bengio warned about “the uncontrolled power that is developing” as AI systems grow more capable, and called for stronger safeguards. (France Inter)
An investigation reports that “on-demand” DNA synthesis is spreading rapidly, while oversight mechanisms meant to prevent dangerous use remain strikingly weak. (Vox)
In the UK, a woman is suing OpenAI after her husband’s suicide, alleging that an obsessive relationship with ChatGPT accompanied a spiral into delusion and isolation. (The Guardian)
Legal Framework
Code is not law
An unlikely coalition of business, religious, political, and academic figures has set aside its disagreements to call for a new declaration of human rights for the AI era. (NBC News)
In a widely discussed essay, Dean W. Ball—co-author of the U.S. government’s official AI agenda—treats the Anthropic–Pentagon showdown as a real-world stress test: who gets to draw red lines around military uses of AI, and on what legitimacy? (Hyperdimensional)
NGOs are calling for the removal of Aura Salla (a former Meta lobbyist) as rapporteur in the European Parliament on the Digital Omnibus, warning of undue influence over a text meant to “simplify” digital regulation. (Corporate Europe Observatory)
Thierry Breton, targeted by a U.S. visa ban, is pressing the European Commission to respond politically—not only legally—to defend the independence of EU institutions. (Tech Policy Press)
AI Geopolitics
Cooperation vs. Competition
The European Commission has opened applications for an “expert forum” on so-called “frontier” AI, tasked with shaping its strategy on competitiveness and security. (European Commission)
Chinese companies are pulling ahead in humanoid robots, producing 36 times more units than their U.S. competitors. (TechCrunch)
Goldman Sachs has popularized the idea of “HALO” stocks (heavy-asset, low-obsolescence)—companies with substantial physical assets that are presumed less vulnerable to AI disruption—helping push UK and European markets to record highs. (The Guardian)
CeSIA updates
Back from New Delhi, last week was especially intense for CeSIA. We hosted a workshop at UNESCO on AI “red lines” as part of the annual meeting of the International Association for Safe and Ethical AI (IASEAI). We’ll be publishing the workshop outcomes shortly.
Last Friday in Brussels, CeSIA—together with the consortium partners and the European Commission’s AI Office—launched a multi-year project (2026–2028) to turn the AI Act’s safety requirements into practice. The project will develop quantitative risk-modeling frameworks and evaluation tools, with a particular focus on harms linked to general-purpose AI models, including risks of malicious manipulation.








Bravo et merci !