Cerveaux affamés
À l'école artificielle, gigantisme industriel, condamnation de Meta, un milliard d'agents pour un milliard de Chinois [English version below]
Bienvenue sur la lettre d’information du Centre pour la Sécurité de l’IA. Le CeSIA est un centre d’expertise et un think-tank indépendant se consacrant à la prévention des risques majeurs liés à l’IA via ses activités de recherche et de formation, d’analyse des politiques publiques et de recommandations stratégiques.
Dans une conférence prononcée en 1985, Steve Jobs se déclarait « immensément jaloux » d’Alexandre le Grand, lequel avait eu pour tuteur personnel Aristote. « Mon espoir, disait-il, est qu’un jour, quand le prochain Aristote sera en vie, nous puissions capturer sa vision du monde dans un ordinateur, de sorte qu’un étudiant puisse, non seulement lire ses mots, mais aussi l’interroger et obtenir une réponse. »
Avec les chatbots, ce jour semble proche. S’il y a une institution que les prophètes de l’IA entendent bien révolutionner, c’est l’école. Elon Musk promet que l’IA offrira à chaque élève « un Einstein comme professeur particulier ». Sundar Pichai, patron de Google, assure que nous pourrons bientôt « donner à chaque enfant, à travers le monde, accès au tuteur artificiel le plus performant ». Jensen Huang, PDG de NVIDIA, exhorte chacun à « se procurer un tuteur IA immédiatement ».
Cent ans de prophéties déçues
Sous leur audace apparente, ces annonces sont d’une étonnante banalité. Depuis plus d’un siècle, chaque révolution technologique était promise à révolutionner l’enseignement. En 1922, Thomas Edison annonçait que le cinéma sonnait le glas des manuels scolaires. La même année, Herbert Hoover pronostiquait que la radio deviendrait un instrument d’une « importance considérable pour l’instruction publique ». En 1950, le producteur Billy Rose voyait dans la télévision l’aube d’une ère nouvelle pour l’université : « en amenant la salle de classe dans les foyers, il sera possible à 100 000 étudiants de suivre simultanément la même leçon inaugurale. » Ces prédictions ratées n’ont pas dissuadé certains de nos contemporains de placer tous leurs espoirs successivement dans l’ordinateur portable, Internet, les MOOCs ou les tablettes pour révolutionner – sinon remplacer – l’école. Pourtant, depuis Jules Ferry, peu de choses sont restées à ce point inchangées que les salles de classe.
Mais l’IA, par sa capacité indiscutable à personnaliser l’enseignement, n’est-elle pas fondamentalement différente des révolutions technologiques passées ? Plusieurs expériences ont montré que, dans des conditions très contrôlées, certains systèmes d’IA conçus à cet effet pouvaient bel et bien accélérer le processus d’apprentissage. Une expérience menée à Harvard en 2025 a ainsi montré que les étudiants accompagnés par un tuteur artificiel réalisaient des progrès deux fois plus importants que ceux ayant suivi un cours magistral traditionnel. Une autre expérience conduite sur 800 lycéens nigérians a montré que les élèves ayant suivi des leçons personnalisées par l’IA après leurs cours d’anglais avaient réalisé l’équivalent d’un à deux ans de progrès supplémentaires vis-à-vis du groupe témoin (l’étude souffrait cependant de lourds défauts méthodologiques).
Cerveaux affamés
Mais ces expériences isolées menées avec des outils spécialisés ne rendent pas compte du tableau général : quel est l’effet d’ensemble des systèmes d’IA actuellement déployés sans garde-fous auprès d’une génération d’élèves ? Pour répondre à cette question, Rebecca Winthrop, directrice du Center for Universal Education au think tank Brookings, a consulté plus de 500 acteurs de l’enseignement à travers 50 pays et passé en revue plus de 400 études scientifiques. Sa conclusion est, qu’à l’heure actuelle, « les risques éclipsent les bénéfices ».
Son rapport énumère les principaux dégâts. Le premier, le plus évident de tous, est que l’IA, déployée sous sa forme actuelle, se substitue à l’effort intellectuel au lieu de le stimuler. Là où Steve Jobs voulait faire de l’ordinateur « une bicyclette pour l’esprit », les chatbots ressemblent davantage à des voitures autonomes pour le cerveau, lequel n’a plus qu’à choisir une destination pour se laisser guider. Ce phénomène a déjà été décrit chez les adultes par l’expression cognitive offloading (délégation cognitive). Winthrop n’hésite pas, pour les élèves, à parler de cognitive stunting : retard de croissance cognitive. Le cerveau en développement se nourrit d’abords d’efforts et aucun succédané ne saurait s’y substituer.
Progrès simulé
Dès 2024, le chercheur Ethan Mollick constatait que les étudiants surestimaient largement ce qu’ils apprenaient lorsque ChatGPT faisait le travail à leur place ; dans l’une des études qu’il commentait, leurs résultats à l’examen final étaient inférieurs de 17 % à ceux des étudiants ayant travaillé seuls. Derek Muller, vidéaste qui s’intéresse depuis plus de dix ans aux promesses de la technologie dans l’enseignement, est arrivé à la même conclusion : tout système ayant pour finalité ou effet de réduire l’effort à fournir ralentit l’apprentissage plutôt que de l’accélérer.
Un autre problème des tuteurs artificiels réside dans l’affaiblissement de la dimension sociale de l’apprentissage. Le rôle de l’école ne se limite pas à inculquer des savoirs et des méthodes : elle consiste aussi en une « socialisation méthodique de la jeune génération », selon les mots de Durkheim. Comme le remarque le rapport mondial de l’UNESCO sur l’éducation de 2023, « ceux qui appellent à une plus grande individualisation n’ont peut-être pas saisi la finalité de l’éducation ». À l’heure où, dans les pays de l’OCDE, les adolescents passent en moyenne deux fois plus de temps devant des écrans qu’en salle de classe, choisir une méthode d’enseignement impliquant d’atrophier davantage les interactions sociales nécessite une solide justification.
Il ne faut pas confondre ce qu’une technologie rend possible avec les effets qu’elle produit lorsqu’elle se diffuse dans un système d’incitations perverses, sans cadre ni régulation. Les réseaux sociaux promettaient de connecter l’humanité, au lieu de quoi l’économie de l’attention a résulté en une pandémie de solitude et de maladies mentales. Entre l’expérience contrôlée et la réalité, il y a… un monde.
Nouvelles frontières
Ce dont l’IA était incapable hier
SoftBank a lancé, sur le site d’une ancienne usine d’enrichissement d’uranium dans l’Ohio, la construction d’un colossal complexe associant des centres de données géants et une centrale à gaz d’une capacité de 10 gigawatts (Reuters).
Nvidia estime que les agents IA pourraient provoquer un « moment ChatGPT » pour la robotique, un seul agent pouvant coordonner une flotte de robots en décomposant les objectifs en tâches individuelles (The Information).
Jeff Bezos cherche à lever 100 milliards de dollars pour le projet « Prometheus », un fonds destiné à racheter et automatiser par l’IA des entreprises dans l’aérospatiale, les semi-conducteurs et la défense (TechCrunch).
Mark Zuckerberg développe son propre agent IA pour l’aider à diriger Meta, dans le cadre d’une réorganisation plus large du groupe autour de l’automatisation du travail (Euronews).
Pièces à conviction
L’état de l’art en sécurité de l’IA
Dans une tribune publiée par Nature, Mustafa Suleyman, patron de Microsoft AI, alerte sur l’aptitude de l’IA à simuler l’empathie et appelle à des règles l’empêchant de se faire passer pour un être conscient (Nature).
Le PDG de BlackRock, Larry Fink, met en garde : le boom de l’IA risque de creuser les inégalités de richesse, seules quelques entreprises et investisseurs en récoltant les fruits (Reuters).
Un jury de l’État du Nouveau-Mexique a déclaré Meta responsable de mise en danger de mineurs sur ses plateformes, une première judiciaire aux États-Unis, et condamné le groupe à 375 millions de dollars de dommages et intérêts (RFI).
Géopolitique de l’IA
Coopération vs. compétition
Tencent a lancé ClawBot dans WeChat, ce qui permet à plus d’un milliard d’utilisateurs mensuels d’accéder directement à un agent d’IA depuis la messagerie la plus utilisée de Chine (Reuters).
OpenAI met en veille plusieurs projets annexes, dont l’application Sora et son navigateur Atlas, pour se recentrer sur le code et les usages en entreprise, après la domination de Claude Code qui a déclenché une « alerte rouge » en interne (The Verge).
Bpifrance mobilise 10 milliards d’euros d’ici 2029 pour développer l’écosystème IA français et accélérer l’adoption de l’intelligence artificielle par les entreprises (Bpifrance).
Cadre légal
Pour que l’IA ne fasse pas la loi
Le Parlement européen a voté pour reporter d’un an et demi l’application de certaines dispositions du règlement sur l’IA concernant les « systèmes à haut risque » et proposent d’interdire les systèmes d’IA générant des images de nus sans consentement (01Net).
Emmanuel Macron a demandé à Ursula von der Leyen d’accélérer l’examen du projet français d’interdiction des réseaux sociaux aux moins de 15 ans, que l’exécutif veut faire entrer en vigueur au 1er septembre 2026 (MLex).
Anthropic a attaqué en justice le Département de la Guerre américain, qui l’avait placé sur une liste noire après son refus d’autoriser un usage militaire illimité de son modèle Claude (Euronews).
[ENGLISH VERSION]
COGNITIVE STUNTING
In a 1985 talk, Steve Jobs said he was “immensely jealous” of Alexander the Great, who had Aristotle as his personal tutor. “My hope,” he said, “is that someday, when the next Aristotle is alive, we’ll be able to capture his worldview in a computer, so that a student can not only read his words, but question him and receive an answer.”
With chatbots, that day seems close. If there is one institution AI evangelists are determined to transform, it is the school system. Elon Musk promises that AI will give every student “an Einstein as a personal tutor.” Google CEO Sundar Pichai says we will soon be able to “give every child in the world access to the most capable artificial tutor.” NVIDIA CEO Jensen Huang urges everyone to “get an AI tutor right away.”
For all their apparent boldness, these claims are strikingly ordinary. For more than a century, every technological revolution has supposedly been about to revolutionize education. In 1922, Thomas Edison declared that film would make textbooks obsolete. That same year, Herbert Hoover predicted that radio would become a tool of “tremendous importance to public instruction.” In 1950, producer Billy Rose saw television as the dawn of a new era for universities: “by bringing the classroom into the home, it will be possible for 100,000 students to attend the same lecture simultaneously.” Those failed predictions did not stop later generations from placing their hopes, one after another, in laptops, the internet, MOOCs, or tablets to revolutionize — if not replace — the school. And yet, since the days of Jules Ferry, few things have changed so little as the classroom.
But isn’t AI fundamentally different from past technological upheavals, given its undeniable ability to personalize instruction? Several experiments have shown that, under highly controlled conditions, some AI systems specifically designed for that purpose can indeed accelerate learning. A 2025 Harvard study, for example, found that students supported by an artificial tutor made twice as much progress as those who followed a traditional lecture-based course. Another experiment involving 800 Nigerian secondary-school students found that those who received AI-personalized lessons after their English classes achieved the equivalent of one to two additional years of progress compared with the control group, though the study also suffered from serious methodological flaws.
But these isolated trials, conducted with specialized tools, do not capture the broader picture: what is the overall effect of AI systems now being rolled out without safeguards to an entire generation of students? To answer that question, Rebecca Winthrop, director of the Center for Universal Education at the Brookings Institution, consulted more than 500 education stakeholders across 50 countries and reviewed more than 400 scientific studies. Her conclusion is that, for now, “the risks outweigh the benefits.”
Her report lists the main harms. The first, and the most obvious, is that AI in its current form substitutes for intellectual effort instead of stimulating it. Where Steve Jobs wanted the computer to become “a bicycle for the mind,” chatbots look more like self-driving cars for the brain: all it has to do is choose a destination and let itself be carried along. Among adults, this phenomenon has already been described as cognitive offloading. For students, Winthrop does not hesitate to speak of cognitive stunting: a kind of arrested cognitive development. A developing brain is built on effort first and foremost, and no substitute can take its place.
As early as 2024, researcher Ethan Mollick observed that students greatly overestimated how much they were learning when ChatGPT did the work for them; in one of the studies he discussed, their final exam scores were 17% lower than those of students who worked on their own. Derek Muller, a science communicator who has been exploring for more than a decade the promises of technology in education, reached the same conclusion: any system whose purpose — or effect — is to reduce the effort required ends up slowing learning rather than speeding it up.
Another problem with artificial tutors is the weakening of the social dimension of learning. The role of school is not limited to transmitting knowledge and methods; it is also, in Durkheim’s words, a process of “systematic socialization of the younger generation.” As the 2023 UNESCO Global Education Monitoring Report notes, “those calling for greater individualization may not have fully grasped the purpose of education.” At a time when teenagers in OECD countries spend, on average, twice as much time in front of screens as they do in the classroom, choosing a method of instruction that would further erode social interaction demands a very strong justification.
We should not confuse what a technology makes possible with the effects it actually produces once it spreads through a system shaped by perverse incentives. Social media promised to connect humanity; instead, the attention economy gave rise to a pandemic of loneliness and mental illness. Between the controlled experiment and the real world lies, quite literally, a world of difference.
New Frontiers
What AI couldn’t do yesterday
SoftBank has begun building, on the site of a former uranium-enrichment plant in Ohio, a colossal complex combining giant data centers with a gas-fired power plant capable of generating 10 gigawatts (Reuters).
Nvidia believes AI agents could trigger a “ChatGPT moment” for robotics, with a single agent able to coordinate a fleet of robots by breaking goals down into individual tasks (The Information).
Jeff Bezos is reportedly seeking to raise $100 billion for “Prometheus,” a fund intended to acquire and automate manufacturing companies in aerospace, semiconductors, and defense using AI (TechCrunch).
Mark Zuckerberg is developing his own AI agent to help him run Meta, as part of a broader reorganization of the company around workplace automation (Euronews).
Ledger of Harms
AI risks SOTA
In an op-ed published by Nature, Microsoft AI chief Mustafa Suleyman warns about AI’s ability to simulate empathy and calls for rules preventing it from passing itself off as a conscious being (Nature).
BlackRock CEO Larry Fink warns that the AI boom could deepen wealth inequality, with only a handful of companies and investors reaping the gains (Reuters).
A New Mexico state jury found Meta liable for endangering minors on its platforms, a judicial first in the United States, and ordered the company to pay $375 million in damages (RFI).
AI Geopolitics
Cooperation vs. Competition
Tencent has launched ClawBot inside WeChat, giving more than one billion monthly users direct access to an AI agent from China’s most widely used messaging app (Reuters).
OpenAI has put several side projects on hold, including the Sora app and its Atlas browser, in order to refocus on coding and enterprise use cases after Claude Code’s dominance reportedly triggered a “red alert” internally (The Verge).
Bpifrance is mobilizing €10 billion by 2029 to develop the French AI ecosystem and speed up artificial-intelligence adoption by businesses (Bpifrance).
Legal framework
Code is NOT law
The European Parliament has voted to delay by a year and a half the application of certain AI Act provisions concerning “high-risk systems,” and is also proposing a ban on AI systems that generate non-consensual nude images (01Net).
Anthropic has sued the U.S. Department of War after being blacklisted by the agency for refusing to authorize unrestricted military use of its Claude model (Euronews).
Baltimore has become the first major U.S. city to sue xAI, accusing Grok of facilitating the production of non-consensual pornographic images (Reuters).
Emmanuel Macron has asked Ursula von der Leyen to fast-track review of France’s proposal to ban social media for under-15s, which the government wants to bring into force on September 1, 2026 (MLex).







