À qui profite la simplification des règles ?
Affaiblissement de l'AI Act, nouveaux modèles de pointe, projet Genesis et mise à jour du rapport international sur la sûreté de l'IA.
Bienvenue sur la lettre d’information du Centre pour la Sécurité de l’IA. Le CeSIA est un organisme à but non lucratif basé à Paris qui se consacre à la formation, à la recherche et à la diffusion d’informations sur les enjeux et les risques liés à l’intelligence artificielle.
D’aucuns s’en réjouissaient, d’autres le redoutaient : c’est désormais officiel. Sous couvert de simplification administrative, la Commission européenne a annoncé un allègement substantiel des règles encadrant l’IA générative. Concrètement, les fournisseurs d’IA deviennent juges et parties : ils pourront auto-exempter leurs systèmes du statut « à haut risque » réservé à certains domaines critiques sans avoir à enregistrer cette décision dans la base de données publique de l’UE.
En parallèle, la Commission repousse les échéances de mise en conformité à l’AI Act : de août 2026 à décembre 2027 pour les systèmes d’IA déployés dans les domaines sensibles (police, justice, biométrie, élections), et jusqu’à août 2028 pour les produits de sécurité réglementés (aviation civile, machines industrielles). Pour justifier ce report, elle reprend à son compte l’argument des fournisseurs d’IA selon lequel le retard des standards techniques rend l’application du cadre actuel difficile. Mais elle passe sous silence l’article 41 de l’AI Act, qui lui permettait de définir des « spécifications communes » provisoires afin d’éviter tout retard.
Le CeSIA voit dans ce rétropédalage un affaiblissement de la protection des citoyens et un dangereux précédent susceptible d’encourager de futures demandes d’assouplissement du cadre juridique européen. Le projet reste soumis à validation par le Parlement européen et les États membres et fait l’objet d’une consultation publique.
Nouvelles frontières
Ce dont l’IA était incapable la semaine dernière
Le nouveau modèle d’IA de Google, Gemini 3 Pro, domine la majorité des classements et atteint 92 % au GPQA Diamond, un test de niveau master en physique, chimie et biologie (TechCrunch).
Claude Opus 4.5, le nouveau modèle d’Anthropic, prend la première place en programmation, devant OpenAI et Google (CNBC).
Une étude montre que 97 % des utilisateurs de la plate-forme de streaming Deezer ne parviennent plus à distinguer la musique humaine et la musique générée par IA (Euronews).
Pièces à conviction
L’état de l’art en sécurité de l’IA
La deuxième mise à jour du International AI Safety Report conclut que la maîtrise des risques de l’IA progresse, mais accuse un « retard persistant » par rapport à la vitesse de progrès de la technologie (International AI Safety Report).
Le responsable des réponses aux situations de crise de OpenAI quitte ses fonctions à la suite de la publication d’un rapport interne indiquant que des centaines de milliers d’utilisateurs de ChatGPT présenteraient des signes d’épisodes maniaques ou psychotiques (Wired).
Une équipe d’Anthropic et de Redwood Research montre que des modèles d’IA ayant appris à tricher dans un domaine développent une tendance générale à mentir et à manipuler leurs interlocuteurs (Anthropic).
Cadre légal
Pour que l’IA ne fasse pas la loi
Un communiqué de la Commission affirme que son projet de simplification de la réglementation de l’IA vise à « faire économiser des milliards d’euros aux entreprises et stimuler l’innovation » (site de la Commission européenne).
Depuis l’étranger, le revirement de la Commission européenne est perçu comme un recul face à la pression des entreprises technologiques (The New York Times).
Aux États-Unis, plusieurs grandes compagnies d’assurance ont demandé aux régulateurs fédéraux l’autorisation d’exclure les risques liés à l’IA de leurs polices d’assurance d’entreprises (Financial Times)
Géopolitique de l’IA
Coopération vs. compétition
Donald Trump met en garde contre une « surréglementation » de l’IA, estimant que 50 régimes différents au niveau des États feraient perdre aux États-Unis la course face à la Chine, et appelle à une loi fédérale unifiée (Reuters).
Jensen Huang, CEO de Nvidia, a déclaré que la Chine allait « gagner la course à l’IA » – invoquant le moindre coût de l’énergie et une régulation plus légère – puis s’est rattrapé en invitant les États-Unis à gagner la course (CNBC).
Donald Trump signe le décret actant le lancement la « Mission Genesis », un projet fédéral visant à centraliser la puissance de calcul et les jeux de données publics pour accélérer la découverte scientifique (Le Monde).
Travaux du CeSIA
Notre feuille de route pour une alliance des puissances intermédiaires de l’IA
Dans ce document, co-rédigé avec Yoshua Bengio, nous identifions les obstacles auxquels font face les puissances intermédiaires de l’IA – capacité de calcul limitée, fuite des talents, dispersion des données – et nous expliquons comment la coopération dans ces domaines pourrait leur permettre de redevenir compétitives face à la Chine et aux États-Unis, en privilégiant un modèle de développement éthique.
Dénonciation de l’affaiblissement et de l’application retardée de l’AI Act
Le CeSIA a pris position publiquement contre le « digital omnibus », dénonçant le report des obligations pesant sur les systèmes d’IA à haut risque et la suppression de certaines dispositions clés de transparence.







