Garde-à-vous @Grok
L'un des modèles les moins fiables équipera l'armée américaine, l'IA en excès de confiance, un meurtre assisté par ChatGPT ?

Bienvenue sur la lettre d’information du Centre pour la Sécurité de l’IA. Le CeSIA est un organisme à but non lucratif basé à Paris qui se consacre à la formation, à la recherche, à l’analyse et à la communication sur les enjeux et les risques liés à l’intelligence artificielle.
Dans un paysage médiatique saturé de chars d’assaut et de drones de combat, l’information est presque passée sous le radar : l’état-major américain a choisi xAI, la société d’Elon Musk, pour équiper trois millions de militaires d’assistants IA « basés sur la famille de modèles Grok ».
Le secteur de la défense est réputé particulièrement méticuleux dans le choix de ses prestataires. Cela s’entend : la moindre erreur de renseignement, la plus petite faille dans un système d’information ou une simple imprécision dans une chaîne de commandement peuvent faire la différence entre atteindre une cible et tuer des innocents. On s’attendrait donc logiquement à une obsession pour l’exactitude, la prévisibilité et la contrôlabilité des systèmes d’information déployés par les forces armées.
Grok incarne l’inverse de ces qualités. Déployé sur X pour jouer le rôle de juge infaillible et de sage omniscient, le chatbot s’est surtout illustré par sa propension à parler trop vite et trop fort. Après s’être révélé incapable de vérifier avec fiabilité des faits d’actualités, avoir fait l’éloge d’Adolf Hitler et propagé la thèse d’un “génocide blanc” en Afrique du Sud, son dernier fait d’armes a consisté à dénuder des femmes et des enfants sans leur consentement.
Ces scandales ne suffisent pourtant pas à résumer les performances de Grok en matière d’éthique et de sûreté. La société xAI arrive en dernière position du classement de SaferAI, qui évalue le cadre de sécurité des modèles de pointe, avec un score de 5 % en matière de traitement des risques. Le AI Safety Index, un autre classement indépendant établi par le Future of Life Institute, place lui aussi xAI en dernière position des entreprises technologiques américaines (ex æquo avec Meta). Les dérives de Grok ne sont donc pas accidentelles, mais le résultat d’une conception négligente et largement influencée par l’idéologie de son propriétaire.
Une IA n’ayant même pas eu à simuler la bienveillance et la coopération pour entrer dans le cockpit ? Kubrick aurait probablement jugé le scénario trop peu crédible.
Nouvelles frontières
Ce dont l’IA était incapable hier
Caterpillar noue un partenariat avec Nvidia pour automatiser ses bulldozers : bientôt la construction de data centers par des robots ? (TechCrunch)
Une étude montre que les modèles de langage ont tendance à se surestimer lorsqu’on leur demande s’ils sont capables d’accomplir une tâche – les derniers modèles d’Anthropic s’en sortent mieux (ArXiv).
Plusieurs développeurs de premier rang se déclarent impressionnés, dépassés voire inquiets des performances hors du commun de Claude Code, l’assistant développé par Anthropic (Reddit).
Pièces à conviction
L’état de l’art en sécurité de l’IA
Dans une nouvelle plainte, ChatGPT est accusé d’avoir encouragé un cadre de Yahoo à tuer sa mère puis à se suicider (Futurism).
Les entreprises Google et Character.AI sont sur le point de conclure leurs premiers accords à l’amiable avec des familles les accusant d’avoir contribué aux suicides de leurs enfants (TechCrunch).
D’après l’ONG AI Forensics, la moitié des images générées par Grok entre le 25 décembre et le 1er janvier représentaient des personnes partiellement dénudées (Le Monde).
Plusieurs milliers de Newyorkais se sont massés devant le pont de Brooklyn pour admirer le feu d’artifice de la nouvelle année… qui n’a jamais eu lieu dans ce quartier, contrairement à ce que laissaient penser des vidéos générées par IA (New York Post).
Géopolitique de l’IA
Coopération vs. compétition
Après une nouvelle levée de fonds portant la valeur de Anthropic à 350 milliards de dollars, la capitalisation de l’entreprise double en seulement trois mois (TechCrunch).
La Commission européenne va se pencher sur Grok après les signalements d’images sexuelles explicites générées par IA pour déshabiller de véritables personnes, femmes et enfants (Reuters).
Cadre légal
Pour que l’IA ne fasse pas la loi
Aux États-Unis, la contestation populaire face à la construction de nouveaux data centers devient un sujet politique local de premier plan (The Guardian).
Entre les craintes pour l’emploi, les scandales liés aux chatbots et la consommation de ressources, l’IA devient très impopulaire aux États-Unis : quel parti politique tirera profit de ce mécontentement ? (Politico)
La vie du CeSIA
Le CeSIA, évaluateur officiel des modèles de pointe pour l’UE
Nous sommes fiers d’avoir été sélectionné par le Bureau de l’IA pour évaluer les risques de manipulation nuisible liés aux modèles d’IA à usage général, dans le cadre du règlement européen sur l’IA. Nous le ferons au sein d’un consortium aux côtés nos partenaires EquiStamp et Transluce.
Concrètement, ces trois prochaines années, nous aiderons la Commission à mesurer et réduire les risques de manipulation à grande échelle liés à l’IA en :
définissant des scénarios de risque ;
développant des méthodes d’évaluation ;
effectuant un suivi régulier des nouveaux risques.







