Newsletter du CeSIA #1
Dans cette newsletter : Rapport de la Commission de l'IA, Investissements massifs dans l'IA à l'échelle mondiale, Tables rondes organisées par le CeSIA...
Bienvenue sur la première newsletter du Centre pour la Sécurité de l'IA (CeSIA) ! Le CeSIA est une nouvelle organisation qui vise à promouvoir un développement sûr et bénéfique de l’intelligence artificielle pour tous.
Nous sommes ravis de partager avec vous les dernières actualités et ressources sur l'intelligence artificielle et sa gouvernance.
Actualités francaises
Rapport Commission de l’IA. Le rapport très attendu de la commission de l'IA vient d'être publié. Selon les projections, l'IA générative pourrait gonfler le PIB français de 400 milliards d'euros d'ici à 2030. Anne Bouverot et Philippe Aghion encouragent un investissement massif dans l'IA, qui pourrait transformer la majorité des emplois.
Le CeSIA salue cet effort pour sa vision et son ambition, et a publié sa réponse : une série de recommandations visant à renforcer cette étude en étendant l'analyse aux innovations qui se présentent à l'horizon, comme les systèmes à haut niveau d'autonomie. Nos quatre recommandations sont les suivantes : lancer un travail prospectif sur les avancées technologiques en IA à un horizon de 5 ans, investir dans l'évaluation des systèmes d'IA, orienter les efforts de recherche et de développement vers les technologies d'IA spécialisées et à fort impact positif, et investir dans la recherche et le développement de contre-mesures techniques face aux risques liés à l'IA.
Préparation du Sommet pour l’action sur l’IA Français. Alors que le prochain Sommet de l'IA s'organise à Séoul (voir ci-dessous), celui devant être organisé en France en novembre 2024 sera repoussé à début 2025. Dans l’attente de ce sommet, et étant donné le rythme effréné des progrès dans les capacités des modèles d’IA, nous soulignons l'urgence de la situation et l’importance pour les gouvernements et les acteurs clés du domaine de se coordonner rapidement pour établir un cadre de gouvernance solide.
Lourde amende pour Google. L'Autorité de la concurrence française a infligé une amende de 250 millions d'euros à Google pour des manquements liés aux règles de propriété intellectuelle de l'UE dans ses relations avec les éditeurs de presse. Le régulateur a notamment cité des préoccupations concernant le service d'IA de l'entreprise, Bard (renommé depuis Gemini), qui aurait été entraîné sur du contenu provenant d'éditeurs et d'agences de presse sans les en informer. Google a accepté de ne pas contester les faits dans le cadre d'une procédure de règlement et a proposé une série de mesures pour remédier à certaines lacunes. Cette amende s'inscrit dans un contexte où de nombreux éditeurs, écrivains et rédactions cherchent à limiter l'utilisation non autorisée de leurs contenus en ligne par les services d'IA.
Actualités mondiales
Appel à la prudence sur les agents avancés. Un article de recherche publié dans la revue Science, co-écrit par Michael Cohen et Yoshua Bengio, appelle à la mise en place d'une gouvernance stricte pour s'assurer que les systèmes d'IA capables de raisonner et planifier sur le long terme, et dépassant certains niveaux de capacités, ne puissent pas être développés. Les auteurs soulignent qu’il n’existe pas encore de tests de sécurité qui pourraient nous convaincre que ces systèmes sont sûrs, et que ceux-ci pourraient échapper à notre contrôle et causer des dommages catastrophiques ou existentiels pour l'humanité.
Sélection de cibles militaires assistée par l’IA. Le projet Maven du Pentagone utilise l'intelligence artificielle pour permettre aux opérateurs de sélectionner des cibles plus de deux fois plus rapidement qu'un opérateur humain sans assistance de l'IA. Un opérateur a décrit son interaction avec l'algorithme comme un "staccato rapide d'acceptation : Accepter. Accepter. Accepter." Cet article révèle l'utilisation croissante de l'IA par l'armée américaine dans ses opérations militaires, et la tendance vers des armes toujours plus autonomes.
Préparatifs du Sommet sur l'IA à Séoul. Le Royaume-Uni et la République de Corée vont de l'avant avec les préparatifs du Sommet sur l'IA à Séoul, qui se tiendra les 21 et 22 mai prochains. Ce sommet, qui fait suite à celui de Bletchley Park en novembre dernier, réunira les principaux acteurs mondiaux de l'IA pour discuter de la sécurité de cette technologie, aborder les capacités des modèles d'IA les plus avancés et promouvoir l'innovation et l'inclusivité dans ce domaine. Les développeurs seront également invités à prendre de nouveaux engagements en matière de sécurité de l'IA.
Investissements massifs dans l'IA à l'échelle mondiale. Plusieurs pays viennent d'annoncer des investissements publics importants dans l'IA. Le Canada a annoncé un investissement de 2 milliards de dollars dans un nouveau fonds d'accès au calcul pour l'IA, ainsi que la création d'un Institut pour la sécurité de l'IA doté de 50 millions de dollars. Singapour a quant à lui prévu dans son nouveau budget 375 millions de dollars pour l'achat de GPUs. Enfin, l'Arabie Saoudite envisage un investissement de 40 milliards de dollars dans l'IA en partenariat avec la société Andreessen Horowitz, ce qui en ferait le plus grand investisseur mondial dans ce domaine.
Événements
Tables rondes organisées par le CeSIA. La troisième édition des Dialogues de Turing, notre cycle de tables rondes ouvertes à toutes et à tous sur les enjeux de l'IA, aura lieu le jeudi 25 avril. Elle portera sur “L’IA, moteur de transformation pour le travail et l'éducation”.
Deuxième journée du Deep Learning pour la Science. Cet événement gratuit aura lieu le vendredi 24 mai 2024 de 9h à 17h30, et vise à favoriser le partage d'expériences dans l'utilisation des outils d'intelligence artificielle dans divers domaines scientifiques. Des intervenants issus de différentes disciplines présenteront leurs usages des méthodes d'IA tout au long de la journée. Vous aurez également l'opportunité de participer activement en présentant votre projet lors de la session "Mon projet en 3 minutes" ou en exposant un poster. Inscrivez-vous dès maintenant et rejoignez-nous pour une journée riche en échanges et en découvertes !
Liens / en bref
L’annonce d’Udio, une application pour générer de la musique créée par des ex-chercheurs de DeepMind, aux résultats impressionnants.
Tyler Perry suspend une expansion de studio à 800 millions de dollars après avoir découvert les nouveaux modèles de génération de vidéo.
Une proposition de marchés réglementaires privés, par Anthropic et OpenAI :
Selon une étude de Berkeley, les LLMs se rapprochent des performances humaines en matière de prévision.
EpochAI a publié une nouvelle base de données recensant les modèles d’IA à forte intensité de calcul, qui offre un aperçu des tendances récentes, notamment l'accélération de leur rythme de publication.
Le WMDP (Weapons of Mass Destruction Proxy) est un nouveau benchmark pour LLMs composé de 4 157 questions à choix multiples sur les connaissances dangereuses en biosécurité, cybersécurité et sécurité chimique.
Le rapport AI Index 2024 de Stanford est sorti, regroupant et distillant des informations pour mieux comprendre le domaine de l’IA.
Il faudrait d'abord définir ce qu'est un logiciel d'IA. Le logiciel libre https://github.com/RefPerSys/RefPerSys/ peut-il être un logiciel d'IA ou bien le devenir en quelques mois? REFPERSYS (REFlexive PERsistent SYStem) tourne sous Linux. (Basile Starynkevitch, 92340 Bourg-la-Reine, France, <basile@starynkevitch.net>)
We first need to define artificial intelligence. Could REFPERSYS (REFlexive PERsistent SYStem) open source software https://github.com/RefPerSys/RefPerSys/ be considered (or become in a few months) an open source AI software? (Basile Starynkevitch, 92340 Bourg-la-Reine, France, <basile@starynkevitch.net>)