Ce lundi 16 février, et jusqu’au vendredi 20, l’Inde accueille à New Delhi le sommet international sur l’intelligence artificielle (IA). Le premier s’est tenu en 2023 à Bletchley, en Angleterre. Son objectif principal était de traiter les risques de sécurité posés par les systèmes d’IA les plus avancés et de convenir d’actions internationales coordonnées pour gérer ces risques. La déclaration de Bletchley (en anglais), signée par 28 pays, affirmait ainsi « la nécessité urgente de comprendre et de gérer collectivement les risques potentiels » posés par les systèmes d’IA avancés.
Deux ans plus tard, le Sommet pour l’action sur l’IA à Paris a marqué un recul notable. La sécurité a été reléguée au second plan par les intérêts économiques. Le professeur Max Tegmark du MIT [Massachusetts Institute of Technology] a déclaré qu’« on avait presque l’impression qu’ils essayaient de défaire Bletchley », qualifiant l’omission de la sécurité dans la déclaration de « porte ouverte au désastre ». La déclaration finale ne contenait aucun engagement substantiel sur la sécurité malgré la publication du rapport international sur la sécurité de l’IA 2025, une évaluation scientifique de référence – comparable au Giec pour le climat – rédigée par plus de 100 experts internationaux documentant les risques posés par l’IA.
Le Sommet de l’impact de l’IA en Inde ne semble pas prendre la sécurité suffisamment au sérieux. De « sécurité » à « action » puis à « impact », la trajectoire est claire et préoccupante. L’axe « IA sûre et de confiance » se concentre sur l’« accès » à des « capacités » de gouvernance, alors même que le programme reconnaît que les mécanismes existants sont déjà trop fragmentés. Plutôt que de proposer une coordination robuste et systématique, il critique les instruments de réglementation comme étant des « freins » à l’innovation. De plus, il met l’accent sur la disponibilité d’outils sans reconnaître que leur adoption est rendue extrêmement difficile par les dynamiques économiques liées à la course effrénée vers des systèmes toujours plus puissants.
Le temps pour agir est compté
Alors qu’il y a quelques années, l’intelligence artificielle générale (IAG), un système d’IA capable d’accomplir l’ensemble des tâches cognitives d’un humain adulte, semblait encore une perspective lointaine, les débats portent désormais sur le nombre d’années voire de mois qui nous séparent de ce seuil. Les IA devancent déjà les performances humaines dans de nombreux tests de capacité intellectuelle. En 2025, une IA a par exemple remporté la médaille d’or aux Olympiades internationales de mathématiques. De plus, là où l’intelligence humaine est limitée par la biologie, l’IA peut traiter l’information à une vitesse considérablement supérieure et se dupliquer, créant potentiellement des millions de copies à travers le monde.
Que l’IA surpasse toutes les capacités cognitives humaines d’ici trois, cinq ou dix ans, il reste que ce délai est terriblement court et que l’humanité n’y est absolument pas préparée. L’IAG menace ainsi l’humanité de dangers sans précédent : la course aux armements autonomes, la transformation radicale du travail, la dépendance psychique et cognitive et la possibilité d’une perte de contrôle irréversible sur notre propre destinée.
Les prévisions sur l’IAG ne doivent toutefois pas conduire à négliger que les IA actuelles ont déjà un potentiel de nuisance alarmant. Dès aujourd’hui, l’IA abaisse drastiquement le seuil de compétence nécessaire pour mener des cyberattaques sophistiquées ou concevoir de nouvelles armes biologiques.
Mettre en pause le développement de l’IA
Alors que le nucléaire, l’aéronautique, la pharmacie et d’une manière générale toutes les activités économiques sont strictement encadrées, l’IA se développe dans un vide juridique presque total. Face aux risques considérables que représente l’intelligence artificielle, la faiblesse de sa réglementation constitue une anomalie inadmissible.
L’IA doit être réglementée à la hauteur de ses enjeux et cela ne peut se faire qu’à l’échelle internationale. Nous, cosignataires de cette tribune, appelons les gouvernements réunis à New Delhi, et en particulier la France, à changer de cap avec la signature d’un moratoire visant la mise en pause des modèles d’IA les plus avancés tant que les garde-fous nécessaires ne seront pas mis en place.
Par garde-fous, nous entendons :
- un régime de responsabilité clair et contraignant,
- des audits indépendants et standardisés,
- des protocoles d’interventions d’urgence,
- une obligation d’enregistrement et de classification des risques,
- une obligation de financement de la recherche en sécurité,
- l’établissement de lignes rouges sur les usages de l’IA posant des risques inacceptables,
- l’instauration d’une agence internationale de sécurité de l’lA similaire à l’AIEA (l’Agence internationale de l’Energie atomique),
- ainsi que des mécanismes de contrôle démocratique.
Il s’agit également de permettre une véritable consultation démocratique sur l’IA. Les décisions sur les IA avancées ne sauraient être prises par une poignée de dirigeants d’entreprises et d’actionnaires. Ce sont des questions de sécurité publique, dont nous sommes tous parties prenantes. C’est pourquoi nous appelons également la société civile à se mobiliser, à interpeller ses représentants et à soutenir activement les organisations dédiées à la maîtrise des risques liés à l’IA.
Le sommet de New Delhi est un moment critique. Nous pouvons encore inverser la tendance et faire remonter la sécurité au premier rang de l’agenda international.
Tribune à l’initiative de l’association Pause AI
Signataires
Colin De la Higuera, professeur et chaire Unesco Relia à l’université de Nantes ; Corentin Jorel, enseignant chercheur, Laboratoire Greyc, université de Caen ; Marius Bertolucci, enseignant-chercheur à l’université d’Aix-Marseille, auteur de « l’Homme diminué par l’IA » (Hermann, 2023) ; Peter Slattery, chercheur en sécurité de l’IA au laboratoire du MIT aux Etats-Unis ; Olle Häggström, professeur de statistiques mathématiques, université de technologie Chalmers, Suède ; Michael Noetel, docteur, professeur en psychologie à l’université de Queensland, Australie ; Dr. Véronique Donard, professeure et chercheuse en psychologie des machines intelligentes, université catholique de Pernambuco (Unicap), Brésil ; Patrick Albert, pionnier de l’intelligence artificielle, membre du bureau de Technologos ; Martin Gibert, philosophe, Centre de Recherche en Ethique ; Dr. Jérémy Perret, chercheur en sécurité de l’IA et conférencier ; Clément Dumas, chargé de recherche, normalien, MATS, ENS Paris-Saclay ; Eloïse Bénito, chercheuse indépendante en sécurité de l’IA ; Thomas Dossus, sénateur du Rhône, vice-président de la commission des Finances, groupe Ecologiste-Solidarité et Territoires ; Ghislaine Senée, sénatrice des Yvelines, groupe Ecologiste-Solidarité et Territoires ; René Pilato, député de Charente, groupe La France insoumise-NFP ; Max Andersson, ancien député européen de Suède et membre du groupe de travail sur la robotique et l’intelligence artificielle, Les Verts ; Daniel Kokotajlo, directeur exécutif de AI Futures Project ; Gaétan Marceau Caron, directeur principal, Mila, Institut québécois d’Intelligence artificielle ; Diego Hidalgo, essayiste et fondateur de Mouvement OFF ; Cédric Sauviat, président de l’Afcia (Association française contre l’Intelligence artificielle) ; Dr. Maxime Derian, cofondateur du think thank Technoréalisme, dirigeant de Heruka ; Paul Klotz, expert associé à la Fondation Jean-Jaurès ; Otto Barten, directeur de ERO (Existential Risk Observatory) ; Arnaud Megret, président d’Elokence ; Yanni Kyriacos, fondateur de Tara (Technical Alignment Research Accelerator) et Aisanz (AI Safety Australia & New Zealand) ; James Norris, fondateur et directeur exécutif au Center for Existential Safety ; Maxime Fournes, PDG de Pause AI Global ; Michael Kerrison, directeur exécutif de Aisanz ; Clémence Peyrot, directrice exécutive de Pause IA France ; Baptiste Detombe, essayiste et éthicien des nouvelles technologies ; Julien Gobin, philosophe et essayiste, enseignant à HEC Paris ; Sabine Van Haecke-Lepic, docteure en droit, avocate à la cour ; Theodore Brossollet, rédacteur en chef du média Penser c’est chouette ; Victor Fersing, journaliste, créateur du média La Fabrique sociale ; Vinz Kanté, fondateur du média LIMIT ; Shaïman Thürler, vulgarisateur scientifique sur les enjeux de l’IA et fondateur du média Le Futurologue ; Gaëtan Selle, réalisateur et cocréateur du média The Flares ; Gabriel Alfour ; Karl Glazebrook, professeur émérite d’astrophysique et membre lauréat, université de technologie de Swinburne (Melbourne, Australie), Académie des Sciences australienne ; Scott Alexander, blogueur sur la sécurité de l’IA ; tribune soutenue par les responsables des associations nationales de Pause AI dans 21 pays.
Cet article est une tribune, rédigée par un auteur extérieur
au journal et dont le point de vue n’engage pas la rédaction.

