Spécialiste des enjeux politiques et géopolitiques de la Tech et enseignante à Columbia GC, Sciences Po et l’École polytechnique, Asma Mhalla a animé la conférence finale de cette 5e édition, “La Tech au service des prédateurs”, au théâtre Ducourneau à Agen, aux côtés de David Djaïz. Elle était l’une des têtes d’affiche de l’événement.
Vous étiez déjà venue aux Rencontres Michel-Serres en 2023 pour parler d’intelligence artificielle. Pensiez-vous que cela évoluerait aussi vite ?
Asma Mhalla : Sur les IA génératives, on a des résultats plus pertinents, moins d’erreurs, mais ce sont des sauts incrémentaux (par palier, ndlr). J’entends les inquiétudes de chercheurs comme Hinton ou Bengio face au risque de perte de contrôle. C’est toute l’ambivalence : à la fois des outils formidables, mais aussi formidablement destructeurs. D’où la nécessité d’une réflexion politique, morale et juridique. L’IA, aujourd’hui, c’est la promesse de l’efficience, de la performance, mais on n’est pas encore au stade d’une intelligence autonome capable de tout détruire.
Dans votre livre Technopolitique, vous expliquez que le numérique est un espace politique. En quoi l’est-il ?
A. M. : La technologie est devenue une infrastructure civilisationnelle à partir de laquelle tout se déploie. On ne peut plus penser la guerre sans les IA, les logiciels ou les clouds, ni le fait social sans les réseaux sociaux, les applications ou les plateformes. L’industrie et l’économie en dépendent tout autant. Ce sont des infrastructures émotionnelles, cognitives, attentionnelles – donc, par définition, politiques. D’autant qu’elles sont aujourd’hui concentrées entre les mains de quelques acteurs, ce qui pose la question cruciale de la gouvernance : qui décide quoi ? Penser la technologie comme neutre est une folie furieuse. Conçue par des humains, elle est, par nature, soumise à des agendas politiques et idéologiques.
Cela est-il dangereux pour la démocratie ?
A.M : Non, je ne dis pas que la technologie est dangereuse pour la démocratie. Je dis que des infrastructures privatisées entre les mains d’acteurs extra-communautaires posent question de la capacité à intégrer des citoyens dans la discussion. C’est toute la frontière entre technocritique et technophobie : la technocritique consiste à problématiser un sujet pour essayer de l’éclairer. Je ne suis pas phobique de la technologie ; bien gouvernée, elle peut être extraordinaire. Ce qui me pose problème aujourd’hui, c’est sa gouvernance : que ce soit Altman, Musk et Zuckerberg qui décident. C’est une véritable confiscation du débat collectif.
Développer une IA à l’échelle européenne permettrait-il de gagner en indépendance ?
A. M : On a déjà des initiatives comme Mistral. Mais nous avons surtout d’excellents chercheurs dans nos laboratoires, qui ne sont pas assez soutenus, notamment par le secteur privé. Dire “développons une IA en Europe” ne veut pas dire grand-chose si on ne sait pas sur quel maillon de la chaîne de valeur on se positionne : les semi-conducteurs, les compétences, l’interface finale ? C’est une question de politique industrielle – et, sur ce terrain, la France et l’Europe ne sont pas très bons.
Lors de votre intervention, vous avez évoqué la nécessité d’une vision européenne. Cela passe-t-il aussi par un nouveau contrat social ?
A.M : Nécessairement. Aujourd’hui, l’une des personnes qui réfléchit au contrat social, c’est Sam Altman, notamment sur la question de la redistribution de la valeur et de la richesse, avec une IA qui est censée grignoter des parts énormes de production de richesse, et donc d’emplois. Donc oui, si on ne s’approprie pas très vite ces questions-là, elles vont être là encore préemptées par des acteurs technologiques sur lesquels nous n’avons aucun contrôle.
Quels sont selon vous les angles morts du débat public sur l’intelligence artificielle ?
A. M. : La politique publique. Nous n’avons aujourd’hui pas de discours sur ces phénomènes, ni d’articulation entre les questions énergétiques et technologiques. Il reste encore du travail à faire là-dessus.

