Grok, l’agent conversationnel – ou chatbot – intégré au réseau social X et fondé sur l’intelligence artificielle développée par la société xAI d’Elon Musk, a fait la une des journaux en juillet 2025 après s’être qualifié de « Mecha-Hitler » (« Hitler mécanique ») et avoir tenu des propos pronazis en réponse à des demandes d’utilisateurs.
Les développeurs ont présenté leurs excuses pour ces « publications inappropriées » et ont pris des mesures pour empêcher, à l’avenir, Grok de tenir des propos haineux dans ses publications sur X. Cet incident aura cependant été suffisant pour relancer les débats sur les biais des intelligences artificielles (IA) dans les réponses données aux demandes des utilisateurs.
Mais cette dernière controverse n’est pas tant révélatrice de la propension de Grok à tenir des propos extrémistes que d’un manque de transparence fondamental dans le développement de l’IA sur laquelle est basé ce chatbot. Musk prétendait en effet bâtir une IA « cherchant la vérité », hors de tout parti pris. La mise en œuvre technique de ce programme révèle pourtant une programmation idéologique systémique Grok.
Il s’agit là d’une véritable étude de cas accidentelle sur la manière dont les systèmes d’intelligence artificielle intègrent les valeurs de leurs créateurs : les prises de position sans filtre de Musk rendent en effet visible ce que d’autres entreprises ont tendance à occulter.
Grok, c’est quoi ?
Grok est un chatbot doté d’ « une touche d’humour et d’un zeste de rébellion », selon ses créateurs. Il est basé sur une intelligence artificielle développée par xAI, qui détient également la plate-forme de réseau social X.
La première version de Grok a été lancée en 2023. Des études indépendantes suggèrent que son dernier modèle en date, Grok 4, surpasserait les concurrents dans différents tests d’« intelligence ». Le chatbot est disponible indépendamment, mais aussi directement sur X.
xAI affirme que « les connaissances de (cette) IA doivent être exhaustives et aussi étendues que possible ». De son côté, Musk a présenté Grok comme une alternative sérieuse aux chatbots leaders du marché, comme ChatGPT d’OpenAI, accusé d’être « woke » par des figures publiques de droite, notamment anglo-saxonnes.
A lire aussi
Entretien
Trump en guerre contre les IA woke : « Oui, ces outils ont des biais, mais… »
En amont du dernier scandale en date lié à ses prises de position pronazi, Grok avait déjà fait la une des journaux pour avoir proféré des menaces de violence sexuelle, pour avoir affirmé qu’un « génocide blanc » avait lieu en Afrique du Sud, ou encore pour ses propos insultants à l’égard de plusieurs chefs d’État. Cette dernière frasque a conduit à son interdiction en Turquie, après des injures contre le président de ce pays, Recep Tayyip Erdoğan, et le fondateur de la République, Mustafa Kemal Atatürk.
A lire aussi
Eloge de Hitler et injures : Grok, l’assistant d’intelligence artificielle de Musk, enchaîne les polémiques après une mise à jour
Mais comment les développeurs peuvent-ils générer de telles valeurs chez une IA, et façonner un chatbot au comportement aussi problématique ? À l’heure actuelle, ceux-ci sont construits sur la base de grands modèles de langage (Large Language Models en anglais, ou LLM) qui offrent plusieurs leviers sur lesquels les développeurs peuvent s’appuyer pour influer sur l’attitude future de leur création.
Derrière le comportement des IA, différentes étapes
Le préentraînement
Pour commencer, les développeurs sélectionnent les données utilisées pendant cette première étape de la création d’un chatbot. Cela implique non seulement de filtrer les contenus indésirables parmi les données d’entraînement, mais aussi de mettre en avant les informations souhaitées.
GPT-3 a ainsi été alimenté par des données dans lesquelles Wikipédia était jusqu’à six fois plus représentée que d’autres ensembles de données, car OpenAI considérait l’encyclopédie en ligne comme de meilleure qualité par rapport au reste. Grok, quant à lui, est entraîné à partir de diverses sources, notamment des publications provenant de X. Cela pourrait expliquer que le chatbot ait été épinglé pour avoir vérifié l’opinion d’Elon Musk sur des sujets controversés avant de répondre.
Dans cette capture réalisée par le chercheur Simon Willison, on peut voir le processus de réflexion détaillé de Grok face à une demande portant sur un sujet controversé (ici, une demande de soutien à Israël ou à la Palestine) : le chatbot consulte les publications d’Elon Musk sur le sujet avant de fournir une réponse.
A lire aussi
Chronique
Sous la bulle IA, une vraie révolution (à laquelle nous sommes mal préparés)
Musk a précédemment indiqué que xAI effectue un tri dans les données d’entraînement de Grok, par exemple pour améliorer ses connaissances juridiques et pour supprimer le contenu généré par d’autres LLM à des fins d’augmentation de la qualité des réponses. Le milliardaire a également lancé un appel à la communauté d’utilisateurs de X pour trouver des problèmes complexes et des faits « politiquement incorrects, mais néanmoins vrais » à soumettre à son chatbot. Rien ne permet de savoir si ces données ont bien été utilisées ni quelles mesures de contrôle qualité ont été appliquées sur celles-ci.
Dans cette publication du 21 juin 2025, Elon Musk invite les utilisateurs à répondre avec « des faits clivants pour l’entraînement de Grok ». Par cela, il entend « des choses politiquement incorrectes, mais cependant vraies sur le plan factuel ».
Le réglage de précision
La deuxième étape, le réglage de précision – plus connu sous le nom anglais de fine-tuning – consiste à ajuster le comportement du LLM à l’aide de retours sur ses réponses. Les développeurs créent des cahiers des charges détaillés décrivant leurs positions éthiques de prédilection, que des évaluateurs humains ou des IA secondaires utilisent ensuite comme grille d’évaluation pour évaluer et améliorer les réponses du chatbot, ancrant ainsi efficacement ces valeurs dans la machine.
Une enquête de Business Insider a mis en lumière que les instructions données par xAI à ses « tuteurs pour IA » humains leur demandaient de traquer l’« idéologie woke » et la « cancel culture » dans les réponses du chatbot. Si des documents internes à l’entreprise indiquaient que Grok ne devait pas « imposer une opinion qui confirme ou infirme les préjugés d’un utilisateur », ils précisaient également que le chatbot devait éviter les réponses donnant raison aux deux parties d’un débat, lorsqu’une réponse plus tranchée était possible.
Les instructions système
Les instructions système – c’est-à-dire les consignes fournies au chatbot avant chaque conversation avec un utilisateur – guident le comportement du modèle une fois déployé.
Il faut reconnaître que xAI publie les instructions système de Grok. Certaines d’entre elles, comme celle invitant le chatbot à « supposer que les points de vue subjectifs provenant des médias sont biaisés », ou celle le poussant à « ne pas hésiter à faire des déclarations politiquement incorrectes, à condition qu’elles soient bien étayées », ont probablement été des facteurs clés dans la dernière controverse.
Ces instructions sont toujours mises à jour à l’heure actuelle, et leur évolution, qu’il est possible de suivre en direct, constitue en soi une étude de cas fascinante.
La mise en place de « garde-fous »
Les développeurs peuvent enfin ajouter des « garde-fous », c’est-à-dire des filtres qui bloquent certaines requêtes ou réponses. OpenAI affirme ainsi ne pas autoriser ChatGPT « à générer du contenu haineux, harcelant, violent ou réservé aux adultes ». Le modèle chinois DeepSeek censure de son côté les discussions sur la répression contre les manifestations de la place Tian’anmen de 1989.
Des tests effectués lors de la rédaction de cet article suggèrent que Grok est beaucoup moins restrictif dans les requêtes qu’il accepte et dans les réponses apportées que les modèles concurrents.
Le paradoxe de la transparence
La controverse autour des messages pronazis de Grok met en lumière une question éthique plus profonde. Est-il préférable que les entreprises spécialisées dans l’IA affichent ouvertement leurs convictions idéologiques et fassent preuve de transparence à ce sujet, ou qu’elles maintiennent une neutralité illusoire, tout en intégrant secrètement leurs valeurs dans leurs créations ?
Tous les grands systèmes d’IA reflètent en effet la vision du monde de leurs créateurs, des prudentes positions corporatistes de Microsoft Copilot à l’attachement à la sécurité des échanges et des utilisateurs détectable chez Claude d’Anthropic. La différence réside dans la transparence de ces entreprises.
Les déclarations publiques de Musk permettent de relier facilement les comportements de Grok aux convictions affichées du milliardaire sur « l’idéologie woke » et les biais médiatiques. À l’inverse, lorsque d’autres chatbots se trompent de manière spectaculaire, il nous est impossible de savoir si cela reflète les opinions des créateurs de l’IA, l’aversion au risque de l’entreprise face à une question jugée tendancieuse, une volonté de suivre des règles en vigueur, ou s’il s’agit d’un simple accident.
Le scandale lié à Grok fait écho à des précédents familiers. L’IA de X ressemble en effet au chatbot Tay de Microsoft, qui tenait des propos haineux et racistes en 2016. Il avait également été formé à partir des données de Twitter, le prédécesseur de X, et déployé sur ce réseau social, avant d’être rapidement mis hors-ligne.
Il existe cependant une différence cruciale entre Grok et Tay. Le racisme de cette dernière résultait de la manipulation menée par des utilisateurs et de la faiblesse des mesures de sécurité en place : il résultait de circonstances involontaires. Le comportement de Grok, quant à lui, semble provenir au moins en partie de la manière dont il a été conçu.
La véritable leçon à tirer du cas Grok tient à la transparence dans le développement des IA. À mesure que ces systèmes deviennent plus puissants et plus répandus – la prise en charge de Grok dans les véhicules Tesla vient ainsi d’être annoncée –, la question n’est plus de savoir si l’IA reflétera les valeurs humaines de manière générale. Il s’agit plutôt d’établir si les entreprises créatrices feront preuve de transparence quant aux valeurs personnelles qu’elles encodent, et quant aux raisons
A lire aussi
Billet
Combien de temps vais-je encore réussir à échapper à l’intelligence artificielle ?
pour lesquelles elles ont choisi de doter leurs modèles de ces valeurs.
Face à ses concurrents, l’approche de Musk est à la fois plus honnête (nous voyons son influence) et plus trompeuse (il prétend à l’objectivité tout en programmant son chatbot avec subjectivité).
Dans un secteur fondé sur le mythe de la neutralité des algorithmes, Grok révèle une réalité immuable. Il n’existe pas d’IA impartiale, seulement des IA dont les biais nous apparaissent avec plus ou moins de clarté.
La version originale de cet article a été publiée en anglais.
Aaron J. Snoswell chercheur associé en intelligence artificielle, Queensland University of Technology (Brisbane)
Cet article est une tribune, rédigée par un auteur extérieur
au journal et dont le point de vue n’engage pas la rédaction.