Le « Grokipedia » d’Elon Musk n’est certainement pas Wikipédia

Si vous le pouvez, c’est peut-être le moment idéal pour faire un don à Wikipédia.

Wikipédia est une ressource en ligne précieuse qui, malgré des changements massifs sur le Web, a réussi à rester vraiment formidable jusqu’à ce jour. Aux côtés de millions d’autres utilisateurs, je visite le site quotidiennement pour apprendre quelque chose de nouveau ou vérifier mes connaissances existantes. À une époque où l’IA est incessant, Wikipédia est en quelque sorte un antidote.

Si vous regardez Wikipédia et pensez « c’est bien, mais une version IA serait bien meilleure », vous pourriez bien être Elon Musk. La société d’IA de Musk, xAI, vient de lancer Grokipedia (oui, c’est bien son nom), une encyclopédie en ligne qui ressemble beaucoup à Wikipédia en termes de nom et d’apparence. Mais sous le capot, les deux ne pourraient guère être plus différents. Même si la nouvelle « encyclopédie » n’en est qu’à ses débuts, je dirais qu’elle ne vaut pas la peine de l’utiliser, du moins pas pour quoi que ce soit de réel.

L’expérience Grokipédia

Lorsque vous chargez le site Web Grokipedia, il semble assez standard. Vous voyez le nom de Grokipedia, à côté du numéro de version (v0.1, au moment de la rédaction), à côté d’une barre de recherche et d’un compteur « Articles disponibles » (885 279). La recherche d’un article est également simple : vous saisissez une requête et une liste d’articles disponibles apparaît parmi laquelle vous pouvez sélectionner. Une fois que vous affichez un article, il ressemble à Wikipédia, mais extrêmement basique : il n’y a pas d’images, seulement du texte, bien que vous puissiez utiliser la barre latérale pour passer d’une section à l’autre de l’article. Vous trouverez également des sources, notées par des numéros, qui correspondent à la partie Références au bas de chaque article.

La principale différence entre Grokipedia et une version simple de Wikipédia est que ces articles ne sont pas écrits et édités par de vraies personnes. Au lieu de cela, chaque article est généré et « vérifié » par Grok, le grand modèle de langage (LLM) de xAI. Les LLM sont capables de générer de grandes quantités de texte en peu de temps et d’inclure des sources sur lesquelles ils extraient leurs informations, ce qui pourrait rendre le discours de Grokipedia intéressant pour certains. Cependant, les LLM ont aussi tendance à halluciner, ou, en d’autres termes, à inventer des choses. Parfois, les sources d’où l’IA puise sont peu fiables ou facétieuses ; d’autres fois, l’IA prend sur elle de « mentir » et de générer un texte qui n’est tout simplement pas vrai. Dans les deux cas, les informations ne sont pas fiables, surtout pas à première vue, c’est pourquoi il est troublant de voir qu’une grande partie de l’expérience est entièrement alimentée par Grok, sans intervention humaine.

Grokipédia contre Wikipédia

Musk présente Grokipedia comme une « amélioration massive » par rapport à Wikipédia, qu’il a critiqué pour avoir poussé la propagande, en particulier vers les idées et la politique de gauche. Il est donc ironique que certaines de ces entrées de Grokipedia soient elles-mêmes tirées de Wikipédia. Comme le souligne Jay Peters de The Verge, des articles comme MacBook Air notent ce qui suit en bas : « Le contenu est adapté de Wikipédia, sous licence Creative Commons Attribution-ShareAlike 4.0. » De plus, Peters a découvert que certains articles de Grokipedia, tels que la PlayStation 5 et le Lincoln Mark VIII, sont des copies presque identiques des articles correspondants sur Wikipédia.

Si vous avez suivi la politique et les activités politiques de Musk ces dernières années, vous ne serez pas surpris d’apprendre qu’il se situe du côté droit du spectre politique. Cela pourrait faire réfléchir quiconque envisage d’utiliser Grokipedia comme source d’informations impartiale, d’autant plus que Musk a continuellement réorganisé Grok pour générer des réponses plus favorables aux opinions de droite. Des critiques comme Musk affirment que Wikipédia est biaisé vers la gauche, mais Grokipedia est entièrement produit par un modèle d’IA avec un parti pris abject.

Vous verrez que vous vivez des expériences très différentes en lisant certains sujets sur Wikipédia et Grokipedia. L’article Tylenol de Wikipédia, par exemple, dit ce qui suit :

En 2025, Donald Trump a fait plusieurs déclarations sur un lien controversé et non prouvé entre l’autisme et le Tylenol. Ces déclarations, sur le lien entre le Tylenol pendant la grossesse et l’autisme, sont basées sur des sources peu fiables et sans preuves scientifiques.

Comparez cela à Grokipedia, qui consacre trois paragraphes au sujet, dont le premier commence :

De multiples études observationnelles et méta-analyses ont identifié des associations entre l’exposition prénatale à l’acétaminophène (l’ingrédient actif du Tylenol) et des risques accrus de troubles du développement neurologique (TDN) chez la progéniture, notamment le trouble déficitaire de l’attention/hyperactivité (TDAH) et les troubles du spectre autistique (TSA).

Cela dit, le deuxième paragraphe met en évidence certains des problèmes liés à ces études, tandis que le troisième souligne que certaines agences suggèrent que « les avantages l’emportent sur les risques non prouvés ».

De même, comme l’a repéré WIRED, l’article de Grokipedia, Transgender, met en évidence la croyance selon laquelle les médias sociaux pourraient avoir agi comme une « contagion » à l’augmentation de l’identification transgenre. Non seulement il s’agit d’une affirmation courante de la droite, mais ce mot particulier aurait pu être extrait d’un message d’un compte X de droite. L’article de Wikipédia, comme on peut s’y attendre, ne répond pas du tout à cette affirmation.

Grokipedia est également favorable aux affirmations non prouvées, controversées ou carrément absurdes. Comme le souligne Rolling Stone, il fait référence au « Pizzagate », une théorie du complot qui a conduit à une fusillade réelle, comme des « allégations », une « hypothèse » et un « récit ». Grokipedia donne du crédit au « Grand Remplacement », une théorie raciste lancée par les suprémacistes blancs.

Devriez-vous utiliser Grokipédia ?

Voici la réponse courte : non. Le problème que j’ai avec Grokipedia est double : premièrement, aucune encyclopédie ne sera fiable si elle est presque entièrement créée par des modèles d’IA. Bien sûr, certaines informations peuvent être exactes, et c’est formidable que vous puissiez voir les sources que le robot utilise, mais lorsque le risque d’hallucination est intégré à la technologie sans aucun moyen de le contourner, choisir d’éviter l’intervention humaine en masse garantit que les inexactitudes affecteront une grande partie de la base de connaissances de Grokipedia.

Comme si cela ne suffisait pas, cette Grokipedia est construite sur un LLM que Musk est ouvertement en train de bricoler pour générer des résultats qui correspondent plus étroitement à sa vision du monde et à la vision du monde d’une idéologie politique particulière. Hallucinations et préjugés : juste les ingrédients dont vous avez besoin pour un encyclopédie.

Le problème avec Wikipédia, c’est qu’il est écrit et édité par les humains. Ces humains peuvent demander des comptes à d’autres auteurs humains, en ajoutant de nouvelles informations lorsqu’elles deviennent disponibles et en corrigeant les erreurs lorsqu’ils les rencontrent. Il est peut-être frustrant de lire que votre secrétaire préféré à la Santé et aux Services sociaux « a favorisé la désinformation sur les vaccins et les théories du complot en matière de santé publique », mais c’est la réalité objective et scientifique. Supprimer ces descriptions objectives et recadrer la discussion d’une manière qui corresponde à une vision du monde déformée ne rend pas Grokipedia meilleur que Wikipédia, mais le rend inutile.