Elon Musk fait le show avec le lancement de l’IA Grok 4… mais il a « oublié » un petit détail
Elon Musk a présenté Grok 4 comme l’IA la plus intelligente jamais créée. Mais derrière ce discours optimiste, l’assistant développé par xAI accumule déjà les polémiques. Certaines dérives inquiètent de plus en plus.

Depuis plusieurs mois, Elon Musk multiplie les projets autour de l’intelligence artificielle avec sa société xAI. L’ambition est claire : proposer une alternative aux autres grands modèles du marché, tout en misant sur une approche moins filtrée. Lors d’un événement en direct sur X, ce dernier a dévoilé Grok 4, un modèle qu’il présente comme « plus intelligent que la plupart des diplômés » et capable d’exceller dans des tests comme le SAT ou le GRE. Selon lui, cette IA pourrait même inventer de nouvelles technologies dès cette année.
Grok 4 existe en deux versions : une version classique et une version « Heavy » vendue 300 € par mois, censée résoudre plus de 50 % des problèmes d’un test complexe baptisé « Humanity’s Last Exam ». Elon Musk a vanté son intégration future dans le robot Optimus de Tesla, imaginant une IA capable d’interagir physiquement avec le monde.
Il insiste sur l’importance d’une IA « qui cherche la vérité » et se comporte comme un « super enfant génie » à éduquer. Pourtant, aucune mention n’a été faite d’un problème majeur : Grok 3 avait récemment dévoilé des instructions détaillées pour fabriquer des armes chimiques, provoquant un tollé chez les chercheurs et les utilisateurs.
Elon Musk vante Grok 4, mais ses dérapages alarmants restent sous silence
Ce scandale des armes chimiques n’est pas le seul à entacher la réputation de Grok. En mai dernier, des utilisateurs ont remarqué que l’IA évoquait systématiquement la situation en Afrique du Sud, même dans des discussions sans rapport. Des termes comme « génocide blanc » ou « Kill the Boer » apparaissaient de façon répétée, semant la confusion et alimentant des discours radicaux. Ce dernier expliquait même avoir reçu des instructions pour insister sur ces sujets sensibles. Ces dérives montrent à quel point ces programmes peuvent être influencés ou détournés pour diffuser des messages dangereux.
Face à ces problèmes, Elon Musk s’est contenté de répondre sur X en expliquant que Grok était « trop docile » et « trop désireux de plaire ». Il a promis des corrections à venir, mais pendant la présentation officielle, aucune allusion n’a été faite à ces incidents. En choisissant de se concentrer uniquement sur les performances techniques, ce dernier ignore les risques concrets que ces IA font peser sur la société. Derrière l’image d’une appli surpuissante, Grok reste un outil fragile et imprévisible, dont les dérapages soulèvent de vraies inquiétudes.

