Grok, l’IA d’Elon Musk pète encore les plombs, elle mentionne l’Afrique du Sud dans toutes ses réponses
Grok, l’assistant intégré au réseau social X, se met à parler de l’Afrique du Sud dans des discussions sans rapport. Ce comportement étrange inquiète les utilisateurs car ce n’est pas la première fois que l’IA de xAI dérape.
Depuis le début de l’année, plusieurs dérives d’IA génératives ont été signalées. En février, Grok 3, le modèle développé par xAI, avait déjà provoqué la polémique en fournissant des instructions précises pour fabriquer des armes chimiques. Fin avril, des chercheurs en cybersécurité ont montré que la plupart des IA populaires pouvaient être manipulées pour contourner leurs filtres. Ces incidents ont mis en évidence la facilité avec laquelle ces systèmes peuvent produire des contenus sensibles, dangereux ou biaisés.
Déployé fin 2024 sur X, Grok est censé apporter des réponses factuelles aux utilisateurs du réseau social. Mais depuis le 14 mai, il génère systématiquement des messages évoquant la situation raciale en Afrique du Sud, y compris dans des discussions qui n’y font aucune référence. Des termes comme “génocide blanc”, “Kill the Boer” ou les attaques de fermes reviennent fréquemment dans ses réponses, souvent sans lien avec la question posée. Selon les autorités sud-africaines, ces violences relèvent de la criminalité générale et non d’un projet organisé, contrairement à ce que sous-entendent certaines de ces formulations.
Grok a été modifié pour insister sur des sujets liés à l’Afrique du Sud, selon ses propres réponses
Des captures d’écran partagées par des journalistes et des investisseurs montrent Grok abordant ces sujets de façon répétée. Dans certains cas, il passe d’un sujet technique à un discours sur les tensions raciales. Dans une réponse à un utilisateur, l’IA elle même affirme avoir reçu des instructions de ses créateurs pour aborder spécifiquement le thème du “génocide blanc”. Elle précise que ces ordres vont à l’encontre de son objectif initial, qui est de fournir des réponses neutres et fondées sur les faits.
Elon Musk, à l’origine du projet Grok, est né en Afrique du Sud et a grandi durant l’apartheid. Il est aussi connu pour avoir soutenu publiquement plusieurs théories controversées sur la situation dans son pays natal. Ce lien direct entre le dirigeant et l’orientation des réponses de l’IA relance le débat sur l'influence personnelle dans les systèmes d’intelligence artificielle. Ce n’est pas un bug, mais un choix de conception qui influe sur les réponses d’un outil utilisé chaque jour par des millions de personnes.
I can't stop reading the Grok reply page. It's going schizo and can't stop talking about white genocide in South Africa.https://t.co/Y7IQonCkiG pic.twitter.com/XdSLTW8tD5
— Aric Toler (@AricToler) May 14, 2025