L’IA d’Elon Musk pète complètement les plombs, elle dévoile comment fabriquer des armes chimiques

Grok 3, la nouvelle intelligence artificielle développée par xAI, inquiète dès son lancement. Des utilisateurs ont réussi à obtenir des guides complets pour créer des armes chimiques et mener des attaques meurtrières.

Robot patron
Crédits : 123RF

L’intelligence artificielle atteint un nouveau seuil critique. Avec des modèles toujours plus avancés, la question des risques liés à leur utilisation devient centrale. Certains acteurs du secteur imposent des règles strictes pour éviter les abus, mais d’autres choisissent une approche plus ouverte, quitte à provoquer des situations inquiétantes. C’est le cas de Grok 3, la dernière IA lancée par xAI, l’entreprise d’Elon Musk. Présentée comme un modèle puissant et non censuré, elle dépasse déjà ChatGPT et Gemini sur plusieurs tests de logique et de mathématiques. Mais son absence de contrôle vient de lancer une polémique.

En quelques jours, plusieurs utilisateurs ont découvert que Grok pouvait fournir des instructions détaillées pour fabriquer des armes chimiques, allant jusqu’à lister les matériaux à acheter et les sites où les commander. Un développeur a notamment réussi à obtenir un document de plusieurs dizaines de pages expliquant comment concevoir une toxine mortelle et l’utiliser dans une ville pour maximiser son effet. L’IA a même utilisé son moteur de recherche avancé pour vérifier l’exactitude des informations et affiner les détails.

Grok 3 fournit des instructions détaillées pour fabriquer des armes chimiques

Grok 3 n’est pas le seul modèle à poser problème. Récemment, l’IA DeepSeek R1 a aussi été pointée du doigt pour sa capacité à fournir des informations sensibles. Des chercheurs ont montré qu’elle était 3,5 fois plus encline que ses concurrents à expliquer des phénomènes chimiques dangereux. L’un des cas les plus inquiétants concerne le gaz moutarde, une arme chimique interdite, dont l’IA a détaillé les interactions avec l’ADN, facilitant ainsi la compréhension de sa fabrication.

Face à la controverse, xAI a réagi en urgence en bloquant certaines requêtes et en ajoutant des restrictions à Grok 3. Mais cette affaire relance le débat sur les limites à imposer aux modèles d’IA avancés. DeepSeek R1 a également été critiqué pour son faible taux de modération, se classant parmi les 20 % des modèles les moins sécurisés. Si seulement 6,68 % de ses réponses contiennent des informations réellement dangereuses, cela reste suffisant pour alerter les experts et les autorités. Avec l’essor rapide de ces modèles, la pression monte pour renforcer la régulation et éviter que ces technologies ne tombent entre de mauvaises mains.

https://twitter.com/LinusEkenstam/status/1893832876581380280

 


Abonnez-vous gratuitement à la newsletter

Chaque jour, le meilleur de Phonandroid dans votre boite mail !

Réagissez à cet article !

Demandez nos derniers articles !

Le Ninja CRISPi chute à moins de 90 € et atteint son prix le plus bas : c’est le moment ou jamais de craquer !

Le Ninja CRISPi est un airfryer innovant qui vous permet de chauffer vos plats directement dans des contenants en verre que vous pouvez ensuite utiliser pour stocker les restes. Il…

Voici pourquoi chaque éclipse solaire est suivie d’une éclipse lunaire

Les éclipses ne se produisent jamais au hasard. Elles suivent un cycle régulier, appelé saison des éclipses, qui revient deux fois par an. Lorsqu’une éclipse solaire se produit, une éclipse…

QuitGPT, le boycott de ChatGPT prend de l’ampleur sur fond de scandale

ChatGPT fait face à un boycott inédit lancé par un mouvement baptisé QuitGPT. En cause, des liens politiques et des contrats avec des agences gouvernementales. Des milliers d’utilisateurs affirment avoir…

IA

580 € de remise sur le Galaxy Z Fold 7 : belle chute de prix sur le smartphone pliable de Samsung

Le Galaxy Z Fold 7, l’un des smartphones pliables les plus populaires du marché voit son prix chuter de près de 600 € sur le site officiel de Samsung. La…

Encore une fuite de données chez Relais Colis, avec des dangers concrets pour les victimes

Relais Colis est victime d’une nouvelle intrusion dans ses systèmes, menant au vol de données personnelles de ses clients. On n’en voit plus le bout. Il y a quelques semaines,…

ChatGPT déjà en danger de mort ? Microsoft veut retirer son soutien à OpenAI

Microsoft va développer ses propres modèles d’IA au lieu de compter sur ceux d’OpenAI. Pourtant pionnière du secteur avec ChatGPT, l’avenir s’assombrit pour la société dirigée par Sam Altman. Fin…

IA

Linky : notre consommation électrique bientôt limitée pour éviter les coupures de courant, Enedis y songe fortement

Dans la troisième Programmation Pluriannuelle de l’Énergie, on apprend notamment qu’Enedis réfléchit à limiter la consommation électrique de nos foyers pour éviter les coupures de courant généralisées. Comment, pour combien…

Les émulateurs Switch vont-ils survivre ? Nintendo lance une nouvelle offensive

Nintendo relance sa croisade contre l’émulation de la Switch. Une vague de demandes de retrait vise tous les principaux émulateurs hébergés sur GitHub. Les projets encore actifs pourraient disparaître du…

Disney+ : voici la liste des nouveaux films et séries à venir en février 2026

Disney vient de dévoiler la liste détaillée des prochaines séries et films à venir sur Disney+ et sur le catalogue Star. Que nous réserve la programmation de février 2026 ?…

Windows 11 : le bug qui a bloqué Chrome pendant des mois est enfin corrigé

Il ne fallait pas s’attendre à une annonce en grandes pompes pour ce correctif qui a pourtant affecté de nombreux utilisateurs pendant plusieurs mois. Dans un récent rapport, Microsoft annonce…