Pour Elon Musk, l’IA est un véritable danger pour l’humanité

Elon Musk est connu pour être un entrepreneur téméraire, qui n’a pas peur de briser ni les barrières ni les interdits. Alors, quand il signe aux côtés de centaines d’autres personnalités du monde scientifique une lettre ouverte qui demande un moratoire de six mois sur le développement de l’IA, on a plutôt tendance à tendre l’oreille.

elon musk
Crédits : Daniel Oberhaus

Me Musk et ses confrères estiment que le nouveau modèle développé par OpenAI, GPT-4, est déjà bien trop puissant pour le bien de l’Humanité. Dans une lettre ouverte publiée par le Future of Life Institute, une ONG cherchant à « diminuer les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’IA », ils nous mettent en garde contre les risques pour la société et la civilisation que représente l’Intelligence artificielle. Ces dangers s’exprimeront sous la forme de perturbations économiques et politiques.

À lire — Microsoft vous a fait tester la nouvelle version de l’Intelligence artificielle de ChatGPT à votre insu

ChatGPT, le chatbot nourri à l’IA, est arrivé sur le devant de la scène en novembre 2022. Le modèle de langage utilisé à ce moment-là était GPT-3. Le public s’est immédiatement approprié ce service. Il aura fallu moins de 5 mois à son concepteur pour développer son successeur, aux capacités tout simplement hallucinantes.

Elon Musk est angoissé par les progrès de l’IA, il veut mettre son développement en pause

GPT-4 est une IA multimodale, qui comprend à la fois le texte et les images. Lorsque l’on sait que ChatGPT est d’ores et déjà l’un des outils préférés des pirates, on n’ose imaginer les dégâts que va engendrer une IA générative omnisciente. Les plus optimistes tentent de nous convaincre que, tout comme le problème, la solution viendra du progrès technologique.

Microsoft, qui implémente désormais l’Intelligence artificielle dans toute sa ligne de produits, vient de lancer un nouvel outil de cyberdéfense nommé Security Copilot. Cela ne suffira pas à rassurer les scientifiques les plus anxieux. La lettre ouverte précise ainsi : « les systèmes d’IA puissants ne devraient être développés que lorsque nous serons certains que leurs effets seront positifs et que leurs risques seront gérables ».

Source : Le Monde


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !