ChatGPT : le patron d’OpenAI alerte sur les dangers de l’IA et appelle à plus de régulations

Sam Altman, PDG d’OpenAI, le dit lui-même : l’intelligence artificielle représente un danger pour notre société. Dans un billet de blog, ce dernier appelle ainsi les gouvernements à mettre en place un système de régulation de cette industrie en plein essor, sur le même modèle que ce qui a été mis en place pour le nucléaire.

openai
Crédits : 123rf

On ne compte plus les voix qui s’élèvent pour dénoncer les risques inhérents à l’IA pour notre société. On s’attendait moins, en revanche, à ce que l’une de ces alertes nous vienne tout droit du PDG d’OpenAI, l’entreprise la plus en vogue du secteur à l’heure actuelle. En effet, celui qui se trouve derrière la création de ChatGPT est formel : il est impératif de mettre rapidement en place un système de régulation de cette industrie à l’échelle mondiale.

« Il est possible que dans les dix prochaines années, les IA dépassent le niveau de compétence des experts dans la plupart des domaines, et qu’elles réalisent autant d’activités productives que l’une des plus grandes entreprises actuelles », écrit ce dernier dans un billet de blog. Selon lui, ce qu’il appelle la « superintelligence » sera bientôt la technologie la plus puissante de l’humanité.

L’un des leaders de l’IA appelle à plus de régulation sur l’IA

Malgré toutes les promesses que cela implique, il ne faut pas sous-estimer les risques qu’une telle puissance engendre, souligne-t-il. Aussi, Sam Altman propose trois pistes de réflexion pour mieux réguler ce secteur. Premièrement, il considère que les entreprises travaillant sur une intelligence artificielle doivent se coordonner pour mettre au point des méthodes de travail assurant la sécurité des utilisateurs.

Il imagine ainsi un appel à projets de la part des gouvernements, sur lequel toutes ces entreprises pourraient travailler ensemble, ou encore un accord commun pour définir les limites de la croissance de l’IA à ne pas dépasser chaque année. « Les entreprises devraient être responsables de respecter un très haut standard en matière de sécurité », ajoute-t-il.

Ensuite, Sam Altman avance que l’IA a besoin d’un régulateur similaire à l’Agence internationale de l’énergie atomique, qui a pour rôle d’assurer un usage pacifique de l’énergie nucléaire. « Tout effort dépassant un certain seuil de capacité […] devra être soumis à une autorité internationale qui pourra inspecter les systèmes, exiger des audits, vérifier la conformité aux normes de sécurité, imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité, etc. ».

Sur le même sujet — ChatGPT : vous ne croirez jamais combien le chatbot coûte chaque jour à OpenAI

Pour faire valoir son idée, le PDG d’OpenAI indique que les entreprises pourraient réfléchir ensemble à la manière de travailler aux côtés de cette agence internationale, ce qui permettrait de ne pas incomber la totalité de cette responsabilité aux gouvernements. Enfin, le dernier point porte sur les capacités techniques des entreprises à rendre l’IA sécurisée. Sam Altman assure qu’Open accorde beaucoup de ressources à la recherche dans ce domaine.

Ce dernier conclut tout de même en déclarant qu’il est nécessaire de laisser les entreprises développer leurs projets librement. ” Mais la gouvernance des systèmes les plus puissants, ainsi que les décisions relatives à leur déploiement, doivent faire l’objet d’un contrôle public rigoureux », assure-t-il, avant d’affirmer que l’IA est une question démocratique, sur lequel le peuple a également son mot à dire.

« Les systèmes actuels créeront une valeur considérable dans le monde et, bien qu’ils comportent des risques, le niveau de ces risques semble proportionnel à celui des autres technologies de l’internet et les approches probables de la société semblent appropriées.”, termine-t-il.

Source : OpenAI

Voir les commentaires
Ailleurs sur le web