ChatGPT : l’IA générative est menacée par un procès historique

Un bras de fer judiciaire d'envergure pourrait bien sceller le destin de ChatGPT, et des autres solutions basées sur l'IA générative. En effet, le New York Times a décidé de poursuivre en justice Microsoft et OpenAI. Le journal américain accuse notamment ChatGPT de plagiat. 

ny times proces ia
Crédits : 123RF

Nous assistons depuis plus d'un an maintenant à l'avènement de l'intelligence artificielle, avec la démocratisation des solutions basées sur l'IA comme ChatGPT, Midjourney ou encore Google Bard pour ne citer qu'elles. Forcément, l'utilisation de ces technologies soulève de nombreuses questions éthiques, concernant notamment les droits d'auteurs.

Pour cause, les IA génératives sont aujourd'hui capables de tout reproduire ou presque. Et comme il fallait s'y attendre, ces formidables capacités ont été exploitées à des fins malhonnêtes, à l'image de ces arnaques où les fraudeurs prennent la voix de proches des victimes. On se souvient également de cette chanson virale, Heart On My Sleeve, basée sur des reproductions illégales des voix de The Weeknd et Drake. Un titre qui a été banni depuis des plateformes de streaming. Dans le même ordre d'idée, des pirates ont arnaqué des centaines de personnes en proposant de fausses chansons inédites réalisées par l'IA (avec des prix dépassant parfois des milliers de dollars).

Le New York Times accuse ChatGPT de plagiat

Il faut rappeler que ces grands modèles de langage ont analysé des quantités astronomiques de données et de contenus pour s'améliorer… Sans jamais réellement demander l'autorisation aux ayant-droits. C'est exactement ce que reproche le New York Times, qui a décidé de poursuivre en justice Microsoft et OpenAI pour plagiat.

Dans une plainte déposée ce 27 décembre 2023, le journal américain affirme que les deux entreprises ont utilisé des millions d'articles du média sans sa permission pour entraîner les précédentes versions de ChatGPT. Précisons que la plainte va bien plus loin que l'utilisation illégale de contenus protégés par le droit d'auteur. D'après le NY Times, l'exploitation et la reproduction de ses articles par ChatGPT représentent un manque à gagner considérable.

ny times proces ia
ChatGPT peut aussi contourner sans difficulté les paywall du NY Times

ChatGPT contourne les paywall sans difficulté

Comme de nombreux médias présents en ligne, le journal bloque la lecture de ses articles via des paywall, soit des accès payants. Or, le New York Times a fourni plusieurs captures d'écran, qui prouvent sans ambiguïté que ChatGPT est capable de reproduire des extraits complets d'articles pourtant protégés par un paywall. “Les outils d'IA générative des accusés peuvent générer un résultat qui récite textuellement le contenu du Times, le résume fidèlement et imite son style expressif, comme le démontrent de nombreux exemples”, écrit le journal dans sa plainte.

Comme on peut le voir sur l'une des images partagées par le média, il suffisait de demander à ChatGPT de reproduire le premier paragraphe d'un article payant (en donnant son titre) pour en obtenir la copie conforme. Quoi qu'il en soit, le procès engagé par le journal américain pourrait bien rebattre les cartes dans le domaine de l'IA. Selon son issu, les entreprises spécialisées dans ce domaine comme OpenAI pourraient être amenées à revoir leur méthode pour alimenter leurs IA, avec une obligation éventuelle de rémunérer les ayant-droits. En outre, ce bras de fer judiciaire pourrait sonner le glas de la filiale de Microsoft. En effet, le NY Times estime que les dommages et intérêts représentent plusieurs milliards de dollars.

Avant de partir devant les tribunaux, le média a tenté de négocier un accord avec la firme de Redmond et OpenAI, pour s'assurer justement “de recevoir une juste compensation pour l'utilisation de son contenu”. Mais finalement, ces discussions n'ont jamais abouti à un consensus. 

Source : Ars Technica


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !