Ne faites pas confiance aux moteurs de recherche IA, cette étude prouve qu’ils se trompent souvent et restent sûrs d’eux

Les moteurs de recherche basés sur l’IA sont censés révolutionner la recherche d’informations, mais une étude révèle un problème inquiétant. Jusqu’à 76 % des réponses fournies sont incorrectes, et pire encore, elles répondent avec une confiance absolue. Payer pour un modèle premium n’améliore pas forcément la situation.

Robot devant un PC
Crédits : 123RF

Depuis l’essor de l’intelligence artificielle, les moteurs de recherche IA comme ChatGPT Search, Microsoft Copilot ou Google Gemini promettent des réponses plus rapides et plus précises. Pourtant, une nouvelle étude menée par le Tow Center for Digital Journalism révèle que ces outils sont souvent plus faux que justes. Dans certains cas, ils affichent un taux d’erreur atteignant 76 %, tout en donnant l’impression d’être totalement fiables.

L’étude a testé huit moteurs de recherche IA en leur demandant d’extraire des informations simples de 10 articles issus de 10 médias différents. Il leur était notamment demandé de retrouver le titre de l’article, le nom du média et la date de publication. Résultat : ces derniers ont souvent fourni des informations incorrectes, tout en répondant avec assurance, sans jamais admettre qu’ils pouvaient se tromper.

Les moteurs de recherche IA sont convaincus d’avoir raison, même quand ils ont tort

Le cas le plus extrême est celui de Grok-3, le modèle premium d’X, qui a donné 76 % de réponses incorrectes ou partiellement erronées. Pire encore, les versions payantes ne sont pas plus précises : Perplexity Pro, facturé 20 € par mois, a obtenu de moins bons résultats que sa version gratuite. Autrement dit, payer plus cher ne garantit pas une meilleure fiabilité, mais simplement des erreurs plus confiantes.

L’étude a également montré que certains moteurs de recherche, censés respecter des restrictions d’accès, parviennent à contourner ces blocages. Par exemple, Perplexity a réussi à extraire des informations de National Geographic, pourtant protégé par un paywall et interdisant l’accès aux robots IA. Mais là encore, plusieurs programmes ont fourni des données incorrectes sur ces sites bloqués. Moralité : ces outils peuvent parfois récupérer des informations interdites, mais cela ne signifie pas qu’ils sont fiables. Face à ces résultats, il est plus que jamais essentiel de croiser ses sources et de ne pas faire aveuglément confiance aux réponses générées par l’IA.

Source : CJR


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !