Affirmer que ChatGPT est infaillible serait aussi risqué que de confier la météo à un horoscope. Les intelligences artificielles sont désormais partout, et leur capacité à générer des réponses instantanées fascine autant qu’elle inquiète. Mais dans cette avalanche d’informations, une question s’impose : à quel point peut-on se fier à ce que nous livre ChatGPT ?
Précision et vérification des informations fournies par ChatGPT
La confiance envers ChatGPT est loin d’être acquise. Le Tow Center de la Columbia University s’est penché sur la version Search de l’outil d’OpenAI. Les chiffres dévoilés n’incitent pas à la sérénité : sur 200 citations passées au crible, 153 se sont révélées erronées ou partiellement correctes, soit une exactitude qui plafonne à 23,5 %. Autrement dit, la majorité des réponses ne tient pas la route.
ChatGPT Search ne se contente pas de se tromper : il invente parfois des réponses, attribue des citations à la mauvaise source et, le plus souvent, ne reconnaît même pas ses propres limites. Sur la totalité des cas analysés, il n’a avoué son incapacité à répondre que 7 fois. Ce refus d’admettre ses zones d’ombre crée un terrain glissant pour celles et ceux qui s’appuient sur ses réponses.
Comparaison avec d’autres outils
Pour y voir plus clair, l’étude du Tow Center a mis ChatGPT Search face à Perplexity AI, un autre moteur conversationnel. Perplexity AI, qui s’appuie sur pas moins de 29 sources pour bâtir ses résultats, affiche des capacités de raisonnement et une rigueur bien plus affûtées. Là où ChatGPT Search pêche par manque de vérification, Perplexity brille par sa méthode et sa précision. Ces différences ne sont pas anodines et révèlent des failles structurelles dans la façon dont ChatGPT Search gère et vérifie ses informations.
Quelques chiffres pour illustrer ces écarts :
- 76,5 % des réponses de ChatGPT Search s’avèrent erronées
- Perplexity AI s’appuie sur 29 sources différentes pour ses réponses
- ChatGPT Search ne signale son incapacité à répondre que dans 3,5 % des cas
Mat Honan, à la tête de la rédaction du MIT Tech Review, n’a pas mâché ses mots : selon lui, ChatGPT Search pêche clairement par manque de transparence sur ses sources et ses méthodes de validation. L’utilisateur se retrouve alors dans le flou, sans véritable moyen de savoir d’où proviennent les informations affichées à l’écran. Pour renforcer la confiance, il devient urgent que les concepteurs de ces IA adoptent une politique de vérification et de clarté bien plus stricte.
Les limites et risques des réponses générées
Les ratés de ChatGPT Search ne se limitent pas à des imprécisions. L’outil a déjà attribué, à tort, des citations à des médias prestigieux. Un exemple : une déclaration issue de l’Orlando Sentinel s’est retrouvée signée du Time Magazine. Autre cas : une citation du New York Times a été assignée à DMS Retail, un site plus connu pour ses méthodes douteuses que pour sa rigueur journalistique.
Cette confusion ne s’arrête pas là. Lors d’une recherche sur l’actualité du Vendée Globe, ChatGPT Search a attribué une citation tantôt au New York Times, tantôt au Washington Post. De quoi rendre perplexe même l’utilisateur le plus indulgent.
Ces dérives génèrent plusieurs effets indésirables :
- Désinformation : l’utilisateur peut croire à des faits inexacts, parfois inventés de toutes pièces.
- Perte de crédibilité : journalistes, blogueurs ou professionnels risquent de voir leur réputation écornée s’ils s’appuient sur ces réponses.
- Confusion : l’absence de cohérence dans l’attribution des sources laisse l’utilisateur dans l’incertitude permanente.
Face à ce constat, il devient évident que l’exploitation de ChatGPT Search dans des domaines où la véracité prime nécessite une vigilance redoublée. Les erreurs d’attribution et d’invention montrent qu’on ne peut pas tout déléguer à l’intelligence artificielle, surtout quand l’exactitude de l’information est la pierre angulaire du métier.
Impact sur les utilisateurs et les professionnels
Utiliser ChatGPT, que ce soit pour des recherches personnelles ou professionnelles, implique de naviguer entre promesses de rapidité et risques de faux pas. L’étude du Tow Center de la Columbia University l’illustre bien : l’outil se trompe trois fois sur quatre. Pour les professionnels qui s’appuient sur ces résultats, la vigilance est de mise. Un journaliste qui relayerait une information erronée s’expose à perdre la confiance de son public. Pour les chercheurs, chaque donnée doit être minutieusement recoupée, ce qui complexifie et rallonge le processus de vérification.
Les conséquences concrètes de ces ratés sont claires :
- Désinformation : l’utilisateur risque d’être trompé par des contenus inexacts.
- Perte de crédibilité : médias et experts voient leur image fragilisée.
- Confusion : les incohérences sèment le doute et rendent la prise de décision plus difficile.
Devant cette situation, des voix s’élèvent. Mat Honan, rédacteur en chef du MIT Tech Review, a pointé le manque de transparence de ChatGPT Search. OpenAI se doit désormais de renforcer ses procédures de contrôle pour offrir des réponses à la fois précises et vérifiables.
Mesures pour améliorer la fiabilité et la confiance
Améliorer la fiabilité de ChatGPT Search passe par plusieurs axes d’action. D’abord, mettre en place des protocoles de vérification automatique des sources. Perplexity AI a déjà montré la voie : en croisant près de trente sources pour chaque réponse, le risque d’erreur se réduit considérablement. ChatGPT gagnerait à s’en inspirer pour diminuer les fausses citations et limiter la propagation d’informations douteuses.
Transparence et traçabilité
La transparence doit devenir une priorité pour OpenAI. Les utilisateurs ont besoin de savoir d’où viennent les données affichées et comment elles ont été sélectionnées. Une traçabilité renforcée permettrait à chacun de juger de la solidité des réponses. Voici quelques pistes pour aller dans ce sens :
- Indication des sources : mentionner explicitement les références utilisées pour chaque réponse.
- Historique des modifications : donner accès à l’évolution des réponses en temps réel.
Collaboration avec des experts
Associer des spécialistes de différents secteurs à l’amélioration des réponses générées ferait gagner en fiabilité. Un contrôle humain, en complément de l’automatisation, renforcerait la qualité des résultats. Les collaborations avec des institutions telles que le Tow Center de la Columbia University pourraient jouer un rôle déterminant.
Amélioration continue
Les modèles d’OpenAI doivent évoluer en intégrant systématiquement les retours et analyses des erreurs passées. L’apprentissage continu, stimulé par les retours des utilisateurs, permet de corriger les biais et d’affiner la pertinence des réponses. S’adapter, ajuster, perfectionner : c’est la seule voie pour transformer un outil prometteur en allié fiable.
| Mesures | Objectifs |
|---|---|
| Vérification automatique des sources | Réduire les erreurs et améliorer la précision |
| Transparence des sources | Permettre la traçabilité des informations |
| Collaboration avec des experts | Renforcer la crédibilité des réponses |
| Amélioration continue des algorithmes | Adapter et optimiser les modèles en fonction des retours |
La technologie avance vite, mais la confiance ne suit qu’à pas comptés. Rester lucide face à la machine, c’est garder la main sur ce qui compte : la vérité, la crédibilité, et la capacité de distinguer la lumière du bruit. Demain, la question ne sera peut-être plus « peut-on se fier à ChatGPT ? », mais « peut-on s’en passer ? »


