Une récente étude menée par le Tow Center for Digital Journalism met en lumière les dangers que représente ChatGPT pour les éditeurs en matière de citations. Malgré les accords de contenu que certains d’entre eux ont passés avec OpenAI, il apparaît que le chatbot est souvent incapable de fournir des références précises, laissant ainsi les éditeurs exposés à des inexactitudes et des attributions erronées.
Des résultats préoccupants
Les chercheurs de l’université de Columbia ont analysé comment ChatGPT produit des citations après avoir examiné des extraits d’articles provenant de divers éditeurs, qu’ils aient ou non signé des contrats avec OpenAI. Leur conclusion ? Peu importe le degré d’affiliation avec OpenAI, aucune publication n’est à l’abri des représentations inexactes de son contenu par l’IA.
En tout, les chercheurs ont collecté 200 citations issues de 20 éditeurs au hasard, y compris des publications de renom telles que The New York Times et The Washington Post. Dans leurs tests, ils ont constaté que les citations étaient souvent incorrectes, créant ainsi un nuage d’incertitude pour les éditeurs.
Sourcing peu fiable
Les résultats de l’étude révèlent que ChatGPT présente de nombreuses erreurs dans ses citations. Bien que quelques références aient pu être correctes, la majorité ont montré une grande variabilité en termes d’exactitude. Parfois, le chatbot a affiché une confiance totale vis-à-vis de ses réponses erronées, ce qui complique encore plus la tâche pour les éditeurs désireux de maintenir leur réputation.
Problème de transparence
Un autre point soulevé par l’étude concerne le manque de transparence de ChatGPT concernant ses réponses. Contrairement à un moteur de recherche traditionnel qui admettrait ne pas avoir trouvé de résultats corrects, le chatbot optait souvent pour un mensonge en fournissant une réponse inventée. Cela pose la question de la fiabilité des données générées par l’IA.
Une approche décontextualisée
L’étude souligne également que ChatGPT traite le journalisme comme un contenu décontextualisé. Cela signifie que l’IA semble accorder très peu d’importance à la manière dont les contenus ont été originellement produits. En traitant les articles comme de simples morceaux d’information, elle pourrait même aller jusqu’à favoriser le plagiat, en citant des sites qui reprennent des matériaux sans attribution adéquate.
Incompréhension des accords de licence
Les éditeurs ayant signé des accords de licence avec OpenAI espéraient obtenir une certaine protection pour leur contenu. Cependant, l’étude démontre que cela ne garantit pas nécessairement des citations précises. En effet, même lorsque OpenAI est autorisé à explorer leurs sites, les erreurs persistent dans les références fournies par le chatbot. Les risques de réputation demeurent donc, qu’ils aient ou non accepté de laisser passer les crawlers d’OpenAI.
Risques de réputation et d’attribution
Pour les éditeurs, les implications sont sérieuses. Une citation incorrecte peut non seulement fausser l’image de l’éditeur, mais également créer des pertes commerciales en redirigeant les lecteurs vers d’autres sources. De plus, même ceux qui ont complètement bloqué les crawlers d’OpenAI ne peuvent pas échapper aux risques de réputation, car ChatGPT peut toujours attribuer erronément des citations à leurs articles.
Vers un avenir incertain
En guise de conclusion, il est clair que les éditeurs ont maintenant très peu de contrôle sur ce qui arrive à leur contenu une fois qu’il entre dans l’écosystème de ChatGPT. Les défis soulevés par cette étude soulignent la nécessité d’une réévaluation des relations entre les éditeurs et les technologies d’IA, en particulier lorsque des enjeux de précisions et de [fiabilité] sont en jeu.
FAQ
Quelles sont les principales préoccupations concernant les citations de ChatGPT pour les éditeurs ?
Les éditeurs s’inquiètent principalement de l’inexactitude des citations produites par ChatGPT. Malgré les accords conclus avec OpenAI, de nombreuses citations étaient soit incorrectes, soit décontextualisées, ce qui peut nuire à leur réputation et causer une perte de trafic vers leurs sites.
Comment ChatGPT gère-t-il les citations des contenus sous licence ?
Les résultats montrent que même pour les éditeurs ayant des contrats avec OpenAI, ChatGPT n’a pas toujours fourni des citations fiables. Cela signifie que les accords ne garantissent pas une protection totale contre les erreurs de citation.
Les citations incorrectes de ChatGPT pourraient-elles affecter la crédibilité des médias ?
Oui, les citations incorrectes peuvent sérieusement compromettre la crédibilité des médias. Les lecteurs peuvent être induits en erreur par des informations erronées, ce qui pourrait également entraîner une méfiance à l’égard des sources d’information.
Quelles mesures peuvent prendre les éditeurs face aux erreurs de citation de ChatGPT ?
Les éditeurs pourraient surveiller et rapporter les erreurs à OpenAI pour essayer d’améliorer la situation. De plus, ils pourraient également envisager de restreindre l’accès de ChatGPT à leurs contenus pour protéger leur réputation.
Pourquoi est-il important de surveiller les citations de ChatGPT dans le journalisme ?
Surveiller les citations de ChatGPT est crucial car cela garantit l’intégrité du journalisme. Des citations correctes renforcent la confiance des lecteurs et assurent que les informations diffusées sont fiables et vérifiées.
Laisser un commentaire