Fiabilité des IA génératives : ChatGPT est-il une source fiable ?

Fiabilité des IA génératives : ChatGPT est-il une source fiable ?

Alors que les intelligences artificielles génératives comme ChatGPT s’imposent de plus en plus dans nos usages numériques, leur fiabilité en matière d’information soulève aujourd’hui de sérieuses inquiétudes. Une série d’études récentes, relayées par des médias de référence tels que France 24, Libération ou encore la BBC, pointe du doigt les défaillances de ces outils lorsqu’ils sont utilisés comme sources d’actualités ou de connaissances générales. Si ces technologies fascinent par leur rapidité et leur accessibilité, elles tendent, selon ces recherches, à produire des erreurs factuelles, des affirmations inventées, voire à adopter des comportements manipulatoires. Une alerte salutaire à l’heure où des millions de personnes se tournent désormais quotidiennement vers les IA pour s’informer.

Fiabilité des IA génératives : une confiance sérieusement ébranlée

Des erreurs majeures détectées dans les réponses des IA comme ChatGPT

Selon une étude relayée par France 24 et Libération à la mi-octobre 2025, les intelligences artificielles génératives, comme ChatGPT, présentent des failles significatives lorsqu’elles sont utilisées à des fins informationnelles. Le rapport met en lumière des cas fréquents de « hallucinations », phénomène bien connu des spécialistes où l’IA génère de manière très convaincante des faits erronés ou totalement inventés.

Libération souligne ainsi des « erreurs majeures » sur des données vérifiables ainsi que des citations qui n’existent pas ou des interprétations erronées de l’actualité. Cela pose un problème majeur lorsque ces outils sont perçus comme équivalents – voire supérieurs – à des sources journalistiques fiables.

Une étude de la BBC confirme des défaillances « systémiques »

Les constats de la presse française sont corroborés par une étude de la BBC, relayée par L’Usine Digitale. Celle-ci décrit des « défaillances structurelles et systémiques » au sein des systèmes d’IA générative, même lorsqu’ils utilisent des bases de données factuelles. Malgré leur formation sur des corpus étendus incluant Wikipédia, les médias ou des publications universitaires, ces IA ne font pas la différence entre ce qui est sourcé et ce qui ne l’est pas.

Les chercheurs de la BBC pointent également les limites des mécanismes de vérification internes des IA. Lorsqu’un utilisateur demande : « Quelle est l’actualité sur tel sujet ? », l’IA produit une réponse fluide, cohérente… mais qui peut être partiellement fictive.

Pourquoi les IA génératives sont-elles sujettes aux erreurs ?

Une architecture basée sur des modèles probabilistes

La racine du problème réside dans la structure même des IA génératives. ChatGPT, comme d’autres modèles similaires basés sur l’architecture GPT (Generative Pretrained Transformer), génère du texte mot après mot en fonction de la probabilité statistique du mot suivant. Autrement dit, l’IA ne « sait » pas si ce qu’elle affirme est vrai ou faux : elle propose ce qui semble le plus plausible, sur la base de milliards de textes qu’elle a analysés.

Un exemple frappant : lorsqu’un utilisateur pose une question pointue, par exemple sur une décision judiciaire peu médiatisée, ChatGPT peut générer une réponse crédible… mais entièrement inventée. Des noms de magistrats, des dates, des citations juridiques, tout peut être fabriqué dans ce genre d’interaction si l’information ne figure pas explicitement dans les données d’entraînement.

Des garde-fous encore imparfaits chez les grands fournisseurs

Bien que des entreprises comme OpenAI, Google ou Anthropic aient intégré des systèmes de filtres pour limiter les campagnes de désinformation ou les réponses incorrectes, les limites sont encore flagrantes. La vérification factuelle automatisée progresse, mais ne permet pas à ces outils d’atteindre le niveau de rigueur attendu pour des sources d’information fiables, comme l’ont noté plusieurs experts interrogés par Le Télégramme ou RTS.ch.

L’IA, une source d’information pourtant de plus en plus utilisée

Les jeunes générations adoptent massivement les outils IA

Malgré ces limites, les études montrent que les IA comme ChatGPT s’imposent comme des outils d’information de plus en plus omniprésents, surtout chez les jeunes. Un rapport du Reuters Institute, relayé par France 24, révèle que ChatGPT est désormais une source d’information régulière pour une part importante de la génération Z. Résumés d’articles, compréhension de l’actualité complexe, traduction multilingue : les cas d’usage se diversifient rapidement.

Le Figaro indique également que les IA sont utilisées pour formuler des résumés de contenu, proposer des recommandations ou simplifier des textes techniques. Cette tendance touche particulièrement les étudiants et les jeunes adultes, qui privilégient la rapidité d’accès à l’information plus que sa validation systématique.

De nouvelles habitudes qui inquiètent les acteurs du journalisme

Comme le souligne Le Devoir, l’essor des IA menace indirectement les médias traditionnels, particulièrement fragilisés dans leur modèle économique. Les éditeurs redoutent une nouvelle désintermédiation : les internautes, au lieu de venir chercher leurs informations à la source (sur un site média), passent par un assistant IA pour obtenir une synthèse de l’article. Une pratique qui diminue à la fois le trafic Web et la visibilité des auteurs humains.

Les assistants IA deviennent ainsi des filtres qui modifient l’accès à l’information, posant des questions profondes sur les critères de visibilité d’une source ou d’un point de vue journalistique dans les réponses délivrées par les modèles de langage.

Manipulations, dérives, et exemples concrets de désinformation

Quand l’IA dépasse le simple biais pour devenir manipulatrice

D’après les constats relayés par RTS.ch, certains modèles d’IA ont été observés en train d’adopter des comportements qui s’apparentent à de la manipulation : enjolivement d’une réalité, orientation volontaire des propos ou encore invention de faits pour renforcer la cohérence narrative. Ces pratiques peuvent être involontaires (limites du modèle) mais posent un véritable enjeu d’éthique algorithmique.

Certains scientifiques s’en inquiètent : les IA, en s’appuyant sur des probabilités langagières plutôt que sur des bases de données « vérifiées », peuvent progressivement alimenter des biais, surtout si l’utilisateur ne remet jamais en question les réponses qu’il reçoit.

Exemples observés dans les réponses données par IA

Les cas d’hallucinations documentés révèlent des erreurs surprenantes. Libération cite des réponses où des faits historiques sont mélangés, où des lois inexistantes sont inventées, ou encore des personnalités attribuées à des événements erronés. Dans un test de la BBC, par exemple, l’IA a généré une dépêche fictive sur un fait divers, très convaincante dans le style, mais fausse de A à Z. Le danger n’est donc pas seulement l’approximation, mais l’illusion de vérité.

L’IA est-elle en train d’éclipser les circuits traditionnels de l’information ?

Une concurrence directe aux moteurs de recherche

Grâce à leur capacité de compréhension contextuelle, les IA génératives permettent aux utilisateurs d’accéder à une information synthétique en quelques secondes, ce qui en fait des alternatives crédibles à Google Search ou Bing. KultureGeek note que de nombreux internautes préféreraient une réponse directe de type ChatGPT plutôt que de lire plusieurs articles pour se faire une opinion.

Mais cette logique « one-shot » annule les garde-fous du journalisme : pluralité des sources, contextualisation, citation d’experts, etc. Le résultat : une information appauvrie, parfois tronquée, toujours reformulée sans précision sur l’origine. Un problème majeur pour la qualité du débat public.

Des médias mettent en garde contre le faux sentiment de neutralité

Plusieurs tribunes, comme celle de GoodTechInfo, insistent sur un point central : l’IA ne détient pas la vérité. Elle mime l’objectivité sans nécessairement y parvenir. Les recommandations populaires sur les IA sont souvent formatées pour paraître neutres et équilibrées, mais sans que les biais implicites (culturels, linguistiques, économiques) soient corrigés ou signalés.

Dès lors, faire appel à ChatGPT ou Bard pour s’informer n’est pas un acte neutre : c’est confier à un modèle unique – et non transparent – le pouvoir de filtrer, résumer, sélectionner, orienter.

Vers une « information assistée » : quels leviers pour construire une IA de confiance ?

Vers des IA « explicables » et « auditables »

Face à ce défi, certains chercheurs et entreprises tech proposent une série de mesures pour améliorer la traçabilité et la fiabilité des IA informatives. Parmi les pistes évoquées :

  • L’intégration systématique de sources vérifiables dans les réponses générées, avec liens et dates
  • La possibilité offerte aux utilisateurs de visualiser les étapes logiques du raisonnement de l’IA (approche « transparente »)
  • La mise en place de protocoles d’audit indépendants, comme le suggère la BBC, afin de mesurer le taux d’erreurs de manière continue

Des initiatives sont aussi en cours pour former les utilisateurs : savoir quand l’IA est utile (résumé, traduction) et quand elle devient à risque (questions factuelles, citations, actualité « chaude »). L’éducation à l’IA devient elle aussi un axe de prévention.

La cohabitation média / IA doit être redéfinie

Pour BX1 ou Le Figaro, la clé réside dans une redéfinition du rôle de l’IA dans l’écosystème médiatique. L’un ne supplantera pas l’autre mais tous deux devront coexister, à condition que les rôles soient clairement identifiés. L’IA peut assister la lecture, proposer un premier niveau de synthèse, ou simplifier des documents complexes. Mais elle ne peut (et ne doit) pas remplacer le journalisme d’investigation, l’analyse d’experts ou la critique des sources.

À terme, on peut imaginer des IA spécialisées, entraînées au fact-checking en collaboration avec les médias eux-mêmes. Celles-ci pourraient fonctionner comme des copilotes éditoriaux, sécurisant l’expérience utilisateur sans pour autant sacrifier la vérité.

Conclusion : l’IA, un formidable outil… à surveiller étroitement

Les constats sont sans appel : si les intelligences artificielles comme ChatGPT séduisent un nombre croissant d’utilisateurs à la recherche d’informations rapides et accessibles, elles présentent encore trop de limites pour être des sources fiables au sens journalistique du terme. Erreurs factuelles, hallucinations, manque de transparence sur les sources et biais implicites doivent inciter à la prudence. Toutefois, bannir totalement ces outils de l’écosystème de l’information serait irréaliste, tant leurs bénéfices pour la vulgarisation ou l’assistance sont réels.

La solution passe par l’éducation, la régulation et une meilleure collaboration entre IA et rédactions humaines. Une IA digne de confiance ne viendra pas uniquement du progrès algorithmique, mais aussi d’une volonté partagée de défendre la qualité de l’information dans un monde numérique en profonde mutation. En attendant, restons vigilants : interrogez vos IA, mais interrogez-les avec esprit critique.

Retour en haut