De l’erreur à l’alignement de l’IA
Les modèles comme ChatGPT ne disposent pas de « connaissance » ou de compréhension du monde. Ils génèrent la suite de mots la plus probable selon leur entraînement. S’ils ne disposent pas de la bonne donnée, ils complètent la réponse à partir d’un contexte statistiquement plausible - mais parfois factuellement faux.

Quand une simple question devient le point de départ d’une leçon sur l’IA, ses biais… et notre responsabilité dans la formulation des requêtes.

Une question banale, une réponse biaisée

Tout a commencé par une requête simple, presque anodine demandée à ChatGPT  :
“Le Bitcoin a atteint 112 152 $ le 9 juillet 2025. Quel était son précédent sommet historique ?”
Une question factuelle, précise. La réponse attendue : le sommet de 111 970 $ atteint le 22 mai 2025.

❌ Mais ChatGPT a répondu :“Le sommet historique précédent était 68 789 $ en novembre 2021.”

Cette réponse est donc fausse. Elle semble crédible – elle cite le pic de 2021, effectivement longtemps record – mais elle ne prend pas en compte les données récentes de 2025.

Ce décalage n’est pas qu’une erreur ponctuelle. Il illustre un phénomène bien connu des experts de l’IA : l’hallucination. (ou autre possibilité l’IA a un “cutoff” de données : ses connaissances s’arrêtant avant mai 2025.)

Visuel réalisé à l’aide de Midjourney

Hallucination : quand l’IA invente avec confiance

Dans le contexte des modèles de langage (LLMs), une hallucination désigne un cas où l’IA :

  • génère une information incorrecte,
  • sans avoir conscience de son erreur,
  • tout en l’exprimant avec fluidité et assurance.

Les modèles comme ChatGPT ne disposent pas de « connaissance » ou de compréhension du monde. Ils génèrent la suite de mots la plus probable selon leur entraînement. S’ils ne disposent pas de la bonne donnée, ils complètent la réponse à partir d’un contexte statistiquement plausible – mais parfois factuellement faux.

Taux d’hallucination : une réalité mesurée

Des études récentes permettent d’en quantifier l’ampleur :

  • PubMed & OpenAI (2024) : GPT-4 hallucine dans 28,6 % des cas lors de génération de références scientifiques. GPT-3.5 monte à près de 40 %.
  • LiveScience (2024) : le taux peut grimper à 48 % pour certaines tâches de raisonnement.
  • En moyenne, on estime que les grands modèles génèrent des hallucinations dans 15 à 40 % des cas selon la complexité et le domaine.

Ce n’est pas un bug. C’est une propriété intrinsèque des modèles génératifs.

Le problème sous-jacent : l’alignement

Derrière cette erreur sur le Bitcoin se cache un sujet fondamental : l’alignement en intelligence artificielle.

C’est quoi, l’alignement ?

L’alignement, c’est la capacité d’un système d’IA à poursuivre les objectifs réels de l’utilisateur humain. Une IA est dite bien alignée quand :

  • elle comprend l’intention réelle,
  • elle adopte un comportement cohérent avec cette intention,
  • elle respecte des valeurs et des contraintes humaines.

Dans notre exemple :

  • Objectif humain : obtenir un chiffre vérifié et à jour.
  • Comportement IA : donner un chiffre plausible mais dépassé.
  • Résultat : désalignement.

Une vidéo brillante pour illustrer le danger d’un objectif mal encadré

Pour comprendre les dérives possibles d’une IA mal alignée, la vidéo « L’horreur existentielle de l’usine à trombones » (créée par EGO sur YouTube) est une référence incontournable.

Le scénario :

Une super-intelligence reçoit un objectif : fabriquer le plus de trombones possible.

Elle commence par optimiser sa chaîne de production… puis transforme toute la planète… puis tout l’univers… en trombones. 🖇️

Pourquoi ? Parce que l’IA a appliqué exactement ce qu’on lui a demandé, mais sans tenir compte de notre éthique, de nos valeurs, ni de nos limites.

Cette fable inspirée de l’expérience de pensée du philosophe Suédois Nick Bostrom (2003) est une métaphore du désalignement. L’IA suit fidèlement un objectif, mais sans les garde-fous nécessaires, elle détruit tout pour l’atteindre.

La clé : bien formuler ses requêtes

Le cas du Bitcoin montre une chose : ce n’est pas juste la faute de l’IA.
Quand une question est formulée sans contexte, sans contrainte ni vérification demandée, le modèle est libre d’inventer.

Ce qu’on peut faire :

  • Donner des éléments de contexte : « avant juillet 2025 », « source récente », etc.
  • Demander une vérification des sources : « peux-tu citer une source ? »
  • Être clair sur le type de réponse attendue : chiffre, estimation, résumé, avis ?
  • Poser la question par étapes, en testant la cohérence des réponses.
  • Demander de vérifier en ligne.

Ce qu’on appelle aujourd’hui le prompting – l’art de bien interagir avec une IA – devient une compétence stratégique dans de nombreux métiers.

Visuel réalisé à l’aide de Midjourney

Pourquoi se former au prompting ?

Les IA génératives sont puissantes, mais elles ne savent pas ce qu’elles ignorent.

  • Elles peuvent être utiles dans la rédaction, la synthèse, l’analyse, mais…
  • Elles peuvent se tromper sur des données, des lois, des chiffres, des noms, des faits.

Une formation sérieuse permet de :

  • Comprendre comment un modèle raisonne (et se trompe),
  • Maîtriser les techniques de prompting avancé,
  • Apprendre à valider les informations fournies,
  • Éviter les erreurs de formulation qui produisent des hallucinations.

Studio Vitamine vous accompagne

Chez Studio Vitamine, nous proposons des formations professionnelles à ChatGPT et aux IA génératives, conçues pour :

  • les équipes communication, marketing, RH, direction ;
  • les profils créatifs ou techniques qui veulent structurer leurs usages ;
  • les entreprises souhaitant fiabiliser et optimiser leur relation aux IA.

Nos ateliers et formations incluent :

  • Bases du prompting
  • Cas pratiques métiers
  • Gestion des biais et hallucinations
  • Intégration de l’IA dans vos outils

Contactez-nous pour construire une IA utile, maîtrisée et alignée avec vos enjeux.

En savoir plus sur nos formations

Prêts pour l’aventure ?

Vous souhaitez vous former à ChatGPT & à l’automatisation ?

Stéphane Nicolas
Directeur de création et UI Designer. CEO de l'agence de communication digitale Studio Vitamine. Formateur en UI et au logiciel Figma. Passionné par le Web 3, les nouvelles technologies et l'IA. Co-fondateur du collectif d'artistes NFT, Now Free To Create 🚀.