ia

Hallucination (IA)

Phénomène où un modèle d'IA génère des informations plausibles mais factuellement incorrectes ou inventées.

L'hallucination en IA désigne la production de contenus qui semblent corrects et cohérents mais qui sont en réalité faux. C'est l'une des limitations majeures des LLM actuels.

Les hallucinations surviennent car les LLM prédisent le texte le plus probable statistiquement, sans véritable compréhension factuelle. Un modèle peut inventer des citations, des dates, des faits ou même des références bibliographiques qui n'existent pas.

Les techniques pour réduire les hallucinations incluent le RAG (ancrage dans des sources), le grounding, la vérification factuelle automatique et les garde-fous (guardrails).

Termes associés