Définition
Les hallucinations sont des sorties confiantes mais erronées — citations fabriquées, jurisprudence inventée, APIs imaginaires. Elles sont le problème central de fiabilité dans les applications LLM en production. Atténuations : RAG avec citations, sortie structurée, augmentation par récupération, harnais d'évaluation, entraînement au refus et prompting explicite "je ne sais pas".
Exemple
Un LLM interrogé sur un vrai avocat cite une affaire judiciaire qui n'existe pas, avec une citation entièrement formatée.
Comment Vedwix utilise ceci
Nous concevons les systèmes pour refuser plutôt qu'halluciner. Chaque sortie qui affecte un utilisateur reçoit une citation ou un fallback.
Vous travaillez sur un projet de Hallucination?
Hallucination.
Décrivez votre projet en trois phrases ou moins.
Démarrer un projet