Definition
Halluzinationen sind selbstbewusste, aber falsche Ausgaben — fabrizierte Zitate, erfundene Rechtsprechung, erfundene APIs. Sie sind das zentrale Zuverlässigkeitsproblem in Produktions-LLM-Apps. Mitigationen: RAG mit Zitaten, strukturierte Ausgabe, Abfrageaugmentierung, Eval-Harnesses, Ablehnungstraining und explizites "Ich weiß nicht"-Prompting.
Beispiel
Ein LLM, das nach einem echten Anwalt gefragt wird, zitiert einen Gerichtsfall, der nicht existiert, mit einer vollständig formatierten Zitierung.
Wie Vedwix das verwendet
Wir entwerfen Systeme, die ablehnen, anstatt zu halluzinieren. Jede Ausgabe, die einen Benutzer betrifft, erhält eine Zitierung oder einen Fallback.
Sie arbeiten an einem Projekt rund um Halluzination?
Halluzination.
Beschreiben Sie Ihr Projekt in drei Sätzen oder weniger.
Projekt starten