Glossar · Deutsch

Halluzination

Wenn ein LLM plausibel klingende, aber faktisch falsche Informationen generiert.

Deutsch · German

Definition

Halluzinationen sind selbstbewusste, aber falsche Ausgaben — fabrizierte Zitate, erfundene Rechtsprechung, erfundene APIs. Sie sind das zentrale Zuverlässigkeitsproblem in Produktions-LLM-Apps. Mitigationen: RAG mit Zitaten, strukturierte Ausgabe, Abfrageaugmentierung, Eval-Harnesses, Ablehnungstraining und explizites "Ich weiß nicht"-Prompting.

Beispiel

Ein LLM, das nach einem echten Anwalt gefragt wird, zitiert einen Gerichtsfall, der nicht existiert, mit einer vollständig formatierten Zitierung.

Wie Vedwix das verwendet

Wir entwerfen Systeme, die ablehnen, anstatt zu halluzinieren. Jede Ausgabe, die einen Benutzer betrifft, erhält eine Zitierung oder einen Fallback.

Sie arbeiten an einem Projekt rund um Halluzination?

Halluzination.

Beschreiben Sie Ihr Projekt in drei Sätzen oder weniger.

Projekt starten

Halluzination

Beschreiben Sie Ihr Projekt in drei Sätzen oder weniger.

Projekt starten