Definición
Las alucinaciones son salidas confiadas pero incorrectas — citas fabricadas, jurisprudencia inventada, APIs imaginadas. Son el problema central de confiabilidad en aplicaciones LLM en producción. Mitigaciones: RAG con citas, salida estructurada, aumento de recuperación, arneses de evaluación, entrenamiento de rechazo, y prompting explícito de "no sé".
Ejemplo
Un LLM al que se le pregunta sobre un abogado real cita un caso judicial que no existe, con una citación completamente formateada.
Cómo Vedwix usa esto
Diseñamos sistemas para rechazar en lugar de alucinar. Cada salida que afecta a un usuario obtiene una cita o un fallback.
Trabajando en un proyecto de Alucinación?
Alucinación.
Cuéntanos sobre tu proyecto en tres frases o menos.
Iniciar un proyecto