Definición
Un embedding es un vector de alta dimensión — típicamente de 256 a 3072 dimensiones — que representa el significado semántico de un contenido. Los textos con significado similar producen embeddings que están cerca en el espacio vectorial. Los embeddings impulsan la búsqueda semántica, recomendaciones, clasificación, y el paso de recuperación en RAG.
Ejemplo
Dos descripciones de productos para "zapatillas de correr azules" y "zapatos atléticos de color azul" producirían embeddings muy cercanos, aunque las palabras apenas se solapen.
Cómo Vedwix usa esto
Comparamos varios modelos de embeddings por proyecto — text-embedding-3-large, voyage-3, gte — porque el modelo correcto depende del dominio.
Trabajando en un proyecto de Embedding?
Embedding.
Cuéntanos sobre tu proyecto en tres frases o menos.
Iniciar un proyecto