Définition
Un embedding est un vecteur de haute dimension — typiquement de 256 à 3072 dimensions — qui représente le sens sémantique d'un contenu. Les textes avec un sens similaire produisent des embeddings proches dans l'espace vectoriel. Les embeddings alimentent la recherche sémantique, les recommandations, la classification et l'étape de récupération dans RAG.
Exemple
Deux descriptions de produits pour "chaussures de course bleues" et "baskets athlétiques azur" produiraient des embeddings très proches, même si les mots se chevauchent à peine.
Comment Vedwix utilise ceci
Nous benchmarkons plusieurs modèles d'embedding par projet — text-embedding-3-large, voyage-3, gte — car le bon modèle dépend du domaine.
Vous travaillez sur un projet de Embedding?
Embedding.
Décrivez votre projet en trois phrases ou moins.
Démarrer un projet