Glossaire · Français

LoRA

Low-Rank Adaptation : une méthode de fine-tuning légère qui entraîne de petites couches adaptatrices sur un modèle de base gelé.

Français · French

Définition

LoRA gèle les poids LLM originaux et entraîne de petites matrices de bas rang qui modifient le comportement du modèle. Le résultat : une fraction du stockage et du compute du fine-tuning complet, avec une qualité souvent comparable. Les adaptateurs LoRA peuvent être chargés et déchargés au runtime, donc un seul modèle de base peut servir plusieurs variantes spécialisées.

Exemple

Une entreprise fine-tune 5 adaptateurs LoRA sur une seule base Llama 3 — un par unité business — et bascule entre eux par requête.

Comment Vedwix utilise ceci

Approche par défaut de fine-tuning. Les fine-tunes complets sont réservés aux très grands jeux de données ou quand LoRA n'est pas suffisant.

Vous travaillez sur un projet de LoRA?

LoRA.

Décrivez votre projet en trois phrases ou moins.

Démarrer un projet

LoRA

Décrivez votre projet en trois phrases ou moins.

Démarrer un projet