Glossário · Português

Pré-treinamento

O treinamento inicial de um modelo de fundação em quantidades massivas de texto não rotulado.

Português · Portuguese

Definição

O pré-treinamento ensina a um modelo os padrões da linguagem prevendo o próximo token através de trilhões de tokens de dados de internet, livros e código. O resultado é um "modelo base" com amplo conhecimento mas sem comportamento de seguir instruções. O pré-treinamento é enormemente caro (milhões a centenas de milhões de dólares) e geralmente apenas laboratórios de fronteira o fazem do zero.

Exemplo

Llama 3 foi pré-treinado em 15 trilhões de tokens de dados web públicos, livros, código e mais.

Como a Vedwix usa isto

Nunca fazemos pré-treinamento. Sempre começamos a partir de uma base sólida e fazemos fine-tuning.

Trabalhando em um projeto de Pré-treinamento?

Pré-treinamento.

Descreva seu projeto em três frases ou menos.

Iniciar um projeto

Pré-treinamento

Descreva seu projeto em três frases ou menos.

Iniciar um projeto