Solucionado (ver solução)
Solucionado
(ver solução)
2
respostas

Algumas dúvidas em relação ao treinamento e uso de LLM

Acompanhando esse curso e outros materiais sobre LLM, surgiram algumas dúvidas:

  1. O treinamento de uma LLM se trata de refinar essas relações semânticas entre as palavras, ficando cada vez mais preciso?
  2. Seria possível alterar essa relações com base em textos falsos? (tentando entender um pouco a ética e vulnerabilidades)
  3. Uma vez que uma resposta é gerada e seu conteúdo pode e vai ser usado como por exemplo em um blog, o modelo aprenderia com seu próprio conteúdo?
  4. Os números que representam a palavra/subpalavra seria uma espécie de coordenada em um gráfico e a sua relação com outras uma função matemática que revela a proximidade?

Poderiam me sugerir livros/vídeos/artigos para me aprofundar mais sobre os detalhes do funcionamento de uma LLM, muitos artigos que encontro no google são rasos demais.

Muito obrigado.

2 respostas
solução!
  1. O treinamento de uma LLM se trata de refinar essas relações semânticas entre as palavras, ficando cada vez mais preciso? Sim. Durante o pré-treinamento, a LLM aprende representações vetoriais de palavras/subpalavras (chamadas de embeddings), ajustando seus parâmetros internos para prever o próximo token com base no contexto. Isso não é apenas contar palavras, mas capturar relações semânticas, sintáticas e até pragmáticas. Quanto maior e mais diverso o corpus, mais rica e precisa se torna essa rede de significados.

  2. Seria possível alterar essas relações com base em textos falsos? (tentando entender um pouco a ética e vulnerabilidades) Em teoria, sim — esse é um campo chamado de data poisoning. Se durante o treinamento ou ajuste fino (fine-tuning) forem inseridos textos falsos em quantidade suficiente e de forma estratégica, é possível distorcer o modelo. Isso levanta questões éticas importantes e é uma das razões pelas quais curadoria e segurança de dados são fundamentais. Contudo, modelos como o GPT-4 são treinados em datasets massivos e balanceados, o que reduz, mas não elimina, esse risco.

  3. Uma vez que uma resposta é gerada e seu conteúdo pode e vai ser usado como por exemplo em um blog, o modelo aprenderia com seu próprio conteúdo? Depende. Durante a fase de inferência (resposta em tempo real), o modelo não aprende — ele apenas aplica o que já foi aprendido no treinamento. Contudo, se essas respostas forem armazenadas, republicadas (como em blogs), e eventualmente reutilizadas em novo treinamento, o modelo pode sim “aprender com seu próprio conteúdo”, o que pode gerar feedback loops e reforçar vieses ou erros — isso é conhecido como model collapse em pesquisas recentes.

  4. Os números que representam a palavra/subpalavra seriam uma espécie de coordenada em um gráfico e a sua relação com outras uma função matemática que revela a proximidade? Perfeitamente colocado. Sim, esses números são chamados de vetores de embeddings, posicionados em um espaço vetorial de alta dimensão (por exemplo, 768 ou 1024 dimensões). A proximidade entre palavras nesse espaço — medida por distância euclidiana ou similaridade de cosseno — indica quão semanticamente relacionadas elas são. Essa estrutura geométrica é uma das bases do entendimento contextual da linguagem.

Meu amigo, muito obrigado pelas respostas, e por dar nomes a alguns conceitos, agora posso pesquisá-los melhor! Abraço e sucesso