0
respostas

Explorando Few-Shot Prompting: Teste Comparativo entre Sabiá-4, Mistral e Gemini

Olá, pessoal!

Gostaria de compartilhar minha experiência com a atividade de Zero-Shot e Few-Shot Prompting. O mais curioso para mim foi perceber que eu já utilizava essa estratégia quase sempre! Eu sentia que, para ter certeza do resultado que eu queria, precisava dar alguns exemplos antes, mas ainda não conhecia o termo técnico para isso.

Para testar a fundo, apliquei os mesmos exemplos em três modelos diferentes: Sabiá-4, Mistral (Le Chat) e o Gemini.

O que aprendi com o teste:

Intuição vs. Técnica: Eu já fornecia exemplos por "instinto" para garantir a precisão, mas entender o conceito de Few-Shot me ajuda agora a estruturar prompts de forma muito mais consciente e eficiente.

Controle do Formato: Usei exemplos de lógica matemática (o clássico do Nicolas Cage), análise de sentimentos e tradução. Em todos os casos, os modelos seguiram o "trilho" que eu criei, economizando muito tempo de correção.

Variação entre Modelos: Testar em diferentes IAs me mostrou como cada uma processa os exemplos. Algumas são mais rígidas ao padrão, enquanto outras tentam ser mais conversacionais.

Um exemplo do que testei:
Forneci o padrão de resposta para um problema simples e deixei que a IA resolvesse o mais complexo seguindo a mesma lógica de "passo a passo". O resultado foi muito mais preciso do que quando eu apenas fazia a pergunta solta (Zero-Shot).

Essa atividade foi bem interesante pra mim, pois validou uma prática que eu já tinha e me deu vocabulário técnico para melhorar minha comunicação com as IAs.