2
respostas

Do "Zero-Shot" ao retorno do "Programês"

Ao concluir este curso, gostaria de compartilhar uma reflexão sobre a aplicabilidade do que aprendemos. O curso foi excelente para entender a base da interação com LLMs, abordando técnicas clássicas como few-shot, chain of verification e outras. No entanto, é fundamental contextualizar essas técnicas com o atual estado da arte da indústria.

O que percebemos hoje, especialmente em contextos de larga escala, é que a promessa da "linguagem natural pura" esbarra em dois muros: custo (tokens) e determinismo.

As tendências mais recentes (como o uso de LLMLingua para minificação de prompts e DSPy para compilação de instruções) mostram um movimento contrário ao que sonhávamos. Estamos saindo da conversa polida para instruções estruturadas (JSON/YAML) e pseudocódigos. O mercado está exigindo que deixemos de ser "encantadores de IA" para voltarmos a ser engenheiros de sistemas, onde a economia de tokens e a precisão do output valem mais que a fluidez da conversa.

Fica aqui o registro: as técnicas do curso são válidas como fundamento pedagógico, mas a "engenharia de produção" já está operando em um novo nível de abstração — um "moderno programês" — essencial para quem busca viabilidade econômica e técnica.

Apenas compartilhando essa visão de mercado para complementar o material didático. Bons estudos a todos!

2 respostas

Oi, Naygno! Como vai?

Agradeço por compartilhar suas reflexões e aprendizados com a comunidade Alura.

Gostei da forma como você conectou o que viu no curso com o movimento atual da indústria. Sua análise sobre o retorno a instruções mais estruturadas e ao "moderno programês" mostra uma visão bem madura sobre como equilibrar custo, precisão e eficiência no uso de LLMs. Ótimo ver como você relacionou fundamentos pedagógicos com práticas de engenharia em produção.

Siga explorando essas abordagens e testando combinações entre técnicas clássicas e ferramentas mais recentes. Uma dica simples: experimente criar um mesmo prompt em linguagem natural e depois convertê-lo para um formato estruturado (como JSON), comparando custo e estabilidade do output para entender onde cada estilo funciona melhor.

  Alura   Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!

Olá, Rafaela! Estou bem, obrigado!
Agradeço muito pelo feedback e pela dica.