Acabei de vir de uma aula sobre linguagem de progamação e como "se comunicar com a máquina". Eu sei que em IA LLM são treinadas para responder na linguagem humana, mas se eu fizer prompt com raciocínio mais de progrmação tenho resultados diferentes?
Acabei de vir de uma aula sobre linguagem de progamação e como "se comunicar com a máquina". Eu sei que em IA LLM são treinadas para responder na linguagem humana, mas se eu fizer prompt com raciocínio mais de progrmação tenho resultados diferentes?
Oi, Pedro, como vai?
A pergunta é bastante interessante e toca em algo que profissionais que transitam entre desenvolvimento e IA acabam explorando naturalmente. A resposta curta é: sim, a forma como você estrutura o prompt influencia o resultado, e uma lógica mais próxima da programação pode ser muito eficaz em determinados contextos.
LLMs como o ChatGPT foram treinados com grandes volumes de texto humano, mas isso inclui também documentação técnica, código, pseudocódigo e instruções estruturadas. Por isso, prompts com uma lógica mais sequencial e explícita tendem a produzir respostas mais precisas e previsíveis. Por exemplo, em vez de escrever "me ajude a criar um post de blog sobre hotéis em Roma", você poderia estruturar assim: "Entrada: lista de 5 hotéis em Roma com sauna. Tarefa: transformar em post de blog. Formato: um parágrafo por hotel, sem listas. Tom: formal. Encerramento: chamada para reserva." Esse estilo reduz a ambiguidade e deixa menos espaço para interpretação livre do modelo.
Há inclusive uma área dedicada a isso chamada Prompt Engineering, que estuda justamente como estruturar instruções para extrair melhores resultados dos modelos. Algumas técnicas comuns são o uso de papéis ("você é um especialista em..."), encadeamento de tarefas e definição explícita do formato de saída esperado, o que é bem próximo de como você pensa ao escrever uma função ou um algoritmo.
Espero ter ajudado.
Siga firme nos seus estudos e conte com o fórum sempre que precisar.
Abraços :)