Olá, Moacir! Como vai?
Parabéns pela resolução da atividade!
Observei que você explorou o uso de variáveis de ambiente para proteger informações sensíveis, utilizou muito bem a biblioteca LangChain para estruturar a interação com o modelo e ainda compreendeu a importância de organizar perguntas sequenciais para obter respostas contextualizadas.
Uma dica interessante para o futuro é encapsular a lógica em funções, o que facilita a reutilização e deixa o código mais limpo. Assim:
def executar_perguntas(perguntas, llm):
for pergunta in perguntas:
resposta = llm.invoke(pergunta)
print(f"\nPergunta: {pergunta}")
print(f"\nResposta: {resposta.content}")
print("\n" + "-" * 60)
Isso torna o programa mais modular e fácil de expandir.
Fico à disposição! E se precisar, conte sempre com o apoio do fórum.
Abraço e bons estudos!
Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!