Olá Klaus! Tudo bem?
Vamos adaptar o exemplo que você comentou para usar o Workflows em vez do QueryPipeline.
Primeiro, vamos garantir que as dependências necessárias estejam instaladas:
!pip install llama-index llama-index-llms-groq
Em seguida, inicializamos o modelo Groq da mesma forma:
from llama_index.llms.groq import Groq
# Inicializando o modelo
llm = Groq(model='llama-3.1-70b-versatile', api_key=key)
Agora, vamos criar o PromptTemplate:
from llama_index.core import PromptTemplate
prompt = PromptTemplate('Explique resumidamente o conceito de {termo}')
Com o Workflows, a ideia é similar, mas a implementação pode variar um pouco. Você pode estruturar o fluxo assim:
from llama_index.core.workflows import Workflow
# Criando o workflow
workflow = Workflow(steps=[
{"type": "prompt", "template": prompt},
{"type": "llm", "model": llm}
], verbose=True)
Para executar o fluxo de trabalho, você pode usar o método run:
resposta = workflow.run(termo='SQL')
print(resposta)
Com essa configuração, o Workflows deve processar o prompt e usar o modelo para gerar uma resposta, assim como o QueryPipeline fazia.
Espero ter ajudado. Conte com o apoio do fórum :)
Abraços e bons estudos!
Caso este post tenha lhe ajudado, por favor, marcar como solucionado