1
resposta

O link da documentação do Querypipeline não funciona. Fui verificar na documentação do LlamaIndex e o QueryPipeline foi descontinuado e substituído pelo Workflows. https://developers.llamaindex.ai/python/framework/changes/deprecated_terms/ Como fica o código para manter a função proposta no projeto da aula 3, usando o Workflows em vez do QueryPipeline?

Obrigado!!

1 resposta

Olá Klaus! Tudo bem?

Vamos adaptar o exemplo que você comentou para usar o Workflows em vez do QueryPipeline.

Primeiro, vamos garantir que as dependências necessárias estejam instaladas:

!pip install llama-index llama-index-llms-groq

Em seguida, inicializamos o modelo Groq da mesma forma:

from llama_index.llms.groq import Groq

# Inicializando o modelo
llm = Groq(model='llama-3.1-70b-versatile', api_key=key)

Agora, vamos criar o PromptTemplate:

from llama_index.core import PromptTemplate
prompt = PromptTemplate('Explique resumidamente o conceito de {termo}')

Com o Workflows, a ideia é similar, mas a implementação pode variar um pouco. Você pode estruturar o fluxo assim:

from llama_index.core.workflows import Workflow

# Criando o workflow
workflow = Workflow(steps=[
    {"type": "prompt", "template": prompt},
    {"type": "llm", "model": llm}
], verbose=True)

Para executar o fluxo de trabalho, você pode usar o método run:

resposta = workflow.run(termo='SQL')
print(resposta)

Com essa configuração, o Workflows deve processar o prompt e usar o modelo para gerar uma resposta, assim como o QueryPipeline fazia.

Espero ter ajudado. Conte com o apoio do fórum :)

Abraços e bons estudos!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado