2
respostas

Fala pessoal, o modelo foi descontinuado, pelo que vi.

Mudem para esse:

from llama_index.core import Settings
from llama_index.llms.groq import Groq

Settings.llm = Groq(model='llama-3.3-70b-versatile', api_key=key)

2 respostas

Ei! Tudo bem, Joel?

Ótima observação, a sua sugestão com certeza ajudará outros(as) colegas que estejam estudando o mesmo conteúdo que você.

Obrigado por compartilhar e continue se dedicando aos estudos, qualquer dúvida é só compartilhar no fórum.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!

Olá, só usar esse código aqui depois de importar o csv e a chave.

from llama_index.experimental.query_engine import PandasQueryEngine
from llama_index.llms.groq import Groq

llm = Groq(
model="llama-3.1-8b-instant", # ou llama-3.1-70b-versatile
api_key=key
)

query_engine = PandasQueryEngine(
df=df,
llm=llm,
verbose=True
)

response = query_engine.query("Qual é a forma de pagamento mais utilizada pelos clientes?")
print(response)