1
resposta

[Sugestão] Aqui só funcionou assim

1. Importando as bibliotecas necessárias

from google.colab import userdata from llama_index.llms.groq import Groq from llama_index.core.chat_engine import SimpleChatEngine

2. Obtendo a chave da API do ambiente do Google Colab

GRQ_API = userdata.get('GRQ_API')

3. Verificando se a chave foi corretamente carregada

if not GRQ_API: raise ValueError("A chave API não foi carregada. Verifique as permissões do Colab.")

4. Inicializando o modelo Groq com a chave API correta

llm = Groq(model="meta-llama/llama-4-scout-17b-16e-instruct", api_key=GRQ_API)

5. Criando o mecanismo de chat

chat_engine = SimpleChatEngine.from_defaults(llm=llm)

6. Iniciando o REPL para conversação

chat_engine.chat_repl()

1 resposta

Oi, Filipe! Como vai?

Agradeço por compartilhar sua solução com a comunidade Alura.

É ótimo ver que você conseguiu configurar o uso do LlamaIndex com o modelo Groq no Google Colab! A verificação da chave com userdata.get() é uma abordagem segura e prática, e o uso do chat_repl() torna o processo interativo e didático.

Obrigada por compartilhar.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!