2
respostas

[Sugestão] Limitação Uso do OpenAI

Numero de requests para usar o OpenAI, acabou usei outro email, acredito que uma solução seria usar o Gemini que não tem esse problema, já uso a um bom tempo sem me preocupar com limites de requests, vou tentar mudar o código para essar ele

2 respostas

Oi, Rodrigo! Como vai?

Agradeço por compartilhar essa dica com a comunidade Alura.

Continue explorando essas possibilidades e testando adaptações no projeto, pois esse tipo de experimentação ajuda bastante no aprendizado.

Conte com o apoio do Fórum na sua jornada. Abraços e bons estudos!

Para saber mais:

Sugestão de conteúdo:

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!

Eu mudei o primeiro código para o Gemini - LangChain e funcionou muito bem !!!

Rodei um Bash:

pip install -U langchain-google-genai langchain>=0.3.0 python-dotenv

no .ENV eu coloquei o meu Key da Gemini:

GOOGLE_API_KEY=sua_chave_aqui

Depois alterei o código para o que está abaixo:

import os
from dotenv import load_dotenv
from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.prompts import ChatPromptTemplate

# Carrega a chave do arquivo .env
load_dotenv()

# Instancia o modelo (2.5 Flash são os atuais)
llm = ChatGoogleGenerativeAI(
    model="gemini-2.5-flash",
    temperature=0.7,
    max_tokens=None,
    timeout=None,
    max_retries=2,
)

# Define o Prompt
numero_dias = 7
numero_criancas = 2
atividade = "música"

prompt = ChatPromptTemplate.from_messages([
    ("system", "Você é um assistente de roteiro de viagens."),
    ("human", "{pergunta}")
])

# Cria a Chain usando o operador pipe (|)
chain = prompt | llm

# Execução
response = chain.invoke({f"Crie um roteiro de viagem de {numero_dias} dias, para uma familia com {numero_criancas} crianças, que gosta de {atividade}"})
print(response.content)

Insira aqui a descrição dessa imagem para ajudar na acessibilidade