1
resposta

[Dúvida] Modelo Gemini mostrado em aula dá erro de quota

Na aula 6 é mostrado o comando
llm = ChatGoogleGenerativeAI(
model="gemini-1.5-pro-latest",
temperature=0.3,
google_api_key=GOOGLE_API_KEY,
convert_system_message_to_human=True

Este modelo não é aceito na execução , pois o Google mostra a msg 
Quota exceeded for metric: generativelanguage.googleapis.com/generate_content_free_tier_input_token_count, limit: 0, model: gemini-1.5-pro-latest

Tentei varios outros modelos, como os abaixo:
models/gemini-2.5-flash

models/gemini-2.5-pro
models/gemini-2.0-flash-exp
models/gemini-2.0-flash
models/gemini-2.0-flash-001

E nada funciona. Como proceder ?

1 resposta

Oi Ricardo! Tudo bem?

Esse erro acontece quando a sua conta do Google AI Studio/Gemini está sem quota gratuita disponível para o modelo que o LangChain está tentando usar, no caso, o gemini-pro / gemini-2.5-pro. Mesmo que a execução falhe, cada tentativa consome requisições e tokens, então você acaba batendo no limite rapidamente.

Então, verifique no link disponibilizado se a sua quota está zerada, caso esteja, o limite foi ultrapassado.

Uma possível solução seria trocar para um modelo com quota disponível, como o gemini-1-5 flash ou outro modelo gratuito que ainda esteja liberado para a sua conta. No LangChain, basta ajustar o nome do modelo na inicialização.

Sentimos muito pelo ocorrido e informamos que este conteúdo já está em processo de regravação para atender aos feedbacks dos estudantes.

Espero ter ajudado e qualquer dúvida, compartilhe no fórum.

Até mais!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado!