1
resposta

[Bug] Erro de limite de tokens no Groq (TPM excedido) – O que fazer?

Estou rodando meu Groq no make e recebo as seguinte mensagem de erro:

"Solicitação muito grande para o modelo Ilama-3-3-70-vesatile na organização org-XXX no nível e serviço on _demand em tokens por minuto (TPM): Limitre de 12000, solicitadas 25549.Reduza o tamanho da sua mensagem e tente novamente,Precisa de mais tokens? Atualize para o Nível de Desenvolvedor.”

O que significa e como resolver?

segue em anexo o comando do Groq!

https://us2.make.com/public/shared-scenario/aTQFI16cjpU/integration-microsoft-365-email-outlook

[![IERRO]
(https://cdn1.gnarususercontent.com.br/1/6573223/65cb4f97-8f57-475f-ae7a-58aa3dd5e8cf.png)

1 resposta

Olá, Marcello. Tudo bem?

Esse erro de limite de tokens é comum quando a gente automatiza com IA, principalmente no plano gratuito. Pelo que aparece aí, o problema é simples: o modelo llama-3.3-70b-versatile permite até 12.000 tokens por minuto, e a sua requisição veio com 25.549 tokens. Ou seja, só essa chamada já estourou o limite inteiro do minuto, então o sistema bloqueia na hora.

A forma mais fácil de resolver é trocar o modelo. Em vez do 70b, use o llama-3.1-8b-instant. Ele costuma ter um limite de tokens por minuto maior e é mais que suficiente para tarefas como resumo e geração de JSON. Na maioria dos casos, isso já resolve sem precisar mexer em mais nada.

Se você realmente precisar usar o 70b, aí vai ter que reduzir o volume de texto enviado. Dá para revisar o Text Aggregator e ver se não está juntando linhas demais do Excel. Outra opção é processar em partes menores, enviando em lotes.

Mas sinceramente, eu começaria trocando para o 8b. É rápido, simples e provavelmente já vai fazer tudo funcionar. Testa assim e vê se resolve.

Bons estudos!

Sucesso

Imagem da comunidade