1
resposta

[Solução] Limite de taxa atingido

Durante a minha jornada estudando IA, enfrentei muitas dificuldades com relação ao limite extremamente baixo de requisições da API do Gemini. A solução que encontrei para contornar esse problema foi a "Ollama".

É uma plataforma Open Source onde você é capaz de baixar e rodar LLMs localmente pelo seu computador, sem ficar dependendo dos créditos ou limites diários. Tenham atenção com o modelo que irá escolher. As requisições utilizam da sua CPU/RAM ou GPU.

Dessa forma consegui testar mais prompts e seguir com o desenvolvimento de projetos com maior liberdade.

É fundamental a leitura de documentação para orientação.

Espero ter ajudado.
Abraços!

1 resposta

Olá, Gustavo! Como vai?

Que legal que você encontrou uma solução alternativa para o problema de limite de requisições da API do Gemini usando o Ollama!

A sua sugestão de rodar LLMs localmente é uma ótima maneira de contornar essas limitações, pois permite que você utilize os recursos do seu próprio computador para processar os dados. Isso pode oferecer mais liberdade e flexibilidade no desenvolvimento de projetos.

Além disso, é sempre importante lembrar de ler a documentação da ferramenta que estamos utilizando, como você bem mencionou. Isso ajuda a entender melhor as funcionalidades e limitações, além de garantir que estamos utilizando a ferramenta da maneira mais eficiente possível.

Fico à disposição! E se precisar, conte sempre com o apoio do fórum.

Abraço e bons estudos!

AluraConte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!