Durante a minha jornada estudando IA, enfrentei muitas dificuldades com relação ao limite extremamente baixo de requisições da API do Gemini. A solução que encontrei para contornar esse problema foi a "Ollama".
É uma plataforma Open Source onde você é capaz de baixar e rodar LLMs localmente pelo seu computador, sem ficar dependendo dos créditos ou limites diários. Tenham atenção com o modelo que irá escolher. As requisições utilizam da sua CPU/RAM ou GPU.
Dessa forma consegui testar mais prompts e seguir com o desenvolvimento de projetos com maior liberdade.
É fundamental a leitura de documentação para orientação.
Espero ter ajudado.
Abraços!