Olá, Kleber! Tudo bem?
No Apache Airflow, a execução de uma DAG é controlada pelo parâmetro "schedule_interval" na definição da DAG. Este parâmetro determina a frequência com que a DAG é executada. Por exemplo, se você definir "schedule_interval" como "@daily", a DAG será executada uma vez por dia.
No entanto, para o seu caso, você gostaria que a DAG fosse executada imediatamente após a conclusão da execução anterior. Infelizmente, o Apache Airflow não suporta essa funcionalidade diretamente. Isso ocorre porque o Airflow foi projetado para executar tarefas em intervalos de tempo definidos, e não em um loop contínuo.
Uma possível solução alternativa seria definir o "schedule_interval" para um valor muito pequeno, como "1 minute". Isso faria com que a DAG fosse executada a cada minuto. No entanto, isso pode não ser ideal se a execução da DAG levar mais de um minuto, pois poderia resultar em várias execuções da DAG ocorrendo simultaneamente.
Outra opção seria criar uma tarefa final na sua DAG que reinicia a DAG. Isso poderia ser feito usando a operadora BashOperator para chamar a linha de comando do Airflow para acionar a DAG. No entanto, isso é uma solução alternativa e pode não ser a melhor prática.
Por fim, lembre-se de que o Airflow foi projetado para tarefas agendadas e pode não ser a melhor ferramenta para tarefas que precisam ser executadas em um loop contínuo. Dependendo do seu caso de uso, pode haver outras ferramentas ou abordagens que seriam mais adequadas.
Espero ter ajudado e bons estudos!