se eu quisesse colocar esse airflow em produção em um servidor para utilizar em outras maquinas locais, como eu faria? e como eu acessaria a pasta de dags de outro computador?
se eu quisesse colocar esse airflow em produção em um servidor para utilizar em outras maquinas locais, como eu faria? e como eu acessaria a pasta de dags de outro computador?
Olá, Yan! Como vai?
Para colocar o Airflow em produção em um servidor para utilizar em outras máquinas locais, você precisa:
→ Instalar o Airflow em um servidor centralizado, isso significa configurar o Airflow em um servidor dedicado, como um servidor Linux, ou utilizar um serviço de nuvem como Google Cloud Platform, AWS ou Azure. Esse servidor será o ponto central para gerenciar e executar os seus pipelines.
→ Configurar o acesso à pasta de DAGs. A pasta de DAGs contém os arquivos que definem os seus pipelines. Para que as outras máquinas locais possam acessar e executar esses pipelines, você precisa configurar o acesso à pasta de DAGs. Isso pode ser feito através de um compartilhamento de arquivos via rede (como NFS ou Samba) ou utilizando um sistema de controle de versão como o Git.
→ Garantir a segurança do servidor e da pasta de DAGs. Você precisa configurar permissões de acesso para que apenas usuários autorizados possam acessar e modificar os pipelines.
Sobre acessar a pasta de DAGs de outro computador, existem diferentes métodos de compartilhamento. Opções como o NFS ou Samba permitem o compartilhamento de arquivos via rede, enquanto o Git oferece controle de versão e facilita a sincronização dos DAGs em diferentes computadores. Uma outra alternativa é armazenar os DAGs em serviços de nuvem, como Google Cloud Storage, AWS S3 ou Azure Blob Storage, configurando o Airflow para acessá-los diretamente.
Espero ter ajudado!
Abraço ✨
Como eu apontaria a pasta de dags para um repositorio no gitlab?