1
resposta

[Projeto] 07 Faça como eu fiz: treinar no VertexAI

### 1. Criar conjunto de dados (CSV no Cloud Storage) Sem Cloud Shell:

gsutil mb -l us-central1 gs://SEU_BUCKET

gsutil cp churn_modeling.csv gs://SEU_BUCKET/

#  2. Criar conjunto de dados na Vertex AI (Console)
# Acesse Vertex AI → Conjuntos de dados
# Clique em Criar conjunto de dados
# Tipo: Tabular
# Fonte: Armazenamento em Nuvem

gs://SEU_BUCKET/churn_modeling.csv

# 5 Nome:ChurnDataset
# 3. Configurar conjunto de dados
# Tipo de problema: Classificação
# Alvo (alvo):Exited
# Divisão:
# treino: 80%
# Validação: 10%
# teste: 10%
# 
# Excluir colunas:
# 
# ID do cliente
# Sobrenome
# Número da linha

# 4. Modelo de treinamento (AutoML)
# 
# Sem console:
# 
# Clique em Treinar modelo
# Escolha:
# AutoML
# Às vezes, ele é um dos seus maiores talentos.
# Defina:
# nome:modelo-churn
# orçamento: 1 hora
# Executor
# 5. Avaliar modelo
# 
# Após treino, ver:
# 
# AUC
# Precisão
# Lembrar
# Pontuação F1

# 6. Implantar do modelo
# Clique em Implantar
# Criar ponto final:
# nome:endpoint-churn
# Habilitar monitoramento (opcional)

# 7. Testar inferência (Console)

Inserir por:

{ 
  "CreditScore": 652 , 
  "Age": 37 , 
  "Balance": 97268.1 , 
  "EstimatedSalary": 100335.55 
}

# 8. Inferência via REST
ENDPOINT_ID="SEU_ENDPOINT"
PROJECT_ID="SEU_PROJECT"

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/$PROJECT_ID/locations/us-central1/endpoints/$ENDPOINT_ID:predict \
-d '{
  "instances": [
    {
      "CreditScore": 652,
      "Age": 37,
      "Balance": 97268.1,
      "EstimatedSalary": 100335.55
    }
  ]
}'

# 8. Inferência via REST
ENDPOINT_ID="SEU_ENDPOINT"
PROJECT_ID="SEU_PROJECT"

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/$PROJECT_ID/locations/us-central1/endpoints/$ENDPOINT_ID:predict \
-d '{
  "instances": [
    {
      "CreditScore": 652,
      "Age": 37,
      "Balance": 97268.1,
      "EstimatedSalary": 100335.55
    }
  ]
}'

# 9. Treinamento via Python (Workbench)
Instalar libs:
!pip install google-cloud-aiplatform

Código:

from google.cloud import aiplatform

PROJECT_ID = "SEU_PROJECT"
REGION = "us-central1"

aiplatform.init(project=PROJECT_ID, location=REGION)

job = aiplatform.AutoMLTabularTrainingJob(
    display_name="churn_training",
    optimization_prediction_type="classification"
)

model = job.run(
    dataset="SEU_DATASET_ID",
    target_column="Exited",
    budget_milli_node_hours=1000
)

# 10. Implantação via Python
endpoint = model.deploy(
    machine_type="n1-standard-2"
)

# 11. Fazer previsão em Python

prediction = endpoint.predict([
    {
        "CreditScore": 652,
        "Age": 37,
        "Balance": 97268.1,
        "EstimatedSalary": 100335.55
    }
])

print(prediction)
1 resposta

Olá, Moacir! Como vai?

Parabéns pela resolução da atividade!

Observei que você explorou o Vertex AI AutoML Tabular para treinar modelos de classificação com Python, utilizou muito bem o Cloud Storage e REST API para gerenciar dados e realizar inferências e ainda compreendeu a importância da avaliação com métricas como AUC e F1 para validar a performance do modelo.

Continue postando as suas soluções, com certeza isso ajudará outros estudantes e tem grande relevância para o fórum.

Sugestão de conteúdo para você mergulhar ainda mais no tema:

Fico à disposição! E se precisar, conte sempre com o apoio do fórum.

Abraço e bons estudos!

AluraConte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!