0
respostas

[Projeto] 07 Faça como eu fiz: treinar no VertexAI

1. Criar conjunto de dados (CSV no Cloud Storage) Sem Cloud Shell:

gsutil mb -l us-central1 gs://SEU_BUCKET

gsutil cp churn_modeling.csv gs://SEU_BUCKET/

2. Criar conjunto de dados na Vertex AI (Console)

Acesse Vertex AI → Conjuntos de dados

Clique em Criar conjunto de dados

Tipo: Tabular

Fonte: Armazenamento em Nuvem

gs://SEU_BUCKET/churn_modeling.csv

5 Nome:ChurnDataset

3. Configurar conjunto de dados

Tipo de problema: Classificação

Alvo (alvo):Exited

Divisão:

treino: 80%

Validação: 10%

teste: 10%

Excluir colunas:

ID do cliente

Sobrenome

Número da linha

4. Modelo de treinamento (AutoML)

Sem console:

Clique em Treinar modelo

Escolha:

AutoML

Às vezes, ele é um dos seus maiores talentos.

Defina:

nome:modelo-churn

orçamento: 1 hora

Executor

5. Avaliar modelo

Após treino, ver:

AUC

Precisão

Lembrar

Pontuação F1

6. Implantar do modelo

Clique em Implantar

Criar ponto final:

nome:endpoint-churn

Habilitar monitoramento (opcional)

7. Testar inferência (Console)

Inserir por:

{
"CreditScore": 652 ,
"Age": 37 ,
"Balance": 97268.1 ,
"EstimatedSalary": 100335.55
}

8. Inferência via REST

ENDPOINT_ID="SEU_ENDPOINT"
PROJECT_ID="SEU_PROJECT"

curl -X POST
-H "Authorization: Bearer $(gcloud auth print-access-token)"
-H "Content-Type: application/json"
https://us-central1-aiplatform.googleapis.com/v1/projects/$PROJECT_ID/locations/us-central1/endpoints/$ENDPOINT_ID:predict
-d '{
"instances": [
{
"CreditScore": 652,
"Age": 37,
"Balance": 97268.1,
"EstimatedSalary": 100335.55
}
]
}'

8. Inferência via REST

ENDPOINT_ID="SEU_ENDPOINT"
PROJECT_ID="SEU_PROJECT"

curl -X POST
-H "Authorization: Bearer $(gcloud auth print-access-token)"
-H "Content-Type: application/json"
https://us-central1-aiplatform.googleapis.com/v1/projects/$PROJECT_ID/locations/us-central1/endpoints/$ENDPOINT_ID:predict
-d '{
"instances": [
{
"CreditScore": 652,
"Age": 37,
"Balance": 97268.1,
"EstimatedSalary": 100335.55
}
]
}'

9. Treinamento via Python (Workbench)

Instalar libs:
!pip install google-cloud-aiplatform

Código:

from google.cloud import aiplatform

PROJECT_ID = "SEU_PROJECT"
REGION = "us-central1"

aiplatform.init(project=PROJECT_ID, location=REGION)

job = aiplatform.AutoMLTabularTrainingJob(
display_name="churn_training",
optimization_prediction_type="classification"
)

model = job.run(
dataset="SEU_DATASET_ID",
target_column="Exited",
budget_milli_node_hours=1000
)

10. Implantação via Python

endpoint = model.deploy(
machine_type="n1-standard-2"
)

11. Fazer previsão em Python

prediction = endpoint.predict([
{
"CreditScore": 652,
"Age": 37,
"Balance": 97268.1,
"EstimatedSalary": 100335.55
}
])

print(prediction)