### 1. Criar conjunto de dados (CSV no Cloud Storage) Sem Cloud Shell:
gsutil mb -l us-central1 gs://SEU_BUCKET
gsutil cp churn_modeling.csv gs://SEU_BUCKET/
# 2. Criar conjunto de dados na Vertex AI (Console)
# Acesse Vertex AI → Conjuntos de dados
# Clique em Criar conjunto de dados
# Tipo: Tabular
# Fonte: Armazenamento em Nuvem
gs://SEU_BUCKET/churn_modeling.csv
# 5 Nome:ChurnDataset
# 3. Configurar conjunto de dados
# Tipo de problema: Classificação
# Alvo (alvo):Exited
# Divisão:
# treino: 80%
# Validação: 10%
# teste: 10%
#
# Excluir colunas:
#
# ID do cliente
# Sobrenome
# Número da linha
# 4. Modelo de treinamento (AutoML)
#
# Sem console:
#
# Clique em Treinar modelo
# Escolha:
# AutoML
# Às vezes, ele é um dos seus maiores talentos.
# Defina:
# nome:modelo-churn
# orçamento: 1 hora
# Executor
# 5. Avaliar modelo
#
# Após treino, ver:
#
# AUC
# Precisão
# Lembrar
# Pontuação F1
# 6. Implantar do modelo
# Clique em Implantar
# Criar ponto final:
# nome:endpoint-churn
# Habilitar monitoramento (opcional)
# 7. Testar inferência (Console)
Inserir por:
{
"CreditScore": 652 ,
"Age": 37 ,
"Balance": 97268.1 ,
"EstimatedSalary": 100335.55
}
# 8. Inferência via REST
ENDPOINT_ID="SEU_ENDPOINT"
PROJECT_ID="SEU_PROJECT"
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/$PROJECT_ID/locations/us-central1/endpoints/$ENDPOINT_ID:predict \
-d '{
"instances": [
{
"CreditScore": 652,
"Age": 37,
"Balance": 97268.1,
"EstimatedSalary": 100335.55
}
]
}'
# 8. Inferência via REST
ENDPOINT_ID="SEU_ENDPOINT"
PROJECT_ID="SEU_PROJECT"
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/$PROJECT_ID/locations/us-central1/endpoints/$ENDPOINT_ID:predict \
-d '{
"instances": [
{
"CreditScore": 652,
"Age": 37,
"Balance": 97268.1,
"EstimatedSalary": 100335.55
}
]
}'
# 9. Treinamento via Python (Workbench)
Instalar libs:
!pip install google-cloud-aiplatform
Código:
from google.cloud import aiplatform
PROJECT_ID = "SEU_PROJECT"
REGION = "us-central1"
aiplatform.init(project=PROJECT_ID, location=REGION)
job = aiplatform.AutoMLTabularTrainingJob(
display_name="churn_training",
optimization_prediction_type="classification"
)
model = job.run(
dataset="SEU_DATASET_ID",
target_column="Exited",
budget_milli_node_hours=1000
)
# 10. Implantação via Python
endpoint = model.deploy(
machine_type="n1-standard-2"
)
# 11. Fazer previsão em Python
prediction = endpoint.predict([
{
"CreditScore": 652,
"Age": 37,
"Balance": 97268.1,
"EstimatedSalary": 100335.55
}
])
print(prediction)