1
resposta

[Projeto] usar LLMs na VertexAI

from google.cloud import aiplatform

aiplatform.init(project="meu-projeto", location="us-central1")

response = aiplatform.gapic.PredictionServiceClient().predict(
endpoint="SEU_ENDPOINT",
instances=[{"prompt": "Explique o documento"}]
)

print(response)

1 resposta

Olá, Moacir! Como vai?

Parabéns pela resolução da atividade!

Observei que você explorou o uso do Vertex AI Prediction Service para realizar inferências com Python, utilizou muito bem a configuração de endpoint para conectar o modelo ao serviço e ainda compreendeu a importância da estrutura de instâncias para enviar corretamente os dados de entrada.

Continue postando as suas soluções, com certeza isso ajudará outros estudantes e tem grande relevância para o fórum.

Sugestão de conteúdo para você mergulhar ainda mais no tema:

Fico à disposição! E se precisar, conte sempre com o apoio do fórum.

Abraço e bons estudos!

AluraConte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!