0
respostas

[Projeto] serviços de IA em Cloud

Você vai montar dois testes simples:

AWS Bedrock : criar credenciais, conferir acesso aos modelos e fazer uma chamada com boto3.
Azure OpenAI : criar o recurso, obter endpoint/chave, implantar um modelo e testar um chat em notebook.
2) AWS Bedrock — credenciais e acesso aos modelos
Conceito

Para usar Bedrock por código, você precisa de uma identidade AWS com permissões específicas. A AWS recomenda funções/credenciais temporários do IAM ; se usar chaves de acesso, guarde uma chave secreta no momento da criação, porque depois ela não pode ser recuperada. Para Bedrock, o acesso aos modelos depende das permissões corretas, inclusive permissões do AWS Marketplace para certos modelos de terceiros; para modelos de terceiros, a primeira invocação pode disparar a assinatura automaticamente, e no caso da Anthropic há um fluxo de “caso de uso pela primeira vez” em alguns cenários.

Passo a passo
No Console AWS, crie um usuário IAM com acesso programático ou prefira uma função IAM .
Gere um ID de chave de acesso e uma chave de acesso secreta .
Salve ambas com segurança.
Vá ao Amazon Bedrock e abra o catálogo de modelos .
Verifique se os modelos desejados estão acessíveis em sua região.
Para modelos de terceiros, confirme se sua conta já tem o acesso efetivamente habilitado.
Exemplo de variáveis de ambiente

import os

os.environ["AWS_ACCESS_KEY_ID"] = "SUA_ACCESS_KEY"
os.environ["AWS_SECRET_ACCESS_KEY"] = "SUA_SECRET_KEY"
os.environ["AWS_REGION"] = "us-east-1"

  1. AWS Bedrock — chamada comboto3

A AWS usa o cliente bedrock-runtimeno SDK Python para chamadas de inferência. O Bedrock suporta API Converse , e a documentação indica que você pode ajustar parâmetros de inferência como tamanho de saída e aleatoriedade conforme o modelo escolhido. Além disso, a disponibilidade varia por modelo e região , então vale conferir isso antes de rodar o notebook.

Instalação

!pip install boto3 botocore

Escândalo de chamada

import os
import boto3
from botocore.config import Config

REGION = os.getenv("AWS_REGION", "us-east-1")
MODEL_ID = "amazon.nova-lite-v1:0"

config = Config(
connect_timeout=60,
read_timeout=60,
retries={"max_attempts": 2},
)

client = boto3.client(
"bedrock-runtime",
region_name=REGION,
config=config
)

messages = [
{
"role": "user",
"content": [{"text": "Explique em 3 tópicos o que é computação em nuvem."}]
}
]

inference_config = {
"maxTokens": 300,
"temperature": 0.5
}

response = client.converse(
modelId=MODEL_ID,
messages=messages,
inferenceConfig=inference_config
)

print(response["output"]["message"]["content"][0]["text"])

Escândalo de chamada

import os
import boto3
from botocore.config import Config

REGION = os.getenv("AWS_REGION", "us-east-1")
MODEL_ID = "amazon.nova-lite-v1:0"

config = Config(
connect_timeout=60,
read_timeout=60,
retries={"max_attempts": 2},
)

client = boto3.client(
"bedrock-runtime",
region_name=REGION,
config=config
)

messages = [
{
"role": "user",
"content": [{"text": "Explique em 3 tópicos o que é computação em nuvem."}]
}
]

inference_config = {
"maxTokens": 300,
"temperature": 0.5
}

response = client.converse(
modelId=MODEL_ID,
messages=messages,
inferenceConfig=inference_config
)

print(response["output"]["message"]["content"][0]["text"])