1
resposta

05 Faça como eu fiz No script Conv2d.ipynb altere as camadas convolucionais definidas, para que o campo de visão do kernel seja 7x7,

import torch
import torch.nn as nn

# -----------------------------------
# Entrada de exemplo (1 imagem, 1 canal, 28x28)
# -----------------------------------
x = torch.randn(1, 1, 28, 28)

# -----------------------------------
# Convolução com kernel 7x7
# padding = 3 garante mesma dimensão
# -----------------------------------
conv = nn.Conv2d(
    in_channels=1,   # imagem grayscale
    out_channels=6,  # número de filtros
    kernel_size=7,   # campo de visão maior
    padding=3        # mantém resolução espacial
)

# -----------------------------------
# Aplicando convolução
# -----------------------------------
saida = conv(x)

print("Entrada:", x.shape)
print("Saída:", saida.shape)
1 resposta

Oi, Moacir! Como vai?

Agradeço por compartilhar.

Eu gostei da forma como você ajustou a Conv2d para usar kernel_size=7 e definiu padding=3, mantendo a dimensão espacial da entrada. Isso mostra uma boa leitura da proposta da atividade e atenção ao funcionamento do campo de visão do kernel na camada convolucional.

Se quiser, você pode testar também o parâmetro stride, porque ele altera o deslocamento do filtro e impacta diretamente o tamanho da saída.


import torch
import torch.nn as nn

x = torch.randn(1, 1, 28, 28)

conv = nn.Conv2d(
    in_channels=1,
    out_channels=6,
    kernel_size=7,
    stride=2,
    padding=3
)

saida = conv(x)
print(saida.shape)

Neste exemplo, o código aplica uma convolução com passo 2, fazendo o filtro avançar mais rapido pela imagem e reduzindo a resolução da saída.

Conteúdos relacionados
Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!