Oi, Moacir! Como vai?
Agradeço por compartilhar.
Eu gostei da forma como você ajustou a Conv2d para usar kernel_size=7 e definiu padding=3, mantendo a dimensão espacial da entrada. Isso mostra uma boa leitura da proposta da atividade e atenção ao funcionamento do campo de visão do kernel na camada convolucional.
Se quiser, você pode testar também o parâmetro stride, porque ele altera o deslocamento do filtro e impacta diretamente o tamanho da saída.
import torch
import torch.nn as nn
x = torch.randn(1, 1, 28, 28)
conv = nn.Conv2d(
in_channels=1,
out_channels=6,
kernel_size=7,
stride=2,
padding=3
)
saida = conv(x)
print(saida.shape)
Neste exemplo, o código aplica uma convolução com passo 2, fazendo o filtro avançar mais rapido pela imagem e reduzindo a resolução da saída.
Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!