1
resposta

Comportament diferente do mostrado em aula

Ao reproduzir a atividade trocando os pesos da camada densa por valores aleatórios obtive um resultado diferente do exibido na aula: a acurácia não ficou constante, i.é., a rede não "morreu". Apresentou resultados razoáveis.

Imaginei que este seria o comportamento esperado: não entendi o porque da acurácia ficar tão estranha na atividade apresentada no vídeo.

1 resposta

Oi Vicente! Tudo bem com você?

Primeiro, gostaria de te pedir desculpas pela demora em te responder.

A definição de peso pode se tornar uma tarefa complicada pois muitos algoritmos são muito afetados pela escolha de inicialização, de forma que pode influenciar na convergência ou não da rede. Pode ser que os pesos sorteados para o seu modelo influenciaram positivamente no aprendizado do seu modelo e, por isso, não tenha entrado nos "problemas" apresentados na aula, o que é sim um comportamento possível. Alguns artigos como Por que inicializar uma rede neural com pesos aleatórios? e Inicialização de peso para redes neurais de aprendizado profundo podem deixar mais claros os conceitos de inicialização de pesos de forma aleatória. OBS: Infelizmente os artigos estão em inglês, então, caso tenha dificuldade em relação a este idioma, indico que tente utilizar o tradutor do navegador, para conseguir efetuar a leitura em português, mas qualquer dúvida ou dificuldade estarei à disposição.

Além disso, uma opção para deixar o seu resultado como o da aula, seria repetir o processo de escolha de pesos aleatórios várias vezes e utilizar o modelo que se comporta de modo semelhante ao apresentado na aula.

Mas para entender melhor o que pode ter acontecido, você poderia compartilhar aqui seu notebook?

Bons estudos!