Solucionado (ver solução)
Solucionado
(ver solução)
2
respostas

Saida atual

Na função de propaga total, qual a necessidade de guardar à saída atual (soma com np.dot) se a proxíma camada só vai usar o valor da ativação?

Certo, layer 1 faz a soma e coloca o valor dessa soma em uma função de ativação, passa esse valor de ativação da camada 1 para a camada 2, a camada dois usa esse valor para fazer a soma com os pesos e bias da camada 2 e para terminar, coloca o valor da soma da camada 2 em uma função de ativação e pronto. Pelo menos foi isso que eu entendi, alguém pode me explicar pf?

Muito obrigado

2 respostas
solução!

O seu entendimento está correto. Eu guardei a saída atual porque essa saída vai ser necessária para outra função lá na frente. Em uma das duas funções de retropropagação. Você foi o primeiro que percebeu :)

Obrigado professor !