Em cada saída de cada camada possui uma função de ativação ou a função de ativação acontece apenas no final da CNN?
Em cada saída de cada camada possui uma função de ativação ou a função de ativação acontece apenas no final da CNN?
Boa pergunta! Todas as camadas precisam ter funções de ativação e é importante entender por que.
Sem a função de ativação, uma camada neural realiza somente operações lineares (ax + b), que são as retas em duas dimensões ou hiperplanos em mais dimensões. Sem a ativação não linear, duas camadas consecutivas (funções lineares) poderiam ser reduzidas a uma única camada (função linear).
Recomendo você assistir essa aula (ou o curso inteiro se achar relevante) onde eu explico um pouco mais sobre a importância das funções de ativação: https://cursos.alura.com.br/course/pln-deep-learning/task/70240