1
resposta

Video Capitulo 01, Aula 03 Arquitetura da CNN

Em cada saída de cada camada possui uma função de ativação ou a função de ativação acontece apenas no final da CNN?

1 resposta

Boa pergunta! Todas as camadas precisam ter funções de ativação e é importante entender por que.

Sem a função de ativação, uma camada neural realiza somente operações lineares (ax + b), que são as retas em duas dimensões ou hiperplanos em mais dimensões. Sem a ativação não linear, duas camadas consecutivas (funções lineares) poderiam ser reduzidas a uma única camada (função linear).

Recomendo você assistir essa aula (ou o curso inteiro se achar relevante) onde eu explico um pouco mais sobre a importância das funções de ativação: https://cursos.alura.com.br/course/pln-deep-learning/task/70240