Durante a discussão sobre a função SoftMax, há um erro conceitual na explanação. Para explicar o funcionamento da função de ativação, a instrutora inseri probabilidades manualmente (o que funciona bem para fins didáticos), mas diz que divide esses valores por 100, isso está incorreto, pois 67%=0.67, já que o símbolo de "%" literalmente significa "dividido por 100". Fora isso, da forma como é exposto, passa-se a ideia de que as entradas da função SoftMax devem ser probabilidades, o que é falso, essa função simplesmente normaliza qualquer vetor de entrada que ela recebe, como pode ser visto na documentação do tensorflow: https://www.tensorflow.org/api_docs/python/tf/nn/softmax. Sugiro revisão deste vídeo para eliminar problemas na aprendizagem.