Solucionado (ver solução)
Solucionado
(ver solução)
1
resposta

Estou finalizando a compreensão dos conceitos de Redes Neurais, alguém consegue ajudar?

Grato por essa plataforma fantástica!

Vamos lá, me corijam se eu estiver errado...

  1. os tensores são matrizes de números que representam as próprias camadas de redes neurais.
  2. O fato de ser deep learning e ter muitas camadas se refere à maior precisão dos resultados.
  3. Ainda estou me esforçando para entender a aplicação de cada camada, é óbvio que no começo a gente estuda códigos-prontos. Aliás, com a ajuda do gemini criei essa tabela para entendimento de cada camada https://docs.google.com/spreadsheets/d/1UPrhCRVoEMSFh5_a1q2rfo6h5do_X8J9yejp2URxVpQ/edit?usp=sharing
  4. Essas funções de ativação são um mistério, que nem os cientistas sabem o caminho que elas fazem para calcular os pesos, então por que deve-se saber a diferença entre as funções de ativação, esse gap estou nesse fim de semana fechando... https://docs.google.com/spreadsheets/d/1sTF7NIxlHiBop5pHGfC5l1eUhU8LnuIlSNyM6Ef7ZXg/edit?usp=sharing
  5. acho que não tem algo mágico que crie tudo automático, e o estudo teórico deve ser constante na implementação de uma aplicação. Sei que o curso foca bastante na preparação das redes neurais, talvez eu precise achar um curso que ensine a usar as redes para prever as classes além de saber programar, nesse quesito há sites que disponibilizam reconhecimento de objetos por exemplo como YOLO, kaggle, etc. Recomendariam mais algum?

Vlwww

1 resposta
solução!

Olá, Flavio, como vai?

É isso aí, você está no caminho certo! Sobre os tensores, sim, eles são estruturas de dados que podem representar não apenas matrizes, mas também vetores e valores escalares, dependendo da sua dimensionalidade. Nas redes neurais, os tensores são usados para armazenar os dados de entrada, pesos e saídas em cada camada, sendo cruciais para as operações matemáticas entre as camadas.

Em relação ao deep learning, quanto mais camadas uma rede neural possui, maior a sua capacidade de extrair padrões complexos dos dados, o que pode, de fato, melhorar a precisão, mas também exige maior cuidado para evitar problemas como overfitting. As funções de ativação, como você mencionou, são essenciais para introduzir não linearidades no modelo, permitindo que ele aprenda a mapear entradas complexas para as saídas corretas. Cada função tem suas vantagens e desvantagens — por exemplo, a ReLU é muito comum em redes profundas por sua eficiência computacional.

Sobre o uso prático das redes para prever classes, plataformas como o Kaggle, que você mencionou, são excelentes para projetos práticos, e é a mais indicada!

Espero que essa explicação tenha ajudado! Qualquer dúvida adicional, o fórum está à disposição.

Abraços!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado