Solucionado (ver solução)
Solucionado
(ver solução)
2
respostas

[Dúvida] Na regressão linear multi variaveis para ajustar os coeficientes eu posso usar a mesma formula do Gradiente Descedente que é usada no Perceptron simples?

Na regressão linear multi variaveis eu ouvi dizer que podemos usar o método do Gradiente Descedente para ajustar os coeficientes. Porém, em Redes Neurais, no Perceptron simples, também se usa Gradiente Descedente para ajustar os pesos do modelo Perceptron simples. Ai fico na duvida: a formula do Gradiente Descedente que é usada na regressão linear multi variaveis para ajustar os coeficientes é exatamente a mesma formula matematica do Gradiente Descedente que é usada para atualizar os pesos no Perceptron simples?

Queria perguntar essas duvidas:

1 - Posso usar a mesma formula do Gradiente Descedente que é usada para atualizar os pesos do Perceptron simples na regressão linear multivariaveis para ajustar os coeficientes? aplicar a mesma formula?

2 - Isso é: A fórmula do Gradiente Descedente que é usada na regressão linear multi variaveis é exatamente a mesma formula usada para atualizar os pesos no Perceptron simples?

2 respostas
solução!

Olá, William! Tudo certinho por aí?

Sim, o método de Gradiente Descendente pode ser usado para ajustar os coeficientes tanto em regressão linear multivariável quanto no Perceptron simples. E, sim, a fórmula do Gradiente Descendente para atualizar os coeficientes em regressão linear multivariável é muito semelhante à fórmula usada para atualizar os pesos no Perceptron simples.

Tanto na regressão linear multivariável quanto no Perceptron simples, o Gradiente Descendente pode ser aplicado, mas as funções de custo que ele tenta minimizar são diferentes.

  1. Sobre usar a mesma fórmula do Gradiente Descendente do Perceptron simples na regressão linear multivariável: Embora o processo de atualização dos parâmetros seja conceitualmente semelhante, a função de custo específica que você está tentando minimizar em cada caso é diferente. Na regressão linear, a função de custo geralmente é o erro quadrático médio entre as previsões e os valores reais. No Perceptron, a função de custo pode ser o erro de classificação (perda zero-um) ou, em configurações mais comuns de redes neurais, uma função de perda como a perda binária ou categórica de entropia cruzada.

  2. Sobre a fórmula do Gradiente Descedente ser exatamente a mesma: A mecânica de atualização dos parâmetros usando o Gradiente Descendente é fundamentalmente a mesma, que envolve calcular o gradiente da função de custo e atualizar os parâmetros na direção que reduz esse custo. No entanto, os detalhes exatos da fórmula dependem da função de custo que você está minimizando. Portanto, enquanto a ideia básica e a forma de atualização são as mesmas, os detalhes específicos da fórmula podem variar devido às diferentes funções de custo utilizadas.

Espero ter ajudado, William.

Abraço.

Caso este post tenha lhe ajudado, por favor, marcar como solucionado ✓. Bons Estudos!

Obrigado por explicar Larissa.