Oi Gustavo, tudo bom?
Imagine a seguinte situação: o dono de uma empresa quer saber, em média, quantos produtos são produzidos por cada funcionário em um mês. Ele sabe que nem todos conseguem fazer a mesma quantidade de peças, mas fala para seus funcionários fazerem um registro de produção em um mês.
Com base nos dados, se a gente quiser saber a variação dos dados. Ou seja, o quanto cada dado está variando da média. A gente pode usar a variância.
Mas, em algumas situações, apenas o cálculo da variância pode não ser suficiente, pois essa é uma medida de dispersão muito influenciada por valores que estão muito distantes da média. Além disso, o fato de a variância ser calculada ao quadrado causa uma certa camuflagem dos valores (pois aumenta a divergencia), dificultando um pouco o entendimento. Uma alternativa para solucionar esse problema é o desvio padrão.
É bem perceptivel que a diferença entre ambos é a raiz.
Na realidade, dependendo do caso, você quer que a discrepancia entre os dados aumente para que seja mais perceptivel (variância). As vezes, como no nosso exemplo, você não quer essa discrepancia (desvio padrão).
No meio ciêntifico, por exemplo, a gente não quer que a discrepancia entre os dados seja algo muito influenciado pela diferencia entre ele e a média, pois esse valor é o que chamamos de erro. Se usassemos a variancia para o erro, os experimentos mais divergentes da média teriam um erro desproporcional e prejudicaria o experimento. Por isso quando queremos saber o erro de um experimento, usamos o desvio padrão =)
Espero ter ajudado um pouco!
Abraço e bons estudos =)