Essa questão pede para calcular o recall, mas a alternativa correta tem a precisão do modelo
Essa questão pede para calcular o recall, mas a alternativa correta tem a precisão do modelo
Olá, Vitor! Tudo bem com você?
Desculpas pela demora em dar um retorno.
A questão solicita o recall e o f1-score respectivamente, que possuem os valores 0.428 e 0.461. Podemos comprovar isso de acordo com o código abaixo:
# Importando os métodos para calcular as métricas
from sklearn.metrics import recall_score, precision_score, f1_score
# Dados ofericidos na questão
diagnostico_predito = [0,0,0,0,1,1,1,1,0,1,0,1]
diagnostico_real = [1,1,0,0,1,1,1,0,1,0,1,0]
# Calculando as métricas
print(f"Recall = {round(recall_score(diagnostico_real, diagnostico_predito), 3)}")
print(f"f1-score = {round(f1_score(diagnostico_real, diagnostico_predito), 3)}")
Saída:
Recall = 0.429
f1-score = 0.462
Os valores tiveram uma pequena diferença devido a aproximação.
Os valores acima comprovam que de fato a alternativa correta é a letra B. Para conferimos o valor da precisão poderíamos fazer da seguinte forma:
print(f"precisão = {round(precision_score(diagnostico_real, diagnostico_predito), 3)}")
Saída:
precisão = 0.5
Qualquer dúvida estou à disposição.