Hola, en este ejercicio implementé:
TP = np.sum(c == 11) / N * 100
TN = np.sum(c == 0) / N * 100
FP = np.sum(c == 1) / N * 100
FN = np.sum(c == 10) / N * 100
Obteniendo :
+-------+-------+ | Predicción | +-------+-------+ % | P | N | +------+---+-------+-------+ | | P | 73.29 | 0.00 | | Real +---+-------+-------+ | | N | 26.71 | 0.00 | +------+---+-------+-------+Por lo que no hay casos de falsos negativos ni negativos reales, y hay un alto porcentaje de verdaderos positivos y bastantes falsos positivos. Esto me lleva a pensar que las predicciones no clasifican bien los negativos o sea parece que ni siquiera llega a clasificar a ninguna foto como negativa. Lo que no llego a entender es por qué la proporcion de puntos de cada clase es importante para este analisis. Mi intento de explicacion es que si la mayoria de las muestras son positivas entonces es más seguro clasificar todo como positivo y el modelo en realidad esta sesgado por ese desbalance. En este caso hay 858 positivos y 313 negativos por lo que esta bastante desbalanceado.
Saludos y gracias