Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo...

101
Outline Introducci ´ on Evaluaci ´ on de clasificadores Comparaci ´ on de clasificadores Selecci ´ on de modelo Error de generalizaci ´ on Estrategias de evaluaci ´ on Dilema sesgo- varianza Evaluaci ´ on, validaci ´ on y sobre-ajuste Eduardo Morales, Hugo Jair Escalante Coordinaci ´ on de Ciencias Computacionales Instituto Nacional de Astrof´ ısica, ´ Optica y Electr ´ onica Agosto, 2015 (INAOE) Agosto, 2015 1 / 101

Transcript of Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo...

Page 1: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion, validacion y sobre-ajuste

Eduardo Morales, Hugo Jair Escalante

Coordinacion de Ciencias ComputacionalesInstituto Nacional de Astrofısica, Optica y Electronica

Agosto, 2015

(INAOE) Agosto, 2015 1 / 101

Page 2: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Outline

1 Introduccion

2 Evaluacion de clasificadores

3 Comparacion de clasificadores

4 Seleccion de modelo

5 Error de generalizacion

6 Estrategias de evaluacion

7 Dilema sesgo-varianza

(INAOE) Agosto, 2015 2 / 101

Page 3: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Introduccion

Introduccion

Evaluacion de metodos de aprendizaje• Al desarrollar/implementar un clasificador como parte

de algun sistema de toma de decisiones, es crticoevaluar su desempeno.

• La evaluacion nos dara evidencia necesaria paraanticipar el correcto funcionamiento del sistema.

• Una evaluacion sistematica es imprescindible parapublicar resultados y avanzar el estado del arte.

(INAOE) Agosto, 2015 3 / 101

Page 4: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Introduccion

Introduccion

Evaluacion de metodos de aprendizaje• Diferentes metodos hacen diferentes suposiciones,

tienen sesgos y caracterısticas.• Con tantas variantes de algoritmos de aprendizaje es

crıtico evaluar objetivamente su desempeno.• Tal evaluacion tambien es imprescindible para

seleccionar el mejor modelo (optimizacion deparametros).

(INAOE) Agosto, 2015 4 / 101

Page 5: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Introduccion

Introduccion

Lo que veremos en esta sesion.• Evaluacion y comparacion del desempeno de

claificadores.• Seleccion de parametros y clasificadores, sobre-ajuste.

(INAOE) Agosto, 2015 5 / 101

Page 6: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Evaluacion de metodos de aprendizaje• ¿Como evaluar el desempeno de un clasificador en una

tarea dada?.• Siguiendo una metodologıa adecuada.

• ¿Como escoger el mejor metodo para un problemadado?:

• Usando conocimiento del dominio.• Usando conocimiento del aprendizaje computacional.

• Metodos informados.• Metodos agnosticos.

(INAOE) Agosto, 2015 6 / 101

Page 7: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Evaluacion de metodos de aprendizaje• ¿Como evaluar el desempeno de un clasificador en una

tarea dada?.• Siguiendo una metodologıa adecuada.

• ¿Como escoger el mejor metodo para un problemadado?:

• Usando conocimiento del dominio.• Usando conocimiento del aprendizaje computacional.

• Metodos informados.• Metodos agnosticos.

(INAOE) Agosto, 2015 7 / 101

Page 8: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Como evaluar el desempeno de unclasificador

• ¿Que evaluar?• ¿Como realizar esta evaluacion?• ¿Que informacion se requiere?• ¿Como saber cual es el mejor clasificador para una

tarea dada?• ¿Que aspectos son importantes para realizar una

validacion justa?

(INAOE) Agosto, 2015 8 / 101

Page 9: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Como evaluar el desempeno de unclasificador

Receta:• Obtener datos.• Dividir datos.• Elegir medida de evaluacion.• Disenar experimentos.• Realizar evaluacion.• Ejecutar pruebas estadısticas.• Reporte y analisis de resultados.

(INAOE) Agosto, 2015 9 / 101

Page 10: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Como evaluar el desempeno de unclasificador

Receta:• Obtener datos.• Dividir datos.• Elegir medida de evaluacion.• Disenar experimentos.• Realizar evaluacion.• Ejecutar pruebas estadısticas.• Reporte y analisis de resultados.

(INAOE) Agosto, 2015 10 / 101

Page 11: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Conseguir datosConvenciones. contamos con un conjunto de datosetiquetado: D = {(xi , yi)}1,...,N , xi ∈ Rd , yi ∈ {−1,1}.

Figura: Datos para aprendizaje supervisado.

(INAOE) Agosto, 2015 11 / 101

Page 12: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Dividir datosLos datos disponibles se dividen en 3 subconjuntos:

• Entrenamiento. Construccion del clasificador.

• Validacion. Optimizacion de parametros.

• Prueba Evaluacion del clasificador.

Figura: Particion sugerida.(INAOE) Agosto, 2015 12 / 101

Page 13: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Dividir datos

Caso de estudio 1: k−NN.

• Entrenamiento. Las instancias para clasificacion se tomande m1.

• Validacion. Elegir el mejor valor de k para el clasificador,evaluar el desempeno en m2

• Prueba El clasificador con el valor de k seleccionado seevalua en m3

(INAOE) Agosto, 2015 13 / 101

Page 14: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Dividir datos

Caso de estudio 2: Redes neuronales.

• Entrenamiento. Una red neuronal con parametros fijos seentrena en m1.

• Validacion. Los parametros de la red (e.g., numerosneuronas, tasa de aprendizaje) se escogen evaluando eldesempeno en m2

• Prueba La red con los mejores parametros se evalua en m3

(INAOE) Agosto, 2015 14 / 101

Page 15: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

• Generalmente nos interesa maximizar la exactitud ominimizar el error de prediccion.

• Sea T = {(xTi , y

Ti )}1,...,T el conjunto de instancias en la

particion m3 (i.e., de prueba).• Sea yT

i = f (xTi ), la prediccion del modelo bajo estudio

(i.e., f ) en la instancia de prueba i , con i = 1, . . . ,T .• ¿Como deben ser las predicciones de f con respecto a

yTi ?

(INAOE) Agosto, 2015 15 / 101

Page 16: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

• Idealmente yTi deberıa ser igual a yT

i para cualquier x(ojo: no solo para T ).

• ¿Cuando la salida es real?• ¿Cuando la salida es categorica?

(INAOE) Agosto, 2015 16 / 101

Page 17: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

• Idealmente yTi deberıa ser igual a yT

i para cualquier x(ojo: no solo para T ).

• Cuando la salida es real: Minimizar la “distancia” entreyT

i , yTi

(INAOE) Agosto, 2015 17 / 101

Page 18: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

Medidas comunmente usadas para evaluacion en salidascontinuas.

• Root Mean-Squared Error:

RMSE(f ) =

√√√√ 1T

T∑i=1

(yTi − yT

i )2

• Mean Absolute Error:

MAE(f ) =1T

T∑i=1

|yTi − yT

i |

(INAOE) Agosto, 2015 18 / 101

Page 19: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

• Idealmente yTi deberıa ser igual a yT

i para cualquier x(ojo: no solo para T ).

• Cuando la salida es categorica: Maximizar el numerode instancias para las cuales yT

i = yTi

(INAOE) Agosto, 2015 19 / 101

Page 20: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

Medidas comunmente usadas para evaluacion en salidascategoricas.

• Exactitud (accuracy).

ACC(f ) =1T

T∑i=1

(1yTi =yT

i)

• Error (0-1 loss)

ERR(f ) =1T

T∑i=1

(1yTi 6=yT

i)

(INAOE) Agosto, 2015 20 / 101

Page 21: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

¿Que pasa con las medidas anteriores cuando se tienendatos deslabanceados?

• Del total de instancias T , 90 % son de la clase 1 y 10 %de la clase −1.

• Un clasificador trivial que siempre predice la clase 1tendra una efectividad del 90 %

Muchas veces es necesario analizar con mayor detalle losresultados.

(INAOE) Agosto, 2015 21 / 101

Page 22: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

Una medida comunmente usada para evaluacion en salidascategoricas en datos desbalanceados:

• Balanced error rate

BER(f ) =E− + E+

2

donde E− / E+ es la tasa de error en instancias de laclase negativa/positiva, respectivamente.

(INAOE) Agosto, 2015 22 / 101

Page 23: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?Tabla de contingencia y/o matriz de confusion: util paraestimar medidas de evaluacion de la clasificacion.

Figura: Matriz de confusion 2-clases.

• TP: ciertos positivos.• FP: falsos positivos.• TN: ciertos negativos.• FN: falsos negativos.

(INAOE) Agosto, 2015 23 / 101

Page 24: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?• Sensitividad (recall). Tasa de ciertos positivos.

Sens(f ) =TP

TP + FN• Especifidad. Tasa de ciertos negativos.

Esp(f ) =TN

TN + FP

Figura: Matriz de confusion 2-clases.

(INAOE) Agosto, 2015 24 / 101

Page 25: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

• Recall. Del total de positivos (resp. negativos) cuantasclasifico correctamente.

Rec+(f ) =TP

TP + FN∨ Rec−(f ) =

TNTN + FP

• Precision. Del total de predicciones positivas (resp.negativas) cuantas clasifico correctamente.

Prec+(f ) =TP

TP + FP∨ Prec−(f ) =

TNTN + FN

• Medida fβ. Compromiso entre precision y cobertura,usualmente β = 1.

fβ(f ) =2× Prec × Rec

Prec + Rec

(INAOE) Agosto, 2015 25 / 101

Page 26: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?

Generalizacion de la medida f1 para mas de dos clases.• Macro-promedio. Se calcula la medida f1 para cada

una de las clases del problema, y se promedian losresultados. Mismo peso a todas las clases.

• Micro-promedio. Calcula TP, FP, TN, FN para todas lascategorıas y se calcula la medida f1. Mismo peso atodos las instancias.

(INAOE) Agosto, 2015 26 / 101

Page 27: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

Tabla de contingencia y/o matriz de confusion: util para estimarmedidas de evaluacion de la clasificacion.

Figura: Matriz de confusion k-clases.(INAOE) Agosto, 2015 27 / 101

Page 28: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas reales

• Todas las medidas anteriores asumen una clasificaciondura (cada instancia se asocia a una clase).

• Algunos clasificadores, ademas de proveer unaclasificacion dura, pueden proveer un valor deconfianza de la prediccion.

• Ejemplo: Clasificadores probabilistas. Por cada clasetenemos una probabilidad.

• Ejemplo: k−NN. La confianza de prediccion para cadauna de las clases puede ser la distancia de la instanciahacia la instancia mas cercana de cada clase.

(INAOE) Agosto, 2015 28 / 101

Page 29: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas reales

Vizualizacion de las confianzas de prediccion de unclasificador Random-Forest:

Figura: Predicciones de un clasificador RF.

(INAOE) Agosto, 2015 29 / 101

Page 30: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas reales

Vizualizacion de las confianzas de prediccion de unclasificador Random-Forest: clasificacion dura.

Figura: Predicciones de un clasificador RF.

(INAOE) Agosto, 2015 30 / 101

Page 31: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas realesVizualizacion de las confianzas de prediccion de unclasificador naıve Bayes:

Figura: Predicciones de un clasificador.

(INAOE) Agosto, 2015 31 / 101

Page 32: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas realesVizualizacion de las confianzas de prediccion de unclasificador naıve Bayes: Clasificacion dura

Figura: Predicciones de un clasificador.

(INAOE) Agosto, 2015 32 / 101

Page 33: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas reales

Realmente, ¿que tan malo es este clasificador?

Figura: Predicciones de un clasificador.

(INAOE) Agosto, 2015 33 / 101

Page 34: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas reales

Vizualizacion de las confianzas de prediccion de unclasificador naıve Bayes: Clasificacion dura

Figura: Predicciones de un clasificador.

(INAOE) Agosto, 2015 34 / 101

Page 35: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas reales

Realmente, ¿que tan malo es este clasificador?

Figura: Comparacion predicciones clasificador.

(INAOE) Agosto, 2015 35 / 101

Page 36: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas reales

• Es importante evaluar las predicciones de unclasificador independientemente del umbral deprediccion.

• ¿Como hacerlo?

(INAOE) Agosto, 2015 36 / 101

Page 37: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas realesLa curva ROC (Receiving Operator Characteristic).Para un umbral dado sobre f (x) se obtiene un punto de lacurva ROC:

Figura: Curva ROC

(INAOE) Agosto, 2015 37 / 101

Page 38: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Evaluacion de clasificadores

¿Que evaluar?: salidas realesA menudo es complicado/subjetivo comparar curvas,¿puede un solo numero resumir una curva?

Figura: Curva ROC y AUC.

(INAOE) Agosto, 2015 38 / 101

Page 39: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadores

Sean fa y fb dos clasificadores a comparar:• Evaluar ambos clasificadores usando exactamente el

mismo marco de evaluacion (mismas division de datos,mismos recursos computacionales, medida deevaluacion, etc.).

• Es comun realizar la evaluacion en varios conjuntos dedatos, con diferentes caracterısticas.

• Realizar pruebas de hipotesis para determinar lasignificancia estadısticas de la diferencia en efectividad.

(INAOE) Agosto, 2015 39 / 101

Page 40: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadores

Se suele recurrir a la estadıstica inferencial para dar soportea resultados experimentales:

• Sean D1, . . . ,Dk , k− conjuntos de datos que habran deutilizarse para la comparacion.

• Sean ra1 , . . . , r

ak y rb

1 , . . . , rbk los valores1 de la medida de

evaluacion en los k−conjuntos de datos obtenidos porlos clasificadores fa y fb, respectivamente.

• Queremos, evaluar si los resultados obtenidos por f a

son estadısticamente diferentes a los obtenidos por f b

1Es comun comparar promedios de medidas y no el resultado de unaunica medicion por conjunto de datos.

(INAOE) Agosto, 2015 40 / 101

Page 41: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadores

Data set BER(fa) BER(fa)Breast-cancer 36.98+

−0.08 33.59+−0.12

Diabetes 26.07+−0.03 25.37+

−0.02Flare-solar 32.87+

−0.02 32.65+−0.01

German 28.65+−0.02 28.28+

−0.02Heart 19.50+

−0.19 17.35+−0.06

Image 3.58+−0.01 2.50+

−0.01Splice 13.94+

−0.99 9.46+−0.25

Thyroid 10.84+−0.39 5.98+

−0.06Titanic 29.94+

−0.00 29.60+−0.00

Cuadro: Ejemplo, resultado de dos metodos a comparar.

(INAOE) Agosto, 2015 41 / 101

Page 42: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadoresPreguntas tıpicas:

• Supera significativamente fb a fa en el conjunto de datos X?

• En cuantos conjuntos de datos la diferencia de desempenoes significativa?

• Sobre todos los conjuntos de datos, que clasificador obtieneel menor error?, es significativa la diferencia?

Data set BER(fa) BER(fa)

Breast-cancer 36.98+−0.08 33.59+

−0.12Diabetes 26.07+

−0.03 25.37+−0.02

Flare-solar 32.87+−0.02 32.65+

−0.01German 28.65+

−0.02 28.28+−0.02

Heart 19.50+−0.19 17.35+

−0.06Image 3.58+

−0.01 2.50+−0.01

Splice 13.94+−0.99 9.46+

−0.25Thyroid 10.84+

−0.39 5.98+−0.06

Titanic 29.94+−0.00 29.60+

−0.00

Cuadro: Ejemplo, resultado de dos metodos a comparar.

(INAOE) Agosto, 2015 42 / 101

Page 43: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadoresPreguntas tıpicas:

• Supera significativamente fb a fa en el conjunto de datos X?

• En cuantos conjuntos de datos la diferencia de desempenoes significativa?

• Sobre todos los conjuntos de datos, que clasificador obtieneel menor error?, es significativa la diferencia?

Data set BER(fa) BER(fa)

Breast-cancer 36.98+−0.08 33.59+

−0.12Diabetes 26.07+

−0.03 25.37+−0.02

Flare-solar 32.87+−0.02 32.65+

−0.01German 28.65+

−0.02 28.28+−0.02

Heart 19.50+−0.19 17.35+

−0.06Image 3.58+

−0.01 2.50+−0.01

Splice 13.94+−0.99 9.46+

−0.25Thyroid 10.84+

−0.39 5.98+−0.06

Titanic 29.94+−0.00 29.60+

−0.00

Cuadro: Ejemplo, resultado de dos metodos a comparar.

(INAOE) Agosto, 2015 43 / 101

Page 44: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadores

Significancia estadıstica. En estadıstica, se dice que unadiferencia es estadısticamente significante/significativa,cuando no es posible que se presente por azar.• No se refiere a que se trata de algo “importante”

(INAOE) Agosto, 2015 44 / 101

Page 45: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadoresComparacion de dos clasificadores (fa y fb) en el conjunto dedatos X.

• Se tienen multiples resultados en diferentes particiones delmismo conjunto de datos X.

• Generalmente, se quiere determinar si el promedio de lasdiferencias proviene de una distribucion normal con mediacero, o no.

• ¿Como hacerlo?

Data set BER(fa) BER(fa) dif.r1 11.28 10.31 0.97r2 11.98 11.50 0.48r3 11.18 9.32 1.86r4 10.25 9.99 0.26r5 11.22 9.12 2.10r6 10.56 9.87 0.69r7 11.23 10.54 0.69r8 10.43 10.01 0.42r9 11.22 10.45 0.77

r10 10.76 10.12 0.64avg. 11.01+

−0.511 10.12+−0.663 0.88+

−0.61

Cuadro: Ejemplo, resultado de dos metodos a comparar.(INAOE) Agosto, 2015 45 / 101

Page 46: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadoresComparacion de dos clasificadores (fa y fb) en N conjuntos dedatos.

• Por cada conjunto de datos se tienen resultados de ambosmetodos.

• Generalmente, se quiere determinar si el promedio de lasdiferencias proviene de una distribucion normal con mediacero, o no.

• ¿Como hacerlo?

Data set BER(fa) BER(fa)

Breast-cancer 36.98+−0.08 33.59+

−0.12Diabetes 26.07+

−0.03 25.37+−0.02

Flare-solar 32.87+−0.02 32.65+

−0.01German 28.65+

−0.02 28.28+−0.02

Heart 19.50+−0.19 17.35+

−0.06Image 3.58+

−0.01 2.50+−0.01

Splice 13.94+−0.99 9.46+

−0.25Thyroid 10.84+

−0.39 5.98+−0.06

Titanic 29.94+−0.00 29.60+

−0.00

Cuadro: Ejemplo, resultado de dos metodos a comparar.(INAOE) Agosto, 2015 46 / 101

Page 47: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Comparacion de clasificadores

Comparacion de clasificadores

Lecturas Altamente recomendadas:• T.G. Dietterich. Approximate Statistical Tests for

Comparing Supervised Classification LearningAlgorithms Neural Computation, Vol. 10:1895–1924,1998.

• J. Demsar. Statistical Comparisons of Classifiersover Multiple Data sets. Journal of Machine LearningResearch, Vol. 7:1–30, 2006.

• S. Garcıa, F. Herrera. An Extension to “StatisticalComparisons of Classifiers over Multiple Data sets”for all Pairwise Comparisons. Journal of MachineLearning Research, Vol. 9:2677–2694, 2008.

(INAOE) Agosto, 2015 47 / 101

Page 48: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Evaluacion, validacion y sobre-ajuste

Evaluacion de metodos de aprendizaje• ¿Como evaluar el desempeno de un clasificador en una

tarea dada?.• Siguiendo una metodologıa adecuada.

• ¿Como escoger el mejor metodo para un problemadado?:

• Usando conocimiento del dominio.• Usando conocimiento del aprendizaje computacional.

• Metodos informados.• Metodos agnosticos.

(INAOE) Agosto, 2015 48 / 101

Page 49: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Evaluacion, validacion y sobre-ajuste

Evaluacion de metodos de aprendizaje• ¿Como evaluar el desempeno de un clasificador en una

tarea dada?.• Siguiendo una metodologıa adecuada.

• ¿Como escoger el mejor metodo para un problemadado?:

• Usando conocimiento del dominio.• Usando conocimiento del aprendizaje computacional.

• Metodos informados.• Metodos agnosticos.

(INAOE) Agosto, 2015 49 / 101

Page 50: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Evaluacion, validacion y sobre-ajuste

Usando el conocimiento del dominio.Categorizacion de textos.

Figura: Clasificacion de textos.

(INAOE) Agosto, 2015 50 / 101

Page 51: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Evaluacion, validacion y sobre-ajuste

Usando el conocimiento del dominio.Categorizacion de textos.

• Que: Preprocesamiento a datos, generacion derepresentaciones apropiadas, reduccion de atributos,clasificadores recomendados: naıve Bayes, SVM.

• Por que: Abundancia de informacion irrelevante,muchos datos faltantes (sparse representation),muchas dimensiones, representaciones mixtas,generalmente linealmente separable.

(INAOE) Agosto, 2015 51 / 101

Page 52: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Evaluacion, validacion y sobre-ajuste

Usando el conocimiento del dominio.Clasificacion de acciones en video.

Figura: Reconocimiento de acciones.

(INAOE) Agosto, 2015 52 / 101

Page 53: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Evaluacion, validacion y sobre-ajuste

Usando el conocimiento del dominio.Clasificacion de acciones en video.

• Que: Transformacion a escala de grises, trayectoriasdensas, descriptores TRJ, HOG, HOF, MBH,representacion de vectores de Fisher, clasificadoresrecomendados: SVM, con kernel de interseccion debines.

• Por que: IDT captura informacion altamentediscriminativa (espacio-temporal), FVs modelan laincertidumbre en descriptores, muchas dimensiones,kernel apropiado para histogramas.

(INAOE) Agosto, 2015 53 / 101

Page 54: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Evaluacion, validacion y sobre-ajuste

Estrategias de aprendizaje computacional.

• Metodos informados. Explotan caracterısticas de losmetodos de clasificacion y aprendizaje (e.g., KRR).Permiten seleccionar parametros para modelosespecıficos de clasificacion.

• Metodos agnosticos. Metodos de caja negra, sedefine un criterio de efectividad y se intenta optimizar.Utiles para seleccion de entre variantes de diferentenaturaleza.

(INAOE) Agosto, 2015 54 / 101

Page 55: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Las medidas de evaluacion vistas en la sesion anteriorproveen un estimado de la efectividad de unmodelo/clasificador f .

• ¿Como seleccionar los mejores (hıper-) parametrospara un clasificador dado?

• ¿Como seleccionar un clasificador de un conjunto deopciones?

(INAOE) Agosto, 2015 55 / 101

Page 56: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Las medidas de evaluacion vistas en la sesion anteriorproveen un estimado de la efectividad de unmodelo/clasificador f .

• ¿Como seleccionar los mejores (hıper-) parametrospara un clasificador dado?

• ¿Como seleccionar un clasificador de un conjunto deopciones?

(INAOE) Agosto, 2015 56 / 101

Page 57: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Diferencia entre parametro ehıper-parametro

En aprendizaje computacional:

• Parametro. Parametros son las variables (y/o susvalores) que se “aprenden” a partir de los datos. E.g.,parametros en k−NN?

• Hıper-parametro. Son las variables (y/o sus valores)de un modelo, clasificador, funcion, que debenespecificarse antes de aprender los parametros. E.g.,hıper-parametros en k−NN?

(INAOE) Agosto, 2015 57 / 101

Page 58: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Grid-search. Metodo basico para seleccion dehıper-parametros.Si el modelo f tiene hıper-parametros Θ = {θ1, . . . , θp}:

1 Discretizar el rango de valores que pueden tomar θ1,...,p.2 a cada posible combinacion de hıper-parametros Θ′:

• Entrenar fΘ′ en m1 (datos de entrenamiento)• Evaluar el desempeno de fΘ′ en m2 (datos de

validacion)

3 Seleccionar la mejor configuracion de hıper-parametrosΘ∗ para f .

(INAOE) Agosto, 2015 58 / 101

Page 59: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modeloGrid-search. Metodo basico para seleccion dehıper-parametros.

Figura: Grid search.

(INAOE) Agosto, 2015 59 / 101

Page 60: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modeloGrid-search. Metodo basico para seleccion dehıper-parametros.

Figura: Grid search.

(INAOE) Agosto, 2015 60 / 101

Page 61: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modeloGrid-search. Metodo basico para seleccion dehıper-parametros.

Figura: Grid search.

(INAOE) Agosto, 2015 61 / 101

Page 62: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Grid-search. Metodo basico para seleccion dehıper-parametros.• ¿Que tan fina debe ser la discretizacion?• ¿Discretizacion uniforme?• ¿Que pasa cuand p es muy grande?

Alternativa: Usar otra estrategia de busqueda/optimizacion.

(INAOE) Agosto, 2015 62 / 101

Page 63: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Las medidas de evaluacion vistas en la sesion anteriorproveen un estimado de la efectividad de unmodelo/clasificador f .

• ¿Como seleccionar los mejores (hıper-) parametrospara un clasificador dado?

• ¿Como seleccionar un clasificador de un conjunto deopciones?

(INAOE) Agosto, 2015 63 / 101

Page 64: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Diferentes niveles en seleccion de modelo:• Optimizacion de parametros. Dado un clasificador,

optimizar sus hıper-parametros.• Seleccion de clasificador. Dado un conjunto de

clasificadores, seleccionar el mejor para un problema.• Seleccion de modelo completo. Dado un toolbox de

aprendizaje computacional, selecciona el mejor modeloposible que se pueda generar.

(INAOE) Agosto, 2015 64 / 101

Page 65: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Diferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 65 / 101

Page 66: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Diferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 66 / 101

Page 67: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Diferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 67 / 101

Page 68: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Diferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 68 / 101

Page 69: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modeloDiferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 69 / 101

Page 70: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modeloDiferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 70 / 101

Page 71: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modeloDiferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 71 / 101

Page 72: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modeloDiferentes niveles en seleccion de modelo:

(INAOE) Agosto, 2015 72 / 101

Page 73: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Metodos de caja negra.• Seleccionar un criterio a optimizar (e.g., exactitud, error,

AUC).• Seleccionar una estrategia de evaluacion (e.g., k − fold

CV).• Seleccionar metodo de optimizacion.

(INAOE) Agosto, 2015 73 / 101

Page 74: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo completo

Tendencias: Automatic Machine Learning

https://www.codalab.org/competitions/2321

(INAOE) Agosto, 2015 74 / 101

Page 75: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Seleccion de modelo

Seleccion de modelo

Problemas en seleccion de modelo:• Riesgo de sobre-ajustar el modelo a los datos.• Problema de optimizacion computacionalmente

costoso.• Problema altamente complejo con muchos factores de

aleatoriedad.

(INAOE) Agosto, 2015 75 / 101

Page 76: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

Error de generalizacionHasta ahora, hemos asumido que: se entrena en m1, sevalida en m2 y se evalua en m3, ¿por que?

Figura: Datos para aprendizaje supervisado.

(INAOE) Agosto, 2015 76 / 101

Page 77: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

• Error de generalizacion. Dada una muestra finita dedatos (i.e., D = {(xi , yi)}1,...,N ), queremos obtener elclasificador f que minimiza el error de clasificacion encualquier muestra de datos que son i.i.d. i.e., minimizar

E [L(Y , f (X ))]

donde L es una funcion de perdida, y X ,Y muestreosaleatoriamente de su distribucion conjunta.¿Problema?

(INAOE) Agosto, 2015 77 / 101

Page 78: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

El error de entrenamiento no es un buen estimado del errorde prueba:

Figura: Capacidad de generalizacion.

(INAOE) Agosto, 2015 78 / 101

Page 79: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

El error de entrenamiento no es un buen estimado del errorde prueba:

Figura: Capacidad de generalizacion.

(INAOE) Agosto, 2015 79 / 101

Page 80: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

El error de entrenamiento no es un buen estimado del errorde prueba:

Figura: Capacidad de generalizacion.

(INAOE) Agosto, 2015 80 / 101

Page 81: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

El error de entrenamiento no es un buen estimado del errorde prueba:

Figura: Capacidad de generalizacion.

(INAOE) Agosto, 2015 81 / 101

Page 82: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

El error de entrenamiento no es un buen estimado del errorde prueba:

Figura: Capacidad de generalizacion.

(INAOE) Agosto, 2015 82 / 101

Page 83: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Error de generalizacion

Error de entrenamiento vs. error de generalizacion

Figura: Diferentes superficies de clasificacion generadas pordiferentes clasificadores.

(INAOE) Agosto, 2015 83 / 101

Page 84: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Estrategias de evaluacion

• Problema. Generalmente la muestra D es finita ypequena, entonces, ¿como podemos estimar el erroren datos no vistos?

• Hold-out.• Cross-validation.• Bootstrapping.• Jacknife.• ...

• La estimacion aplica para evaluar un clasificador,seleccionar parametros, o comparar tecnicas.

(INAOE) Agosto, 2015 84 / 101

Page 85: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Estrategias de evaluacion

Hold-outEl esquema visto hasta el momento:• Dejar fuera una particion de datos para evaluacion.• Seleccion aleatoria de particiones.• Generalmente se hacen varias repeticiones.

Figura: Particion sugerida esquema hold out.

(INAOE) Agosto, 2015 85 / 101

Page 86: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Estrategias de evaluacion

k−fold Cross validation

1 Dividir el conjunto de datos D en k−particiones:D1, . . . ,Dk .

2 Por cada subconjunto Di :• Entrenar clasificador usando

⋃Dj:j 6=i (k − 1

subconjuntos)• Evaluar el clasificador entrenado en Di , Erri (f )

3 Reportar el promedio del desempeno obtenido:CVErr = 1

k∑k

i=1 Erri(f )

(INAOE) Agosto, 2015 86 / 101

Page 87: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Estrategias de evaluacion

k−fold Cross validation

Figura: Validacion cruzada.

(INAOE) Agosto, 2015 87 / 101

Page 88: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Estrategias de evaluacion

Otras tecnicas

• Bootstraping. Repetir Hold-out muestreando conremplazo.

• Jacknife. N−fold Cross Validation, con N = |D|.• 5× 2−fold CV. 5 times 2−fold Cross Validation.• Stratified CV. CV manteniendo la distribucion de las

clases.• ...

(INAOE) Agosto, 2015 88 / 101

Page 89: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Estrategias de evaluacion

• Ojo: Al realizar una busqueda intensiva para optimizarparametros tambien es posible sobre-ajustar laestrategia de evaluacion.

• Por que?

(INAOE) Agosto, 2015 89 / 101

Page 90: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

El dilema sesgo-varianza

• Un modelo predictivo f puede verse como un estimadorde E(Y |X ), el valor esperado de Y dado X

• Sean• f (X ;D): el modelo entrenado en un conjunto de datos D

de tamano t• ED[·]: el valor esperado tomado sobre todos los

conjuntos de datos de tamano t de acuerdo a P(X ,Y )

• Se puede mostrar que:

ED[(f (X ;D)− E [Y |X ])2] = (ED[f (X ;D)]− E(Y |X ))2 . . .

. . .+ ED[(f (X ;D)− E [f (X ;D)])2]

(INAOE) Agosto, 2015 90 / 101

Page 91: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

El dilema sesgo-varianza

Sesgo. Que tanto se desvia el promedio de f (X ;D) sobretodos los conjuntos de datos de tamano t de E(Y |X ) (lamedia verdadera)Que tanto se aleja el modelo bajo analisis al modelo quegenero los datos

ED[(f (X ;D)− E [Y |X ])2] = (ED[f (X ;D)]− E(Y |X ))2 . . .

. . .+ ED[(f (X ;D)− E [f (X ;D)])2]

(INAOE) Agosto, 2015 91 / 101

Page 92: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

El dilema sesgo-varianza

Varianza. La desviacion promedio de f (X ;D) con respectoal promedio de f (X ;D) sobre todos los conjuntos de datosde tamano t .Que tanto depende el modelo del conjunto de datos que seuso para entrenarlo/generarlo. Que tanto variaran laspredicciones de tu modelo para distintos conjuntos dedatos?

ED[(f (X ;D)− E [Y |X ])2] = (ED[f (X ;D)]− E(Y |X ))2 . . .

. . .+ ED[(f (X ;D)− E [f (X ;D)])2]

(INAOE) Agosto, 2015 92 / 101

Page 93: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Figura: Dilema sesgo-varianza.

(INAOE) Agosto, 2015 93 / 101

Page 94: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Superficie de decision k−NN.

Figura: Superficie de clasificacion inducida por 1-NN.

(INAOE) Agosto, 2015 94 / 101

Page 95: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Superficie de decision k−NN.

Figura: Superficie de clasificacion inducida por 3-NN.

(INAOE) Agosto, 2015 95 / 101

Page 96: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Superficie de decision k−NN.

Figura: Superficie de clasificacion inducida por 5-NN.

(INAOE) Agosto, 2015 96 / 101

Page 97: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Superficie de decision k−NN.

Figura: Superficie de clasificacion inducida por 7-NN.

(INAOE) Agosto, 2015 97 / 101

Page 98: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Superficie de decision k−NN.

Figura: Superficie de clasificacion inducida por 15-NN.

(INAOE) Agosto, 2015 98 / 101

Page 99: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Superficie de decision k−NN.

Figura: Superficie de clasificacion inducida por 25-NN.

(INAOE) Agosto, 2015 99 / 101

Page 100: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Dilema sesgo-varianza

Figura: Dilema sesgo-varianza.

(INAOE) Agosto, 2015 100 / 101

Page 101: Eduardo Morales, Hugo Jair Escalanteemorales/Cursos/NvoAprend/Acetatos/... · Eduardo Morales, Hugo Jair Escalante Coordinacion de Ciencias Computacionales ...

Outline

Introduccion

Evaluacion declasificadores

Comparaciondeclasificadores

Seleccion demodelo

Error degeneralizacion

Estrategias deevaluacion

Dilema sesgo-varianza

Dilema sesgo-varianza

Discusion

Take-home messages.

• En problemas reales, no es posible estimarexactamente el error de generalizacion.

• El error de entrenamiento siempre sera optimista.• Estrategias de validacion nos dan idea de como sera el

error de generalizacion.• Intentos por mejorar el desempeno de un clasificador

en datos de entrenamiento, mediante el incremento dela complejidad del modelo puede llevarnos asobre-ajustar los datos: el error de entrenamiento esenganoso!

(INAOE) Agosto, 2015 101 / 101