Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren...

82
Aprendizaje Estad´ ıstico Dos Caballitos de Batalla Riesgo Aprendizaje Estad´ ıstico: El problema de clasificaci´ on formalmente Error de Aproximaci´ on y Estimaci´ on Aprendizaje Estad´ ıstico: El problema de regresi´ on Aprendizaje Estad´ ıstico: Riesgo y el Problema de Error de Aproximaci´ on y Estimaci´on Alvaro J. Riascos Villegas Junio de 2019 Aprendizaje Estad´ ıstico Quantil | Matem´ aticas Aplicadas

Transcript of Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren...

Page 1: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Aprendizaje Estadıstico: Riesgo y el Problema deError de Aproximacion y Estimacion

Alvaro J. Riascos Villegas

Junio de 2019

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 2: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Contenido

1 Aprendizaje Estadıstico

2 Dos Caballitos de Batalla

3 Riesgo

4 Aprendizaje Estadıstico: El problema de clasificacionformalmente

Funciones de aprendizaje optimas: Variables categoricas

5 Error de Aproximacion y Estimacion

6 Aprendizaje Estadıstico: El problema de regresionFunciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 3: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Aprendizaje Estadıstico

Las tecnicas de minerıa de datos se dividen basicamente endos grandes ramas:

1 Analisis supervisado: se cuenta con datos de la forma{(x1, y1), ..., (xn, yn)} donde las observaciones de y son lasvariables de interes.

El objetivo es estudiar el comportamiento de la variableobjetivo y (o respuesta) condicional a las variablesindependientes x (o predictores).Matematicamente: estudiar y describir la distribucion de ycondicional a x .

2 Analisis no supervisado: se cuentan con datos de la forma{x1, ..., xn}, ninguna variables es el centro de atencion.

El objetivo es estudiar las variables x (o factores), posiblespatrones, conglomerados, etc.Matematicamente: estudiar la distribucion de x .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 4: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Aprendizaje Estadıstico

Las tecnicas de minerıa de datos se dividen basicamente endos grandes ramas:

1 Analisis supervisado: se cuenta con datos de la forma{(x1, y1), ..., (xn, yn)} donde las observaciones de y son lasvariables de interes.

El objetivo es estudiar el comportamiento de la variableobjetivo y (o respuesta) condicional a las variablesindependientes x (o predictores).Matematicamente: estudiar y describir la distribucion de ycondicional a x .

2 Analisis no supervisado: se cuentan con datos de la forma{x1, ..., xn}, ninguna variables es el centro de atencion.

El objetivo es estudiar las variables x (o factores), posiblespatrones, conglomerados, etc.Matematicamente: estudiar la distribucion de x .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 5: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Aprendizaje Estadıstico

Las tecnicas de minerıa de datos se dividen basicamente endos grandes ramas:

1 Analisis supervisado: se cuenta con datos de la forma{(x1, y1), ..., (xn, yn)} donde las observaciones de y son lasvariables de interes.

El objetivo es estudiar el comportamiento de la variableobjetivo y (o respuesta) condicional a las variablesindependientes x (o predictores).Matematicamente: estudiar y describir la distribucion de ycondicional a x .

2 Analisis no supervisado: se cuentan con datos de la forma{x1, ..., xn}, ninguna variables es el centro de atencion.

El objetivo es estudiar las variables x (o factores), posiblespatrones, conglomerados, etc.Matematicamente: estudiar la distribucion de x .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 6: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Otras formas de aprendizaje:

Aprendizaje semisupervisado.Aprendizaje por refuerzo.

Page 7: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Terminologıa

Variables de Variables deVariables de Entrada

Variables de Salida TerminologíaProblema

InputsPredictores

OutputRespuesta Análisis 

Respuesta categórica: Clasificación

PredictoresIndependientes

RespuestaDependiente SupervisadoRespuesta continua: 

Predicción o Regresión

FactoresCaracterísticas

Rasgos

Análisis No Supervisado

Rasgos

Page 8: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Para ilustrar algunas de las ideas principales enfoquemonos enel problema de clasificacion (que tiene aplicaciones a:otorgamiento de creditos, fraude, caracterizacion de clientes,etc.)

Supongamos que tenemos una muestraτn = {(x1, y1), ..., (xn, yn)} generada de forma independientede una distribucion P(X ,Y ) donde y ∈ {0, 1}.La distribucion P es desconocida.

Observese que el supuesto es que la muestra es i.i.d.

Denotamos por Ξ el espacio de variables independientes(x ∈ Ξ) y Υ el espacio de variables dependientes (y ∈ Υ).

Una funcion de apredizaje es una funcion f : Ξ→ Υ.Intuitivamente dada una observacion de x la funcionselecciona un resultado f (x).

Page 9: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Para ilustrar algunas de las ideas principales enfoquemonos enel problema de clasificacion (que tiene aplicaciones a:otorgamiento de creditos, fraude, caracterizacion de clientes,etc.)

Supongamos que tenemos una muestraτn = {(x1, y1), ..., (xn, yn)} generada de forma independientede una distribucion P(X ,Y ) donde y ∈ {0, 1}.La distribucion P es desconocida.

Observese que el supuesto es que la muestra es i.i.d.

Denotamos por Ξ el espacio de variables independientes(x ∈ Ξ) y Υ el espacio de variables dependientes (y ∈ Υ).

Una funcion de apredizaje es una funcion f : Ξ→ Υ.Intuitivamente dada una observacion de x la funcionselecciona un resultado f (x).

Page 10: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Para ilustrar algunas de las ideas principales enfoquemonos enel problema de clasificacion (que tiene aplicaciones a:otorgamiento de creditos, fraude, caracterizacion de clientes,etc.)

Supongamos que tenemos una muestraτn = {(x1, y1), ..., (xn, yn)} generada de forma independientede una distribucion P(X ,Y ) donde y ∈ {0, 1}.La distribucion P es desconocida.

Observese que el supuesto es que la muestra es i.i.d.

Denotamos por Ξ el espacio de variables independientes(x ∈ Ξ) y Υ el espacio de variables dependientes (y ∈ Υ).

Una funcion de apredizaje es una funcion f : Ξ→ Υ.Intuitivamente dada una observacion de x la funcionselecciona un resultado f (x).

Page 11: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Para ilustrar algunas de las ideas principales enfoquemonos enel problema de clasificacion (que tiene aplicaciones a:otorgamiento de creditos, fraude, caracterizacion de clientes,etc.)

Supongamos que tenemos una muestraτn = {(x1, y1), ..., (xn, yn)} generada de forma independientede una distribucion P(X ,Y ) donde y ∈ {0, 1}.La distribucion P es desconocida.

Observese que el supuesto es que la muestra es i.i.d.

Denotamos por Ξ el espacio de variables independientes(x ∈ Ξ) y Υ el espacio de variables dependientes (y ∈ Υ).

Una funcion de apredizaje es una funcion f : Ξ→ Υ.Intuitivamente dada una observacion de x la funcionselecciona un resultado f (x).

Page 12: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Para ilustrar algunas de las ideas principales enfoquemonos enel problema de clasificacion (que tiene aplicaciones a:otorgamiento de creditos, fraude, caracterizacion de clientes,etc.)

Supongamos que tenemos una muestraτn = {(x1, y1), ..., (xn, yn)} generada de forma independientede una distribucion P(X ,Y ) donde y ∈ {0, 1}.La distribucion P es desconocida.

Observese que el supuesto es que la muestra es i.i.d.

Denotamos por Ξ el espacio de variables independientes(x ∈ Ξ) y Υ el espacio de variables dependientes (y ∈ Υ).

Una funcion de apredizaje es una funcion f : Ξ→ Υ.Intuitivamente dada una observacion de x la funcionselecciona un resultado f (x).

Page 13: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico

Para ilustrar algunas de las ideas principales enfoquemonos enel problema de clasificacion (que tiene aplicaciones a:otorgamiento de creditos, fraude, caracterizacion de clientes,etc.)

Supongamos que tenemos una muestraτn = {(x1, y1), ..., (xn, yn)} generada de forma independientede una distribucion P(X ,Y ) donde y ∈ {0, 1}.La distribucion P es desconocida.

Observese que el supuesto es que la muestra es i.i.d.

Denotamos por Ξ el espacio de variables independientes(x ∈ Ξ) y Υ el espacio de variables dependientes (y ∈ Υ).

Una funcion de apredizaje es una funcion f : Ξ→ Υ.Intuitivamente dada una observacion de x la funcionselecciona un resultado f (x).

Page 14: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Perdida

La forma estandar de evaluar el rendimiento de una funcion deaprendizaje para el problema de clasificacion es usando unafuncion de perdida, L : Ξ×Υ×Υ→ {0, 1}. Dado unaobservacion (x , y), si f (x) 6= y entonces L(x , y , f (x)) = 1 yL(x , y , f (x)) = 0 en caso contrario (funcion de perdidaestandar del problema clasificacion binaria).

Cuando el problema es de regresion la forma mas comun demedir la perdida es usando la raız del error cuadratico medio(RMSE).

Page 15: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Perdida

La forma estandar de evaluar el rendimiento de una funcion deaprendizaje para el problema de clasificacion es usando unafuncion de perdida, L : Ξ×Υ×Υ→ {0, 1}. Dado unaobservacion (x , y), si f (x) 6= y entonces L(x , y , f (x)) = 1 yL(x , y , f (x)) = 0 en caso contrario (funcion de perdidaestandar del problema clasificacion binaria).

Cuando el problema es de regresion la forma mas comun demedir la perdida es usando la raız del error cuadratico medio(RMSE).

Page 16: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Funciones y maquinas deaprendizaje

Una maquina o algoritmo de aprendizaje M, es un algoritmoque dada una muestra τn nos permite construir una funcionde aprendizaje fn : Ξ→ Υ:

M : (Ξ×Υ)n → F (1)

donde F es un conjunto de funciones de aprendizaje.

Observese que la funcion de aprendizaje fn depende de unamuestra de tamano n. Para diferentes muestras se obtienendiferentes funciones de aprendizaje.

Page 17: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Funciones y maquinas deaprendizaje

Una maquina o algoritmo de aprendizaje M, es un algoritmoque dada una muestra τn nos permite construir una funcionde aprendizaje fn : Ξ→ Υ:

M : (Ξ×Υ)n → F (1)

donde F es un conjunto de funciones de aprendizaje.

Observese que la funcion de aprendizaje fn depende de unamuestra de tamano n. Para diferentes muestras se obtienendiferentes funciones de aprendizaje.

Page 18: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Ejes de la teorıa

Error de aproximacion (sesgo) vrs. error de estimacion(varianza).

Consistencia.

El problema de minimizacion de riesgo empırico.

Capacidad y cotas.

Page 19: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Contenido

1 Aprendizaje Estadıstico

2 Dos Caballitos de Batalla

3 Riesgo

4 Aprendizaje Estadıstico: El problema de clasificacionformalmente

Funciones de aprendizaje optimas: Variables categoricas

5 Error de Aproximacion y Estimacion

6 Aprendizaje Estadıstico: El problema de regresionFunciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 20: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Dos Caballitos de Batalla

Los dos caballitos de batalla que sirven como referencia paragran parte de la teorıa son:

1 Algoritmo del vecino mas cercano.2 Modelo de regresion lineal.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 21: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Algoritmo del vecino ms cercano

Fijemos una nocion de distancia entre las variables predictoras.

Sea k el numero de vecinos que la funcion de aprendizajeutiliza para clasificar.

Dada una muestra τn y un x ∈ Ξ, calculamos los k puntos{xi1 , ..., xik} que tengan menor distancia a x .

La funcion de aprendizaje (en el problema de clasificacionbinario) se define segun el numero de {k : yik = 1}: votomayoritario.

Denotamos esta maquina de aprendizaje por K − NNn.

Page 22: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Algoritmo del vecino ms cercano

Fijemos una nocion de distancia entre las variables predictoras.

Sea k el numero de vecinos que la funcion de aprendizajeutiliza para clasificar.

Dada una muestra τn y un x ∈ Ξ, calculamos los k puntos{xi1 , ..., xik} que tengan menor distancia a x .

La funcion de aprendizaje (en el problema de clasificacionbinario) se define segun el numero de {k : yik = 1}: votomayoritario.

Denotamos esta maquina de aprendizaje por K − NNn.

Page 23: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Algoritmo del vecino ms cercano

Fijemos una nocion de distancia entre las variables predictoras.

Sea k el numero de vecinos que la funcion de aprendizajeutiliza para clasificar.

Dada una muestra τn y un x ∈ Ξ, calculamos los k puntos{xi1 , ..., xik} que tengan menor distancia a x .

La funcion de aprendizaje (en el problema de clasificacionbinario) se define segun el numero de {k : yik = 1}: votomayoritario.

Denotamos esta maquina de aprendizaje por K − NNn.

Page 24: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Algoritmo del vecino ms cercano

Fijemos una nocion de distancia entre las variables predictoras.

Sea k el numero de vecinos que la funcion de aprendizajeutiliza para clasificar.

Dada una muestra τn y un x ∈ Ξ, calculamos los k puntos{xi1 , ..., xik} que tengan menor distancia a x .

La funcion de aprendizaje (en el problema de clasificacionbinario) se define segun el numero de {k : yik = 1}: votomayoritario.

Denotamos esta maquina de aprendizaje por K − NNn.

Page 25: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Algoritmo del vecino ms cercano

Fijemos una nocion de distancia entre las variables predictoras.

Sea k el numero de vecinos que la funcion de aprendizajeutiliza para clasificar.

Dada una muestra τn y un x ∈ Ξ, calculamos los k puntos{xi1 , ..., xik} que tengan menor distancia a x .

La funcion de aprendizaje (en el problema de clasificacionbinario) se define segun el numero de {k : yik = 1}: votomayoritario.

Denotamos esta maquina de aprendizaje por K − NNn.

Page 26: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Algoritmo del vecino mascercano

Elements of Statistical Learning (2nd Ed.) c©Hastie, Tibshirani & Friedman 2009 Chap 2

15-Nearest Neighbor Classifier

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .

..

. .. .. .. .. . .. . .. . .. . . . .. . . . . .. . . . . . .. . . . . . . .. . . . . . . . .. . . . . . . . .. . . . . . . . .. . . . . . . . . .. . . . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

oo

ooo

o

o

o

o

o

o

o

o

oo

o

o o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

oo o

oo

oo

o

oo

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

oo

o

o

o

o

o

oo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o ooo

o

o

ooo o

o

o

o

o

o

o

o

oo

o

o

oo

ooo

o

o

ooo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

oo

ooo

o

o

o

o

o

o

oo

oo

oo

o

o

o

o

o

o

o

o

o

o

o

FIGURE 2.2. The same classification example in twodimensions as in Figure 2.1. The classes are coded asa binary variable (BLUE = 0, ORANGE = 1) and then fitby 15-nearest-neighbor averaging as in (2.8). The pre-dicted class is hence chosen by majority vote amongstthe 15-nearest neighbors.

Page 27: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Algoritmo del vecino mascercano

Observese que este funcion de aprendizaje ajusta mejor dentrode muestra y es mas compleja que la anterior.

Elements of Statistical Learning (2nd Ed.) c©Hastie, Tibshirani & Friedman 2009 Chap 2

1-Nearest Neighbor Classifier

.. .. .. . . . . .. . . . . . .. . . . . . . . .. . . . . . . . .. . . . . . . . . . .. . . . . . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . .. . . . . . . . . . . .. . . . . . . . . . .. . . . . . . . . . .. . . . . . . . . . . .. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . .. . . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . .

oo

ooo

o

o

o

o

o

o

o

o

oo

o

o o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

oo o

oo

oo

o

oo

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

oo

o

o

o

o

o

oo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o ooo

o

o

ooo o

o

o

o

o

o

o

o

oo

o

o

oo

ooo

o

o

ooo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

oo

ooo

o

o

o

o

o

o

oo

oo

oo

o

o

o

o

o

o

o

o

o

o

o

FIGURE 2.3. The same classification example in twodimensions as in Figure 2.1. The classes are coded asa binary variable (BLUE = 0, ORANGE = 1), and thenpredicted by 1-nearest-neighbor classification.

Page 28: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Regresion lineal

Supongamos que yi = βT xi donde hemos incluido un 1 comoprimera coordenada en en cada vector xi con el fin de incluiruna constante en el modelo lineal.

Sea βn el estimador de mınimos cuadrados ordinarios.

Observese que βn define una funcion de aprendizajef OLSn (x) = 1 si βTn x > 0,5 y cero caso contrario.

Elements of Statistical Learning (2nd Ed.) c©Hastie, Tibshirani & Friedman 2009 Chap 3

•• •

••

• ••

• •

••

••

••

••

••

•• ••

• ••

•• •

••

• ••

• •

••

• •••

X1

X2

Y

FIGURE 3.1. Linear least squares fitting withX ∈ IR2. We seek the linear function of X that mini-mizes the sum of squared residuals from Y .

Page 29: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Regresion lineal

Supongamos que yi = βT xi donde hemos incluido un 1 comoprimera coordenada en en cada vector xi con el fin de incluiruna constante en el modelo lineal.

Sea βn el estimador de mınimos cuadrados ordinarios.

Observese que βn define una funcion de aprendizajef OLSn (x) = 1 si βTn x > 0,5 y cero caso contrario.

Elements of Statistical Learning (2nd Ed.) c©Hastie, Tibshirani & Friedman 2009 Chap 3

•• •

••

• ••

• •

••

••

••

••

••

•• ••

• ••

•• •

••

• ••

• •

••

• •••

X1

X2

Y

FIGURE 3.1. Linear least squares fitting withX ∈ IR2. We seek the linear function of X that mini-mizes the sum of squared residuals from Y .

Page 30: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Regresion lineal

Supongamos que yi = βT xi donde hemos incluido un 1 comoprimera coordenada en en cada vector xi con el fin de incluiruna constante en el modelo lineal.

Sea βn el estimador de mınimos cuadrados ordinarios.

Observese que βn define una funcion de aprendizajef OLSn (x) = 1 si βTn x > 0,5 y cero caso contrario.

Elements of Statistical Learning (2nd Ed.) c©Hastie, Tibshirani & Friedman 2009 Chap 3

•• •

••

• ••

• •

••

••

••

••

••

•• ••

• ••

•• •

••

• ••

• •

••

• •••

X1

X2

Y

FIGURE 3.1. Linear least squares fitting withX ∈ IR2. We seek the linear function of X that mini-mizes the sum of squared residuals from Y .

Page 31: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Dos Caballitos de Batalla: Regresion lineal

La lınea corresponde a βTn xi = 0,5.

Elements of Statistical Learning (2nd Ed.) c©Hastie, Tibshirani & Friedman 2009 Chap 2

Linear Regression of 0/1 Response

.. . . . . .. . . . . . . . . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . .. . . . . . . .. .

oo

ooo

o

o

o

o

o

o

o

o

oo

o

o o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

oo o

oo

oo

o

oo

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

oo

o

o

o

o

o

oo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o ooo

o

o

ooo o

o

o

o

o

o

o

o

oo

o

o

oo

ooo

o

o

ooo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

oo

ooo

o

o

o

o

o

o

oo

oo

oo

o

o

o

o

o

o

o

o

o

o

o

FIGURE 2.1. A classification example in two di-mensions. The classes are coded as a binary variable(BLUE = 0, ORANGE = 1), and then fit by linear re-gression. The line is the decision boundary defined by

xT β = 0.5. The orange shaded region denotes that partof input space classified as ORANGE, while the blue regionis classified as BLUE.

Page 32: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Contenido

1 Aprendizaje Estadıstico

2 Dos Caballitos de Batalla

3 Riesgo

4 Aprendizaje Estadıstico: El problema de clasificacionformalmente

Funciones de aprendizaje optimas: Variables categoricas

5 Error de Aproximacion y Estimacion

6 Aprendizaje Estadıstico: El problema de regresionFunciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 33: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Aprendizaje Estadıstico: Riesgo

Sea f una funcion de aprendizaje. Definimos el riesgo de fcomo:

R(f ) = E [L(X ,Y , f (X ))] (2)

El riesgo no se puede calcular porque no conocemos ladistribucion P.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 34: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: riesgo empırico y riesgo

Dos conceptos claves de la teorıa son:1 El error de entrenamiento o riesgo empırico es el estimador

muestral del riesgo y se denota por Remp(f ):

Remp(f ) =n∑

i=1

L(Xi ,Yi , f (Xi ))

n(3)

2 El error de prueba (generalizacion o prediccion) es el riesgo dela funcion de aprendizaje:

R(f ) = E [L(X ,Y , f (X ))] (4)

donde el valor esperado se toma con respecto a la distribucionP.

Observerse que en ambas definiciones podrıamos reemplazarf (x) por fn(x) para indicar que las funciones de aprendizajedependen de la muestra. En cualquier caso, la muestra τn semantiene fija.

Page 35: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: riesgo empırico y riesgo

Dos conceptos claves de la teorıa son:1 El error de entrenamiento o riesgo empırico es el estimador

muestral del riesgo y se denota por Remp(f ):

Remp(f ) =n∑

i=1

L(Xi ,Yi , f (Xi ))

n(3)

2 El error de prueba (generalizacion o prediccion) es el riesgo dela funcion de aprendizaje:

R(f ) = E [L(X ,Y , f (X ))] (4)

donde el valor esperado se toma con respecto a la distribucionP.

Observerse que en ambas definiciones podrıamos reemplazarf (x) por fn(x) para indicar que las funciones de aprendizajedependen de la muestra. En cualquier caso, la muestra τn semantiene fija.

Page 36: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: riesgo empırico y riesgo

Dos conceptos claves de la teorıa son:1 El error de entrenamiento o riesgo empırico es el estimador

muestral del riesgo y se denota por Remp(f ):

Remp(f ) =n∑

i=1

L(Xi ,Yi , f (Xi ))

n(3)

2 El error de prueba (generalizacion o prediccion) es el riesgo dela funcion de aprendizaje:

R(f ) = E [L(X ,Y , f (X ))] (4)

donde el valor esperado se toma con respecto a la distribucionP.

Observerse que en ambas definiciones podrıamos reemplazarf (x) por fn(x) para indicar que las funciones de aprendizajedependen de la muestra. En cualquier caso, la muestra τn semantiene fija.

Page 37: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: riesgo empırico y riesgo

Dos conceptos claves de la teorıa son:1 El error de entrenamiento o riesgo empırico es el estimador

muestral del riesgo y se denota por Remp(f ):

Remp(f ) =n∑

i=1

L(Xi ,Yi , f (Xi ))

n(3)

2 El error de prueba (generalizacion o prediccion) es el riesgo dela funcion de aprendizaje:

R(f ) = E [L(X ,Y , f (X ))] (4)

donde el valor esperado se toma con respecto a la distribucionP.

Observerse que en ambas definiciones podrıamos reemplazarf (x) por fn(x) para indicar que las funciones de aprendizajedependen de la muestra. En cualquier caso, la muestra τn semantiene fija.

Page 38: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: riesgo esperado

El error de prueba (generalizacion o prediccion) esperado o elriesgo esperado es:

E [R(fn)] (5)

donde el valor esperado se toma con respecto a todas lasmuestras τn (observese que P define una distribucion deprobabilidad sobre (Ξ×Υ)n).

Esta definicion aplica solo cuando la funcion de aprendizajedepende de la muestra.

Page 39: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: riesgo esperado

El error de prueba (generalizacion o prediccion) esperado o elriesgo esperado es:

E [R(fn)] (5)

donde el valor esperado se toma con respecto a todas lasmuestras τn (observese que P define una distribucion deprobabilidad sobre (Ξ×Υ)n).

Esta definicion aplica solo cuando la funcion de aprendizajedepende de la muestra.

Page 40: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Decimos que una funcion de aprendizaje generaliza bien si

|Remp(f )− R(f )| (6)

es pequeno.

Observese que la diferencia anterior es una variable aleatoriaaun si la funcion de apredizaje no depende de la muestra(Remp(f ) depende de la muestra).

El error empırico puede ser muy mal indicador de que tambiengeneraliza una funcion de aprendizaje.

El problema es que el riesgo empırico se puede controlar conla complejidad (overfitting) de la funcion de aprendizaje peronada garantiza que generalice bien.

Page 41: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Decimos que una funcion de aprendizaje generaliza bien si

|Remp(f )− R(f )| (6)

es pequeno.

Observese que la diferencia anterior es una variable aleatoriaaun si la funcion de apredizaje no depende de la muestra(Remp(f ) depende de la muestra).

El error empırico puede ser muy mal indicador de que tambiengeneraliza una funcion de aprendizaje.

El problema es que el riesgo empırico se puede controlar conla complejidad (overfitting) de la funcion de aprendizaje peronada garantiza que generalice bien.

Page 42: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Decimos que una funcion de aprendizaje generaliza bien si

|Remp(f )− R(f )| (6)

es pequeno.

Observese que la diferencia anterior es una variable aleatoriaaun si la funcion de apredizaje no depende de la muestra(Remp(f ) depende de la muestra).

El error empırico puede ser muy mal indicador de que tambiengeneraliza una funcion de aprendizaje.

El problema es que el riesgo empırico se puede controlar conla complejidad (overfitting) de la funcion de aprendizaje peronada garantiza que generalice bien.

Page 43: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Decimos que una funcion de aprendizaje generaliza bien si

|Remp(f )− R(f )| (6)

es pequeno.

Observese que la diferencia anterior es una variable aleatoriaaun si la funcion de apredizaje no depende de la muestra(Remp(f ) depende de la muestra).

El error empırico puede ser muy mal indicador de que tambiengeneraliza una funcion de aprendizaje.

El problema es que el riesgo empırico se puede controlar conla complejidad (overfitting) de la funcion de aprendizaje peronada garantiza que generalice bien.

Page 44: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

El problema de (overfitting).

Observese que si el verdadero modelo es la lınea recta, el errorempirico de la curva es cero pero generaliza muy mal. El errorempırico de la lınea es mayor que cero pero generaliza mejor.

La curva es muy compleja, la varianza es alta pero el sesgo esbajo. La lınea es poco compleja, varianza baja pero sesgo alto.

y

x

Figure 1: Suppose we want to estimate a functional dependence from a set of examples (black dots).Which model is preferable? The complex model perfectly fits all data points, whereas the straightline exhibits residual errors. Statistical learning theory formalizes the role of the capacity of themodel class, and gives probabilistic guarantees for the validity of the inferred model (from Scholkopfand Smola (2002)).

There exist two different types of consistency in the literature, depending on the taste of theauthors, and both of them are usually just called “consistency” without any distinction. Tointroduce these concepts, let us make the following notation. Given any particular classificationalgorithm, by fn we will denote its outcome on a sample of n training points. It is not importanthow exactly the algorithm chooses this function. But note that any algorithm chooses its functionsfrom some particular function space F. For some algorithms this space is given explicitly, for othersit only exists implicitly via the mechanism of the algorithm. No matter how this space F is defined,the algorithm attempts to chooses the function fn ∈ F which it considers as the best classifier inF, based on the given training points. On the other hand, in theory we know precisely what thebest classifier in F is: it is the one that has the smallest risk. For simplicity, we assume that it isunique and denote it as fF, that is

fF = argminf∈F

R(f). (3)

The third classifier we will talk about is the Bayes classifier fBayes introduced in Equation (2)above. This is the best classifier which exists at all. In the notation above we could also denote itby fFall

(recall the notation Fall for the space of all functions). But as it is unknown to the learner,it might not be contained in the function space F under consideration, so it is very possible thatR(fF) > R(fBayes). With the notation for these three classifiers fn, fF, and fBayes we can nowdefine different types of convergence:

Definition 1 Let (Xi, Yi)i∈N be an infinite sequence of training points which have been drawnindependently from some probability distribution P . Let ` be a loss function. For each n ∈ N, letfn be a classifier constructed by some learning algorithm on the basis of the first n training points.

1. The learning algorithm is called consistent with respect to F and P if the risk R(fn) convergesin probability to the risk R(fF) of the best classifier in F, that is for all ε > 0,

P (R(fn)−R(fF) > ε)→ 0 as n→∞.

2. The learning algorithm is called Bayes-consistent with respect to P if the risk R(fn) convergesto the risk R(fBayes) of the Bayes classifier, that is for all ε > 0,

P (R(fn)−R(fBayes) > ε)→ 0 as n→∞.

3. The learning algorithm is called universally consistent with respect to F (resp. universallyBayes-consistent) if it is consistent with respect to F (resp. Bayes-consistent) for all proba-bility distributions P .

7

Page 45: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

El problema de (overfitting).

Observese que si el verdadero modelo es la lınea recta, el errorempirico de la curva es cero pero generaliza muy mal. El errorempırico de la lınea es mayor que cero pero generaliza mejor.

La curva es muy compleja, la varianza es alta pero el sesgo esbajo. La lınea es poco compleja, varianza baja pero sesgo alto.

y

x

Figure 1: Suppose we want to estimate a functional dependence from a set of examples (black dots).Which model is preferable? The complex model perfectly fits all data points, whereas the straightline exhibits residual errors. Statistical learning theory formalizes the role of the capacity of themodel class, and gives probabilistic guarantees for the validity of the inferred model (from Scholkopfand Smola (2002)).

There exist two different types of consistency in the literature, depending on the taste of theauthors, and both of them are usually just called “consistency” without any distinction. Tointroduce these concepts, let us make the following notation. Given any particular classificationalgorithm, by fn we will denote its outcome on a sample of n training points. It is not importanthow exactly the algorithm chooses this function. But note that any algorithm chooses its functionsfrom some particular function space F. For some algorithms this space is given explicitly, for othersit only exists implicitly via the mechanism of the algorithm. No matter how this space F is defined,the algorithm attempts to chooses the function fn ∈ F which it considers as the best classifier inF, based on the given training points. On the other hand, in theory we know precisely what thebest classifier in F is: it is the one that has the smallest risk. For simplicity, we assume that it isunique and denote it as fF, that is

fF = argminf∈F

R(f). (3)

The third classifier we will talk about is the Bayes classifier fBayes introduced in Equation (2)above. This is the best classifier which exists at all. In the notation above we could also denote itby fFall

(recall the notation Fall for the space of all functions). But as it is unknown to the learner,it might not be contained in the function space F under consideration, so it is very possible thatR(fF) > R(fBayes). With the notation for these three classifiers fn, fF, and fBayes we can nowdefine different types of convergence:

Definition 1 Let (Xi, Yi)i∈N be an infinite sequence of training points which have been drawnindependently from some probability distribution P . Let ` be a loss function. For each n ∈ N, letfn be a classifier constructed by some learning algorithm on the basis of the first n training points.

1. The learning algorithm is called consistent with respect to F and P if the risk R(fn) convergesin probability to the risk R(fF) of the best classifier in F, that is for all ε > 0,

P (R(fn)−R(fF) > ε)→ 0 as n→∞.

2. The learning algorithm is called Bayes-consistent with respect to P if the risk R(fn) convergesto the risk R(fBayes) of the Bayes classifier, that is for all ε > 0,

P (R(fn)−R(fBayes) > ε)→ 0 as n→∞.

3. The learning algorithm is called universally consistent with respect to F (resp. universallyBayes-consistent) if it is consistent with respect to F (resp. Bayes-consistent) for all proba-bility distributions P .

7

Page 46: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

El problema de (overfitting).

Observese que si el verdadero modelo es la lınea recta, el errorempirico de la curva es cero pero generaliza muy mal. El errorempırico de la lınea es mayor que cero pero generaliza mejor.

La curva es muy compleja, la varianza es alta pero el sesgo esbajo. La lınea es poco compleja, varianza baja pero sesgo alto.

y

x

Figure 1: Suppose we want to estimate a functional dependence from a set of examples (black dots).Which model is preferable? The complex model perfectly fits all data points, whereas the straightline exhibits residual errors. Statistical learning theory formalizes the role of the capacity of themodel class, and gives probabilistic guarantees for the validity of the inferred model (from Scholkopfand Smola (2002)).

There exist two different types of consistency in the literature, depending on the taste of theauthors, and both of them are usually just called “consistency” without any distinction. Tointroduce these concepts, let us make the following notation. Given any particular classificationalgorithm, by fn we will denote its outcome on a sample of n training points. It is not importanthow exactly the algorithm chooses this function. But note that any algorithm chooses its functionsfrom some particular function space F. For some algorithms this space is given explicitly, for othersit only exists implicitly via the mechanism of the algorithm. No matter how this space F is defined,the algorithm attempts to chooses the function fn ∈ F which it considers as the best classifier inF, based on the given training points. On the other hand, in theory we know precisely what thebest classifier in F is: it is the one that has the smallest risk. For simplicity, we assume that it isunique and denote it as fF, that is

fF = argminf∈F

R(f). (3)

The third classifier we will talk about is the Bayes classifier fBayes introduced in Equation (2)above. This is the best classifier which exists at all. In the notation above we could also denote itby fFall

(recall the notation Fall for the space of all functions). But as it is unknown to the learner,it might not be contained in the function space F under consideration, so it is very possible thatR(fF) > R(fBayes). With the notation for these three classifiers fn, fF, and fBayes we can nowdefine different types of convergence:

Definition 1 Let (Xi, Yi)i∈N be an infinite sequence of training points which have been drawnindependently from some probability distribution P . Let ` be a loss function. For each n ∈ N, letfn be a classifier constructed by some learning algorithm on the basis of the first n training points.

1. The learning algorithm is called consistent with respect to F and P if the risk R(fn) convergesin probability to the risk R(fF) of the best classifier in F, that is for all ε > 0,

P (R(fn)−R(fF) > ε)→ 0 as n→∞.

2. The learning algorithm is called Bayes-consistent with respect to P if the risk R(fn) convergesto the risk R(fBayes) of the Bayes classifier, that is for all ε > 0,

P (R(fn)−R(fBayes) > ε)→ 0 as n→∞.

3. The learning algorithm is called universally consistent with respect to F (resp. universallyBayes-consistent) if it is consistent with respect to F (resp. Bayes-consistent) for all proba-bility distributions P .

7

Page 47: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Contenido

1 Aprendizaje Estadıstico

2 Dos Caballitos de Batalla

3 Riesgo

4 Aprendizaje Estadıstico: El problema de clasificacionformalmente

Funciones de aprendizaje optimas: Variables categoricas

5 Error de Aproximacion y Estimacion

6 Aprendizaje Estadıstico: El problema de regresionFunciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 48: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Sea F0 un conjunto de funciones y F el conjunto de todas lasfunciones.

El problema de clasificacion consiste en:

f ∗ = argminf ∈F0R[f ] (7)

observese que F0 puede ser el conjunto de todas las funciones.Cuando queremos hacer explıcito el espacio F0, denotamos f ∗

por fF0 .

Cuando F0 = F entonces f ∗ se llama el clasficador de Bayes yse denota por fBayes.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 49: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Sea F0 un conjunto de funciones y F el conjunto de todas lasfunciones.

El problema de clasificacion consiste en:

f ∗ = argminf ∈F0R[f ] (7)

observese que F0 puede ser el conjunto de todas las funciones.Cuando queremos hacer explıcito el espacio F0, denotamos f ∗

por fF0 .

Cuando F0 = F entonces f ∗ se llama el clasficador de Bayes yse denota por fBayes.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 50: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Sea F0 un conjunto de funciones y F el conjunto de todas lasfunciones.

El problema de clasificacion consiste en:

f ∗ = argminf ∈F0R[f ] (7)

observese que F0 puede ser el conjunto de todas las funciones.Cuando queremos hacer explıcito el espacio F0, denotamos f ∗

por fF0 .

Cuando F0 = F entonces f ∗ se llama el clasficador de Bayes yse denota por fBayes.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 51: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Resumen

Podemos resumir el objetivo principal del apredizaje demaquinas como: dada una muestra finita τn y una funcion deperdida, encontrar una espacio de funciones F0 y unclasificador optimo fF0 tal que su riesgo sea lo mas cercanoposible al clasificador de Bayes.

El riesgo empırico de un clasificador no es necesarimente unbuen estimador del riesgo.

Page 52: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Resumen

Podemos resumir el objetivo principal del apredizaje demaquinas como: dada una muestra finita τn y una funcion deperdida, encontrar una espacio de funciones F0 y unclasificador optimo fF0 tal que su riesgo sea lo mas cercanoposible al clasificador de Bayes.

El riesgo empırico de un clasificador no es necesarimente unbuen estimador del riesgo.

Page 53: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Funciones de aprendizaje optimas: Variables categoricas

Supongamos que Y es una variable categorica que tomavalores un numero finito K de valores. Denotamos estosvalores por G de tal forma que G = 1, ...,K .

Definamos una funcion de perdida L de ceros y unos.

Sea G una funcion de aprendizaje para clasificar nuevos datos.

Entonces el riesgo de G es:

E [L(X ,G , G (X ))] = (8)

EX

K∑

k=1

L(X , k , G (X ))P(G = k | X ) (9)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 54: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Funciones de aprendizaje optimas: Variables categoricas

Supongamos que Y es una variable categorica que tomavalores un numero finito K de valores. Denotamos estosvalores por G de tal forma que G = 1, ...,K .

Definamos una funcion de perdida L de ceros y unos.

Sea G una funcion de aprendizaje para clasificar nuevos datos.

Entonces el riesgo de G es:

E [L(X ,G , G (X ))] = (8)

EX

K∑

k=1

L(X , k , G (X ))P(G = k | X ) (9)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 55: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Funciones de aprendizaje optimas: Variables categoricas

Supongamos que Y es una variable categorica que tomavalores un numero finito K de valores. Denotamos estosvalores por G de tal forma que G = 1, ...,K .

Definamos una funcion de perdida L de ceros y unos.

Sea G una funcion de aprendizaje para clasificar nuevos datos.

Entonces el riesgo de G es:

E [L(X ,G , G (X ))] = (8)

EX

K∑

k=1

L(X , k , G (X ))P(G = k | X ) (9)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 56: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables categoricas

Funciones de aprendizaje optimas: Variables categoricas

Supongamos que Y es una variable categorica que tomavalores un numero finito K de valores. Denotamos estosvalores por G de tal forma que G = 1, ...,K .

Definamos una funcion de perdida L de ceros y unos.

Sea G una funcion de aprendizaje para clasificar nuevos datos.

Entonces el riesgo de G es:

E [L(X ,G , G (X ))] = (8)

EX

K∑

k=1

L(X , k , G (X ))P(G = k | X ) (9)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 57: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Funciones de aprendizaje optimas: Variables categoricas

Como ilustracion veamos de donde sale la anterior formulacuando la variable independiente X tambien es categorica:X ∈ {x1, ..., xN}.En este caso el riesgo de G es:

E [L(X ,G , G (X ))] =∑

i ,k

L(xi , k, G (xi ))P(X = xi ,G = k)

=∑

i

(∑

k

L(xi , k , G (xi ))P(G = k | X = xi ))P(X = xi )

= EX

K∑

k=1

L(X , k , G (X ))P(G = k | X )

Page 58: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Funciones de aprendizaje optimas: Variables categoricas

Como ilustracion veamos de donde sale la anterior formulacuando la variable independiente X tambien es categorica:X ∈ {x1, ..., xN}.En este caso el riesgo de G es:

E [L(X ,G , G (X ))] =∑

i ,k

L(xi , k, G (xi ))P(X = xi ,G = k)

=∑

i

(∑

k

L(xi , k , G (xi ))P(G = k | X = xi ))P(X = xi )

= EX

K∑

k=1

L(X , k , G (X ))P(G = k | X )

Page 59: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Ahora minimizamos esta funcion sobre el espacio de lasfunciones de aprendizaje G y observese que basta conminimizar puntualmente. Dado X resolver:

mıng

K∑

k=1

L(X , k , g)P(G = k | X ) (10)

= mıng

P(G 6= g | X ) (11)

= mıng

(1− P(G = g | X )) (12)

= 1−maxg

P(G = g | X ) (13)

Page 60: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Ahora minimizamos esta funcion sobre el espacio de lasfunciones de aprendizaje G y observese que basta conminimizar puntualmente. Dado X resolver:

mıng

K∑

k=1

L(X , k , g)P(G = k | X ) (10)

= mıng

P(G 6= g | X ) (11)

= mıng

(1− P(G = g | X )) (12)

= 1−maxg

P(G = g | X ) (13)

Page 61: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Ahora minimizamos esta funcion sobre el espacio de lasfunciones de aprendizaje G y observese que basta conminimizar puntualmente. Dado X resolver:

mıng

K∑

k=1

L(X , k , g)P(G = k | X ) (10)

= mıng

P(G 6= g | X ) (11)

= mıng

(1− P(G = g | X )) (12)

= 1−maxg

P(G = g | X ) (13)

Page 62: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Ahora minimizamos esta funcion sobre el espacio de lasfunciones de aprendizaje G y observese que basta conminimizar puntualmente. Dado X resolver:

mıng

K∑

k=1

L(X , k , g)P(G = k | X ) (10)

= mıng

P(G 6= g | X ) (11)

= mıng

(1− P(G = g | X )) (12)

= 1−maxg

P(G = g | X ) (13)

Page 63: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

En conclusion el clasificador de Bayes es:

GBayes(X ) = arg maxgP(G = g | X ) (14)

Page 64: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Example (Clasificador de Bayes binario con perdida estandar)

En este caso el mejor clasificador es:

fBayes(x) = 1 (15)

si P(Y = 1 |X = x) ≥ 0,5 y cero caso contrario.

Page 65: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: El problema de clasificacionformalmente

Example

Supongamos que Ξ = [0, 1],Υ = {0, 1} y P es tal que Xi sedistribuye normal en [0, 1] y P[Y = 1 |X = x ] = 0,9. En este casoel clasificador de Bayes es fBayes(x) = 1 para todo x ∈ Ξ. Por lotanto R(fBayes) = 0,1

Page 66: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Error de entrenamiento vs error deprueba Elements of Statistical Learning (2nd Ed.) c©Hastie, Tibshirani & Friedman 2009 Chap 2

Degrees of Freedom − N/k

Tes

t Err

or

0.10

0.15

0.20

0.25

0.30

2 3 5 8 12 18 29 67 200

151 101 69 45 31 21 11 7 5 3 1

TrainTestBayes

k − Number of Nearest Neighbors

Linear

FIGURE 2.4. Misclassification curves for the simula-tion example used in Figures 2.1, 2.2 and 2.3. A singletraining sample of size 200 was used, and a test sampleof size 10, 000. The orange curves are test and the blueare training error for k-nearest-neighbor classification.The results for linear regression are the bigger orangeand blue squares at three degrees of freedom. The pur-ple line is the optimal Bayes error rate.

Ejercicio de simulacion: Muestra 200 observaciones, prueba10.000 observaciones.

Page 67: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Contenido

1 Aprendizaje Estadıstico

2 Dos Caballitos de Batalla

3 Riesgo

4 Aprendizaje Estadıstico: El problema de clasificacionformalmente

Funciones de aprendizaje optimas: Variables categoricas

5 Error de Aproximacion y Estimacion

6 Aprendizaje Estadıstico: El problema de regresionFunciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 68: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Error de Aproximacion y Estimacion

Dado un algoritmo o maquina de aprendizaje M y un espaciode funciones de aprendizaje F0, definimos el error de M comola variable aleatoria:

R(fn)− R(fBayes) (16)

que se puede reescribir como:

R(fn)− R(fBayes) = R(fF0)− R(fBayes) + R(fn)− R(fF0)(17)

El primer termino se conoce como error de aproximacion(sesgo) y el segundo se conoce como error de estimacion(varianza).

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 69: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Error de estimacion y aproximacion

Small function space F

space F of all functions

fF

estimation errorapproximation error

used by the algorithm

fBayes

fn

all

Figure 2: Illustration of estimation and approximation error.

Recall the definitions fn, fF and fBayes introduced above. We have seen that Bayes-consistencydeals with the convergence of the term R(fn) − R(fBayes). Note that we can decompose thisquantity in the following way:

R(fn)−R(fBayes) =(R(fn)−R(fF)

)

︸ ︷︷ ︸estimation error

+(R(fF)−R(fBayes)

)

︸ ︷︷ ︸approximation error

(4)

The two terms on the right hand side have particular names: the first one is called the estimationerror and the second one the approximation error; see also Figure 2 for an illustration. The rea-sons for these names are as follows. The first term deals with the uncertainty introduced by therandom sampling process. That is, given the finite sample, we need to estimate the best functionin F. Of course, in this process we will make some (hopefully small) error. This error is called theestimation error. The second term is not influenced by any random quantities. It deals with theerror we make by looking for the best function in a (small) function space F, rather than lookingfor the best function in the entire space Fall of all functions. The fundamental question in thiscontext is how well functions in F can be used to approximate functions Fall in the space of allfunctions. Hence the name approximation error.

In statistics, estimation error is also called the variance, and the approximation error is called thebias of an estimator. Originally, these terms were coined for the special situation of regressionwith squared error loss, but by now people use them in more general settings, like the one outlinedabove. The intuitive meaning is the same: the first term measures the variation of the risk of thefunction fn estimated on the sample, the second one measures the “bias” introduced in the modelby choosing too small a function class.

At this point, we would already like to point out that the space F is the means to balance thetrade-off between estimation and approximation error; see Figure 3 for an illustration and Sec-tions 4 and 5 for an in-depth discussion. If we choose a very large space F, then the approximationterm will become small (the Bayes classifier might even be contained in F or can be approximatedclosely by some element in F). The estimation error, however, will be rather large in this case:the space F will contain complex functions which will lead to overfitting. The opposite effect willhappen if the function class F is very small.

In the following, we will deal with the estimation error and approximation error separately. Wewill see that they have rather different behavior and that different methods are needed to controlboth. Traditionally, SLT has a strong focus on the estimation error, which we will discuss in greaterdepth in Sections 4 and 5. The approximation error will be treated in Section 7.

9

Page 70: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Sesgo y varianza

38 2. Overview of Supervised Learning

High Bias

Low Variance

Low Bias

High Variance

Pre

dic

tion

Err

or

Model Complexity

Training Sample

Test Sample

Low High

FIGURE 2.11. Test and training error as a function of model complexity.

be close to f(x0). As k grows, the neighbors are further away, and thenanything can happen.

The variance term is simply the variance of an average here, and de-creases as the inverse of k. So as k varies, there is a bias–variance tradeoff.More generally, as the model complexity of our procedure is increased, the

variance tends to increase and the squared bias tends to decrease. The op-posite behavior occurs as the model complexity is decreased. For k-nearestneighbors, the model complexity is controlled by k.Typically we would like to choose our model complexity to trade bias

off with variance in such a way as to minimize the test error. An obviousestimate of test error is the training error 1

N

∑i(yi − yi)

2. Unfortunatelytraining error is not a good estimate of test error, as it does not properlyaccount for model complexity.

Figure 2.11 shows the typical behavior of the test and training error, asmodel complexity is varied. The training error tends to decrease wheneverwe increase the model complexity, that is, whenever we fit the data harder.However with too much fitting, the model adapts itself too closely to thetraining data, and will not generalize well (i.e., have large test error). In

that case the predictions f(x0) will have large variance, as reflected in thelast term of expression (2.46). In contrast, if the model is not complexenough, it will underfit and may have large bias, again resulting in poorgeneralization. In Chapter 7 we discuss methods for estimating the testerror of a prediction method, and hence estimating the optimal amount ofmodel complexity for a given prediction method and training set.

Page 71: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Sesgo y varianza

estimation error

risk

complexity of the function class

approximation error

Figure 3: The trade-off between estimation and approximation error. If the function space F usedby the algorithm has a small complexity, then the estimation error is small, but the approximationerror is large (underfitting). If the complexity of F is large, then the estimation error is large, whilethe approximation error is small (overfitting). The best overall risk is achieved for “moderate”complexity.

3 Consistency and generalization for the k-nearest neighborclassifier

For quite some time, until 1977, it was not known whether a universally consistent classifier exists.This question has been solved positively by Stone (1977) who showed by an elegant proof thata particular classifier, the so-called k-nearest neighbor classifier, is universally consistent. As thek-nearest neighbor classifier is one of the simplest classifiers and is still widely used in practice,we would like to spend this section illustrating the notions introduced in the last section such asgeneralization, overfitting, underfitting, and consistency at the example of the k-nearest neighborclassifier.

Assume we are given a sample of points and labels (X1, Y1), ..., (Xn, Yn) which live in some metricspace. This means that we have some way of computing distances between points in this space.Very generally, the paradigm of learning is to assign “similar output to similar inputs”. That is, webelieve that points which are “close” in the input space tend to have the same label in the outputspace. Note that if such a statement does not hold, learning becomes very difficult or even impos-sible. For successful learning, there needs to be some way to relate the labels of training pointsto those of test points, and this always involves some prior assumptions about relations betweeninput points. The easiest such relation is a distance between points, but other ways of measuringsimilarity, such as “kernels,” exist and indeed form the basis of some of the most popular existinglearning algorithms (Scholkopf and Smola, 2002).

So assume that there exists a distance function on the input space, that is a function d : X×X→ R

which assigns a distance value d(X,X ′) to each pair of training points X,X ′. Given some trainingpoints, we now want to predict a good label for a new test point X. A simple idea is to search forthe training point Xi which has the smallest distance to X, and then give X the correspondinglabel Yi of that point. To define this more formally, denote by NN(X) the nearest neighbor of Xamong all training points, that is

NN(X) = argmin {X ′ ∈ {X1, ..., Xn}∣∣ d(X,X ′) ≤ d(X,X ′′) for all X ′′ ∈ {X1, ..., Xn}}.

We can then define the classifier fn based on the sample of n points by

fn(X) = Yi where Xi = NN(X).

This classifier is also called the 1-nearest neighbor classifier (1NN classifier). A slightly moregeneral version is the k-nearest neighbor classifier (kNN classifier). Instead of just looking at theclosest training point, we consider the closest k training points, and then take the average over alltheir labels. That is, we define the k-nearest neighbors kNN(X) of X as the set of those k trainingpoints which are closest to X. Then we set the kNN classifier

10

Page 72: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Contenido

1 Aprendizaje Estadıstico

2 Dos Caballitos de Batalla

3 Riesgo

4 Aprendizaje Estadıstico: El problema de clasificacionformalmente

Funciones de aprendizaje optimas: Variables categoricas

5 Error de Aproximacion y Estimacion

6 Aprendizaje Estadıstico: El problema de regresionFunciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 73: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico: El problema de regresion

Sea F0 un conjunto de funciones y F el conjunto de todas lasfunciones.

El problema de regresion consiste en:

f ∗ = argminf ∈F0R[f ] (18)

donde R[f ] involucra una funcion de perdida apropiada paravariable dependientes continuas. observese que F0 puede ser elconjunto de todas las funciones. Cuando queremos hacerexplıcito el espacio F0, denotamos f ∗ por fF0 .

Cuando F0 = F entonces f ∗ se llama la la funcion deaprendizaje de Bayes y se denota por fBayes.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 74: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico: El problema de regresion

Sea F0 un conjunto de funciones y F el conjunto de todas lasfunciones.

El problema de regresion consiste en:

f ∗ = argminf ∈F0R[f ] (18)

donde R[f ] involucra una funcion de perdida apropiada paravariable dependientes continuas. observese que F0 puede ser elconjunto de todas las funciones. Cuando queremos hacerexplıcito el espacio F0, denotamos f ∗ por fF0 .

Cuando F0 = F entonces f ∗ se llama la la funcion deaprendizaje de Bayes y se denota por fBayes.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 75: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Aprendizaje Estadıstico: El problema de regresion

Sea F0 un conjunto de funciones y F el conjunto de todas lasfunciones.

El problema de regresion consiste en:

f ∗ = argminf ∈F0R[f ] (18)

donde R[f ] involucra una funcion de perdida apropiada paravariable dependientes continuas. observese que F0 puede ser elconjunto de todas las funciones. Cuando queremos hacerexplıcito el espacio F0, denotamos f ∗ por fF0 .

Cuando F0 = F entonces f ∗ se llama la la funcion deaprendizaje de Bayes y se denota por fBayes.

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 76: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Resumen

De la misma forma que en el problema de clasificacion, elobjetivo principal del apredizaje de maquinas para problemasde regresion es: dada una muestra finita τn y una funcion deperdida, encontrar una espacio de funciones F0 y una funcionde aprendizaje optima fF0 tal que su riesgo sea lo mas cercanoposible a la funcion de aprendizaje de Bayes.

El riesgo empırico de una regresion no es necesarimente unbuen estimador del riesgo.

Page 77: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje Estadıstico: Resumen

De la misma forma que en el problema de clasificacion, elobjetivo principal del apredizaje de maquinas para problemasde regresion es: dada una muestra finita τn y una funcion deperdida, encontrar una espacio de funciones F0 y una funcionde aprendizaje optima fF0 tal que su riesgo sea lo mas cercanoposible a la funcion de aprendizaje de Bayes.

El riesgo empırico de una regresion no es necesarimente unbuen estimador del riesgo.

Page 78: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Funciones de aprendizaje optimas: Variables continuas

Supongamos que Y es una variable continua que toma valoresen los numeros reales.

Definamos una funcion de perdida L como el error cuadratico.

Sea f una funcion de aprendizaje.

Entonces el riesgo de f es:

EX

∫(f (X )− Y )2dF (Y | X ) (19)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 79: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Funciones de aprendizaje optimas: Variables continuas

Supongamos que Y es una variable continua que toma valoresen los numeros reales.

Definamos una funcion de perdida L como el error cuadratico.

Sea f una funcion de aprendizaje.

Entonces el riesgo de f es:

EX

∫(f (X )− Y )2dF (Y | X ) (19)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 80: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Funciones de aprendizaje optimas: Variables continuas

Supongamos que Y es una variable continua que toma valoresen los numeros reales.

Definamos una funcion de perdida L como el error cuadratico.

Sea f una funcion de aprendizaje.

Entonces el riesgo de f es:

EX

∫(f (X )− Y )2dF (Y | X ) (19)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 81: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Aprendizaje EstadısticoDos Caballitos de Batalla

RiesgoAprendizaje Estadıstico: El problema de clasificacion formalmente

Error de Aproximacion y EstimacionAprendizaje Estadıstico: El problema de regresion

Funciones de aprendizaje optimas: Variables continuas

Funciones de aprendizaje optimas: Variables continuas

Supongamos que Y es una variable continua que toma valoresen los numeros reales.

Definamos una funcion de perdida L como el error cuadratico.

Sea f una funcion de aprendizaje.

Entonces el riesgo de f es:

EX

∫(f (X )− Y )2dF (Y | X ) (19)

donde el valor esperado se toma con respecto a la distribucionmarginal X .

Aprendizaje Estadıstico Quantil | Matematicas Aplicadas

Page 82: Aprendizaje Estadístico: Riesgo y el Problema de Error de Aproximación y … intro apren estadis.pdf · 2019-06-24 · Aprendizaje Estad stico Para ilustrar algunas de las ideas

Funciones de aprendizaje optimas: Variables continuas

El problema de minimizacion lo podemos resolver si para cadaX = x minimizamos con respecto a y :

∫(y − Y )2dF (Y | X = x) (20)

Es facil demostra que: y = E [Y | X = x ] o f (X ) = E [Y | X ]