Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es...

32
Regularizacion y eleccion de modelos Walter Sosa-Escudero Universisad de San Andr´ es y CONICET

Transcript of Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es...

Page 1: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

Regularizacion y eleccion de modelos

Walter Sosa-Escudero

Universisad de San Andres y CONICET

Page 2: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Trade off-sesgo varianza

Y = X1β1 +X2β2 + u

Trade off: modelos mas ‘complejos’ tienden a ser menossesgados pero con mayor varianza.

Preferencia ‘lexicografica’ por la insesgadez: minimizar ECMes minimizar varianza.

Desafio: tolerar sesgos para bajar considerablemente lavarianza.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 3: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Best subset selection

Y = Xβ + u, Xn×p

1 Estimar todos los posibles modelos con k = 1, 2, . . . , ppredictores. 2p modelos.

2 Para cada modelo computar el error de prediccion por crossvalidation.

3 Elegir el que minimiza CV.

Problema: computacionalmente inviable para p moderado (p = 20,1.048.576 modelos)

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 4: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Stepwise selection

Forward selection:

Empezar sin ningun predictor

Probar todos los modelos con 1 predictor. Elegir el queminimiza CV.

Agregar de a 1, sin quitar los ya incorporados. p(p+ 1)/2modelos.

De los p modelos elegidos, elegir el que minimiza CV.

Backward selection: empieza con el modelo completo. Busquedano exhaustiva. Los incoporados no ‘salen’. Forward tiene unaventaja en modelos de alta dimension (mas adelante).

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 5: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

¿No vale empezar con el modelo general y tachar los coeficientesno significativos?

Backward selection aproxima esa idea (no exactamente ya queel criterio es de ajuste/prediccion.

‘Tachar’ variables/coeficientes es una forma extrema de‘achicarlos’.

Lasso: una manera formal y algoritmica de realizar esa tarea.

Regularizar: utilizar informacion de afuera del modelo parasimplificarlo.

Recuerden que el objetivo es minimizar ECM fuera de lamuestra de entrenamiento.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 6: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

LASSO

Para λ ≥ 0 dado, consideremos la siguiente funcion objetivo (aminimizar):

Rl(β) =

n∑i=1

(yi − x′iβ)2 + λ

p∑s=2

|βs|

(el primer coeficiente corresponde al intercepto).

¿Si λ = 0?

¿Si λ =∞?∑ni=1(yi − x′iβ)2 penaliza falta de ajuste.

¿∑p

s=2 |βs| ?

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 7: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Rl(β) =

n∑i=1

(yi − x′iβ)2 + λ

p∑s=2

|βs|

LASSO magic: automaticamente elige que variables entran(βs 6= 0) y cuales no (βs = 0)

Por que? Coeficientes anulados como ‘soluciones de esquina’

Rl(β) es una funcion no diferenciable.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 8: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Intuiciones para economistas

Caso super simple

Rl(b) =

n∑i=1

(yi − xib)2 + λ|b|

Rl(b) = SRC(b) + λ|b|

Supongamos b > 0. Empecemos en b = 0

Ingreso Mg: −d SRC(b)db |b=0 (positivo y decreciente)

Costo Mg: λ (positivo y constante)

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 9: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Rl(b) = SRC(b) + λ|b|

LASSO: poner variables solo si son suficientemente relevantes.

En general, bl = 0 para variables irrelevantes, y bl esta ‘corridohacia cero’ para las relevantes.

Shrinkage: estimacion sesgada por la regularizacion.

Regularizar: ‘disciplinar’ el modelo hacia la hipotesis nula deno significatividad.

Por que? Eliminar variables induce sesgo pero puede bajardramaticamente la varianza, mejora ECM.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 10: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Ridge

Rr(β) =

n∑i=1

(yi − x′iβ)2 + λ

p∑s=2

(βs)2

Caso simple

Rr(β) =

n∑i=1

(yi − x′iβ)2 + λβ2

Idea: intuicion similar pero ridge NO elimina variables. Por que?

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 11: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Formalmente

Rr(β) =

n∑i=1

(yi − x′iβ)2 + λβ2

FOC:

−∑

yixi + 2β + 2λβ = 0

Despejando

βr =

∑yixi

1 + λ=

β

1 + λ

La solucion es siempre interior (comparar intuicion conLASSO)

Nuevamente, la solucion esta ‘corrida hacia cero’ con respectoa β (shrinkage).

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 12: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Ridge vs. MCO

Bajo los supuestos clasicos y en el caso simple:

E(β) = β (insesgado)

V (β) = σ2/∑x2i = σ2

ECM(β) = σ2.

E(βr) = β/(1 + λ) (sesgado)

V (βr) = σ2/(1 + λ)2 (menor varianza)

ECM(β) =

[β − β

1 + λ

]2+

σ2

(1 + λ)2

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 13: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

ECM(β)− ECM(βr) = σ2 − β2λ2 + σ2

(1 + λ)2

=λ(2σ2 − β2λ+ λσ2)

(1 + λ2)

Es suficiente que λ < 2σ2/β2 para queECM(β)− ECM(βr) > 0

Para todo β y σ2 existe λ de modo que ridge le ‘gana’ a MCO.

En este caso es posible derivar una condicion necesaria ysuficiente. Pero no es generalizable al caso de p variables(Theobald, 1974).

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 14: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Comentarios tecnicos

1 No es posible derivar un resultado exacto similar para LASSO.

2 Ridge muchas veces aproxima a LASSO.

3 Muchas variables y no normalizadas? Hiper simple (usando elteorema de FWL: maestria).

4 El argumento de solucion de esquina en LASSO es un tantoinformal. ¿Formal? Subgradientes, analisis convexo(Rockafellar, 1996, p. 264, muy intuitivo).

5 Usar con datos previamente estandarizados.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 15: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Regularizar

Trade off sesgo-varianza: modelos mas complejos son menossesgados pero mas volatiles.

Shrinkage: LASSO ‘sesga’ los coeficientes a cero.

Regularizar: controlar el comportamiento deparametros/variables con elementos de afuera del modelo (λ)

λ es un hiperparametro.

Aprendizaje: eleccion de un modelo optimo a traves de laeleccion de un hiperparametro.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 16: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Para que regularizar?

Capacidad predictiva optima. Evita sobreajuste.

Reduccion de dimensionalidad. Economiza trabajo de campoex post.

Ejemplo: gasto.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 17: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Alternativas y extensiones

Ridge: Rr(β) =∑n

i=1(yi − x′iβ)2 + λ∑p

s=2 β2s

Elastic Net:Re(β) =

∑ni=1(yi − x′iβ)2 + λ1

∑ps=2 |βs|+ λ2

∑ps=2 β

2s

LASSO logit: Rl(β) = L(β) + λ∑p

s=2 |βs|

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 18: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Ejemplo: Hitters

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 19: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Ejemplo: Hitters

Puntos: OLS, rojo: LASSO, azul: ridgeWalter Sosa-Escudero Regularizacion y eleccion de modelos

Page 20: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Ejemplo: Hitters

Puntos: OLS, rojo: LASSO, azul: ridgeWalter Sosa-Escudero Regularizacion y eleccion de modelos

Page 21: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Ejemplo: Hitters

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 22: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Soluciones de esquina

Caso extremo (facil de generalizar)

Rl(β) =n∑i=1

(yi − xib)2

+ λ|b|

Un solo predictor, un solo coeficiente.

Predictor estandarizado. De modo que∑x2 = 1.

En este caso, el estimador MCO es

β =

∑xiyi∑x2i

=∑

xiyi

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 23: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Rl(β) =n∑i=1

(yi − xiβ)2

+ λ|β|

Rl(β) =

∑ni=1(yi − xiβ)2 + λβ, si β ≥ 0∑ni=1(yi − xiβ)2 − λβ, si β ≤ 0

No diferenciable en β = 0.

Cuadratica y diferenciable para β 6= 0.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 24: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Graficamente (β > 0):

dRl(0)+

dβ> 0, solucion de esquina βl = 0, caso contrario, solucion interior.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 25: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

dRl(β)+

dβ= −2

∑yixi + 2β

∑x2i + λ

= −2∑

yixi + 2β + λ

dRl(0)+

dβ= −2

∑yixi + λ

Entonces, si

λ ≥ 2∑

yixi, βl = 0

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 26: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Si λ < 2∑yixi, la solucion es interior. FOC:

−2∑

yixi + 2βl + λ = 0

βl =∑

xiyi − λ/2

= β − λ/2

Shrinkage: la solucion esta corrida hacia cero con respecto a β (MCO).

El caso β < 0 es completamente simetrico.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 27: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Intuiciones para economistas

βl =

0 si λ ≥ 2

∑yixi

β − λ/2 si λ ≤ 2∑yixi

Intuicion? En 0 el costo por λ sube y el de ajuste baja.

Si uno sube mas rapido que lo que el otro baja: conviene quedarse en cero.

En caso contrario conviene moverse afuera de cero.

Moverse de cero si la relacion es lo suficientemente fuerte, sino evitar la penalizacion.

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 28: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

LASSO y Ridge como optimizacion restringida

Consideremos el problema de Ridge. Minimizar

Rr(β) =n∑i=1

(yi − xiβ)2

+ λ β2

Llamemos β(λ) a la solucion, para un λ dado.

Resultado: existe C ≥ 0 tal que β(λ) es la solucion a

mınβ

n∑i=1

(yi − xiβ)2 s.a. β2 ≤ C

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 29: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Recordar que las FOC para

Rr(β) =n∑i=1

(yi − x′iβ)

2+ λβ

2

es−2(∑

(yi − βxi)xi)

+ 2λβ = 0

y la solucion es

β(λ) =

∑yixi

1 + λ

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 30: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

La funcion de Lagrange para el problema de optimizacion restringida

L(β, α) =n∑i=1

(yi − xiβ)2

+ α (β2 − C)

CPO (Karush-Kuhn-Tucker)

−2

(n∑i=1

(yi − xiβ)xi

)+ 2αβ = 0

α(β2 − C) = 0

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 31: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Notar que si C = β(λ)2, α = λ y β(λ) satisfacen las condiciones de KKT.

Ridge puede ser visto como un problema de optimizacion restringida.

Problema original: λ dado, restriccion ‘determinada’ por λ.

Problema restringido: restriccion dada, multiplicador determinado por la restriccion.

Dualidad.

La formalizacion de LASSO es virtualmente identica (usando subgradientes)

Walter Sosa-Escudero Regularizacion y eleccion de modelos

Page 32: Walter Sosa-Escudero...teorema de FWL: maestria). 4 El argumento de solucion de esquina en LASSO es un tanto informal. >Formal? Subgradientes, analisis convexo (Rockafellar, 1996,

PreludioLASSO

Ridge

Fuente: James, Witten, Hastie y Tibshirani (2013, pp. 222)

Walter Sosa-Escudero Regularizacion y eleccion de modelos