Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB...

33
MHD15 - FTD: 0 J. Bautista, G. López Joaquín Bautista, Guillermo López Fundamentos de Teoría de la Decisión UNIVERSITAT POLITÈCNICA DE CATALUNYA – BARCELONATECH Modelos y Herramientas de Decisión – Máster Universitario de Ingeniería de Organización - ETSEIB OPE – ORGANIZACIÓN DE LA PRODUCCIÓN Y DE EMPRESA (ASPECTOS TÉCNICOS, JURÍDICOS Y ECONÓMICOS EN PRODUCCIÓN ) OPE-PROTHIUS – OPE-MSc.2015/03 (20150201) - http://futur.upc.edu/OPE - www.prothius.com - Departamento de Organización de Empresas – UPC

Transcript of Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB...

Page 1: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 0 J. Bautista, G. López

Joaquín Bautista, Guillermo López

Fundamentos de Teoría de la Decisión

UNIVERSITAT POLITÈCNICA DE CATALUNYA – BARCELONATECH

Modelos y Herramientas de Decisión – Máster Universitario de Ingeniería de Organización - ETSEIB

OPE – ORGANIZACIÓN DE LA PRODUCCIÓN Y DE EMPRESA (ASPECTOS TÉCNICOS, JURÍDICOS Y ECONÓMICOS EN PRODUCCIÓN )

OPE-PROTHIUS – OPE-MSc.2015/03 (20150201) - http://futur.upc.edu/OPE - www.prothius.com - Departamento de Organización de Empresas – UPC

Page 2: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 1 J. Bautista, G. López

Contenido

  Introducción

  Universo. Tipología

  Elementos de decisión

  Métodos de decisión en universo incierto

  Método de Bayes

  Árboles de decisión

Page 3: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 2 J. Bautista, G. López

Introducción

 Concepto de decisión: Decidir es sinónimo de elegir.

•  Utilidad: Es la información que comunica el universo al decisor.

•  Acciones: Decisiones tomadas por el decisor.

Utilidad

Preferencias Acción

PROCESO DE DECISIÓN

DECISOR (RACIONAL)

UNIVERSO (REALIDAD)

ACCIONES POSIBLES

Page 4: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 3 J. Bautista, G. López

Universo. Tipología  Tipos de universo: •  Universo determinista: Se conoce con certeza el estado de la naturaleza sj que se presentará.

Sólo intervienen factores perfectamente definidos y conocidos. Se produce un estado de la naturaleza (a cada acción corresponde una y solo una consecuencia).

•  Universo aleatorio: No se conoce con certeza el estado de la naturaleza sj que se presentará.

Puede existir una ley de probabilidad objetiva.

•  Universo incierto: Diversos estados de la naturaleza posibles. Ninguna ley de probabilidad objetiva referida a ellos (pueden distinguirse diversos niveles de incertidumbre).

•  Universo hostil: Diversos estados de la naturaleza posibles. Ninguna ley de probabilidad objetiva referida a ellos, pero el estado de la naturaleza está influido por la decisión de otros entes inteligentes con objetivos no coincidentes con el decisor.

ACCIÓN An ESTADO Un RESULTADO Rn (An,Un)

Page 5: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 4 J. Bautista, G. López

Elementos de decisión

 Elementos:

•  Estados de la naturaleza: Situaciones en las que nos encontramos.

•  Acciones del decisor: Alternativas ante la elección.

•  Utilidad (resultados): Evaluación de las consecuencias al elegir (ganancias o perdidas).

sj !Sai !Auij !R

s1 s2 … sn

a1 u11 u12 u1n

a2 u21 u22 u2n

am um1 um2 umn

Page 6: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 5 J. Bautista, G. López

Ejemplo 1. Descripción

 Ejemplo 1. Enunciado:

Una empresa quiere hacer una inversión. Los posibles estados de la naturaleza en los que se puede encontrar son:

- Crecimiento. - Leve crecimiento. - Leve recesión. - Recesión.

Y las acciones que se plantea la empresa son: - Mantenerse. - Fuerte crecimiento. - Leve crecimiento. - Diversificarse.

Determinar la decisión que hará obtener un mayor beneficio a la empresa.

Page 7: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 6 J. Bautista, G. López

Ejemplo 1. Datos  Ejemplo 1. Tabla de utilidades Acciones vs. Estados:

Crecimiento Leve crecimiento Leve recesión Recesión

Mantenerse 3 2 2 0

Fuerte crecimiento 4 2 0 0

Leve crecimiento 6 2 0 -2

Diversificarse 1 1 2 2

Resultados (Utilidades)

Acci

ones

Estados

uij=Utilidad de la acción i frente al estado j.

Page 8: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 7 J. Bautista, G. López

Métodos de decisión. Descripción

 Métodos para la toma de decisiones (Universo incierto):

Existen diversos métodos para la toma de decisiones:

•  Método Plunger (optimista): para cada alternativa se supone que pasará lo mejor, y se elige la que ofrezca mejor valor. No considera riesgo.

•  Método Wald (pesimista): Para cada alternativa se supone que va a pasar lo peor, y elige aquella alternativa que ofrezca mejor valor. De esta forma se asegura que en el peor de los casos se obtenga lo mejor posible.

•  Método Hurwitz: combina las actitudes pesimista y optimista, valorando cada alternativa con una ponderación entre lo mejor y lo peor posible.

•  Método Laplace: pondera de igual forma todas las opciones estableciendo una media del valor de las utilidades en función de los diferentes estados de la naturaleza.

•  Método Savage (costes de oportunidad): Este criterio toma en consideración el coste de oportunidad o penalización por no prever correctamente el estado de la naturaleza más favorable.

Page 9: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 8 J. Bautista, G. López

Métodos de decisión. Formulación (1)

 Método optimista: PLUNGER

Realizar aquella acción que en el mejor caso proporcione la satisfacción máxima (se cree que siempre pasa lo mejor).

Ganancias: Pérdidas:

 Método pesimista: WALD

Realizar aquella acción tal que en el peor de los casos proporcione la satisfacción máxima (se cree que siempre pasa lo peor).

Ganancias: Pérdidas:

maxi max j uij( )!" #$ mini min j lij( )!" #$

maxi min j uij( )!" #$ mini max j lij( )!" #$

Page 10: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 9 J. Bautista, G. López

Métodos de decisión. Formulación (2)

 Método HURWITZ

El decisor es ‘α optimista’ y ‘(1-α) pesimista’.

‘α’ define el grado de predilección de una persona u otra ante una acción (0 ≤ α ≤ 1). Índice de optimismo. Si α = 1, el criterio es demasiado optimista ; y si α = 0 es demasiado pesimista.

Ganancias:

Pérdidas:

maxi ! !max j uij( )+ (1"! ) !min j uij( )#$ %&

mini ! !min j lij( )+ (1"! ) !max j lij( )#$ %&

Page 11: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 10 J. Bautista, G. López

Métodos de decisión. Formulación (3)

 Método HURWITZ:

Comportamiento al variar el parámetro α.

Frente Pareto: Para α > 0.5 → a3 Para α = 0.5 → a3 , a2 Para α < 0.5 → a2 , a4

‐3

‐2

‐1

0

1

2

3

4

5

6

7

a=0 a=0,5 a=1

a1

a2

a3

a4

! = 0.5 ! = 0! =1

Page 12: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 11 J. Bautista, G. López

Métodos de decisión. Formulación (4)

 Método LAPLACE

Ante la falta de información sobre la frecuencia de cada estado, se adopta la visión en que los estados son igualmente probables: Principio de la Razón Insuficiente.

Ganancias: Pérdidas:

 Método SAVAGE

Concepto de frustración: Si se alcanza el mejor resultado, no hay frustración; pero si no se alcanza, la frustración (acción/estado) es la diferencia entre el máximo alcanzable por las acciones ante un estado y la utilidad obtenida (acción/estado).

Criterio: Minimizar la máxima frustración dadas

Ganancias: Pérdidas:

fij

maxi1n

uijj=1

n

!"

#$

%

&' mini

1n

lijj=1

n

!"

#$

%

&'

fij =maxi uij( )! uij "mini max j fij( )#$ %& fij = lij -mini lij( )!mini max j fij( )"# $%

Page 13: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 12 J. Bautista, G. López

Ejemplo 1. Soluciones  Ejemplo 1. Aplicación de métodos:

Una empresa quiere hacer una inversión.

C LC LR R

M 3 2 2 0

FC 4 2 0 0

LC 6 2 0 -2

D 1 1 2 2

Plunger Wald Hurwitz Laplace

3 0 3/2 7/4

4 0 2 6/4

6 -2 2 6/4

2 1 3/2 6/4

C LC LR R Savage

M 3 0 0 2 3

FC 2 0 2 2 2

LC 0 0 2 4 4

D 5 1 0 0 5

α=0.5

Estados: - Crecimiento. - Leve crecimiento. - Leve recesión. -  Recesión.

Acciones: - Mantenerse. - Fuerte crecimiento. - Leve crecimiento. - Diversificarse.

fij =maxi uij( )! uij "mini max j fij( )#$ %&

Page 14: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 13 J. Bautista, G. López

Método de Bayes. Concepto

 Decisión en universo aleatorio:

Ahora tenemos una idea de lo que puede suceder. Disponemos de unas probabilidades de que ocurran una serie de sucesos.

•  Utilidad de Bayes (UB):

Se promedian las utilidades de cada acción (esperanza matemática) y se escoge aquella que proporcione una mayor utilidad o un menor riesgo.

Ganancias: Pérdidas: maxi pj !uij( )j"#$ %&

mini pj ! l ij( )j"#$ %&

Page 15: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 14 J. Bautista, G. López

Método de Bayes. Aplicación

 Bayes en Ejemplo 1:

Una empresa quiere hacer una inversión.

Utilidad de Bayes

P 0.1 0.2 0.4 0.3 EM

C LC LR R

M 3 2 2 0 1.5

FC 4 2 0 0 0.8

LC 6 2 0 -2 0.4

D 1 1 2 2 1.7

Esperanza Matemática

Estados naturaleza: - Crecimiento. - Leve crecimiento. - Leve recesión. - Recesión. Posibles acciones: - Mantenerse. - Fuerte crecimiento. - Leve crecimiento. - Diversificarse.

Page 16: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 15 J. Bautista, G. López

Método de Bayes. Valor de la información

 Valor de la información adicional:

•  Utilidad Media Límite / Pérdida Media Inevitable (UML/PMI): Es el mejor valor que se puede obtener eliminando la incertidumbre del sistema.

Ganancias: Pérdidas:

•  Perdida por Falta de Información (PFI): Es lo máximo que se está dispuesto a pagar por tener la información (por eliminar la incertidumbre).

Ganancias: Pérdidas:

UML = pjj! "maxi (uij ) PMI = pj

j! "mini (lij )

UBUMLPFI −= PMIUBPFI −=

Page 17: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 16 J. Bautista, G. López

 Probabilidades:

Dado un fenómeno, intentar truncar las probabilidades a través de la experimentación.

•  Probabilidad a priori: Probabilidad de cada uno de los estados de la naturaleza antes del experimento.

•  Probabilidad condicional: Probabilidad de que el resultado de un experimento sea cuando se está en el estado .

P(xk sj )

xk sj

P(sj )

Método de Bayes. Experimentación (1)

Page 18: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 17 J. Bautista, G. López

•  Probabilidad marginal: Probabilidad de que suceda en cualquier caso un resultado concreto de un experimento.

•  Probabilidad a posteriori: Probabilidad de estar en un estado concreto cuando el resultado de un experimento ha sido

P(xk ) = P(s jj! ) "P(xk sj )

P(sj xk ) =P(xk sj ) !P(sj )

P(xk )

xk

Método de Bayes. Experimentación (2)

Page 19: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 18 J. Bautista, G. López

 Enunciado. Ejemplo 2:

De un proceso llega un lote de 10 piezas que puede ser de 2 tipos (aceptable e inaceptable). Si se acierta el tipo de lote, hay una ganancia de 100 um; si se falla, la ganancia es nula.

Lote bueno

Lote malo

Procesar

Descartar

Se permite realizar un experimento (sacar una pieza) con un coste de 25 um

¿Conviene o no conviene realizar el experimento?

Lote 1 (caja 1) Lote 2 (caja 2)

0.5 0.5

Ejemplo 2. Descripción

Page 20: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 19 J. Bautista, G. López

Ejemplo 2. Contexto

1.- 747 piezas y 330 referencias en 6 versiones del motor diesel 2.- Nº de operaciones de Montaje: 378 (incluida la prueba rápida). 3.- Nº de operarios, para un turno de 301 motores: 79

1.- Montaje: 9 tipos de motores de 3 familias: 4x4 (p1 a p3); furgonetas (p4, p5); camiones MT (p6 a p9). 2.- Nº de operaciones: 140. Atributos: temporales, espaciales y de riesgo 3.- Demanda diaria: 30 motores de cada tipo (instancia #1 Nissan-BCN), 2 turnos de 6h 45’ (8h): c=180 s.

Características de la fabricación

Características de un motor

Page 21: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 20 J. Bautista, G. López

 Ejemplo 2:

Sin experimento.

Conclusiones:

- Si podemos abrir lote para decidir → U = 100

-  Si podemos sacar 1 pieza → U↑

Por lo tanto, si UB (con experimento) > 50 + 25 =75 → Realizar experimento.

UB = 50 UML = 100 · 0.5 + 100 · 0.5 = 100

PFI = UML – UB = 100 – 50 = 50

Obviamente: “Cuanto más conocimiento se tiene de un problema, mejores decisiones se toman.”

P 0.5 0.5 EM

s1 s2

a1 100 0 50

a2 0 100 50

UML = utilidad media límite

UB = utilidad de Bayes

PFI = pérdida por falta de información

Ejemplo 2. Solución (1)

Page 22: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 21 J. Bautista, G. López

 Ejemplo 2:

•  Probabilidad a priori:

•  Probabilidad condicional:

•  Probabilidad marginal:

•  Probabilidad a posteriori:

P(s1) = 0.5 P(s2 ) = 0.5

P(x1 s1) = 9 10 = 0.9 P(x2 s1) =1! 0.9 = 0.1P(x1 s2 ) = 3 10 = 0.3 P(x2 s2 ) =1! 0.3 = 0.7

P(x1) = 0.5 !0.9 + 0.5 !0.3 = 0.6P(x2 ) = 0.5 !0.1+ 0.5 !0.7 = 0.4

P(s1 x1) =0.9 !0.50.6

= 0.75 P(s2 x1) =0.3!0.50.6

= 0.25

P(s1 x2 ) =0.1!0'50.4

= 0.125 P(s2 x2 ) =0.7 !0.50.4

= 0.875

Probabilidad de escoger lote S2 (7 buenas, 3 malas)

Probabilidad de sacar una pieza buena en lote S1 (9 buenas, 1 mala).

Probabilidad de sacar una pieza mala en lote S2

P(sj xk ) =P(xk sj ) !P(sj )

P(xk )

P(xk sj )

P(sj )

P(xk ) = P(s jj! ) "P(xk sj )

Ejemplo 2. Solución (2)

Page 23: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 22 J. Bautista, G. López

 Ejemplo 2:

Realizamos experimento → Sacamos 1 pieza

a)  La pieza es buena:

b)  La pieza es mala:

UB = 75

UB = 87.5

Si la pieza extraída es una pieza buena, la decisión es que pertenece al Lote 1, obteniendo una utilidad de 75 um.

P 0.75 0.25 EM

s1 s2

a1 100 0 75

a2 0 100 25

P 0.125 0.875 EM

s1 s2

a1 100 0 12.5

a2 0 100 87.5

Hacen referencia a x1 (pieza buena)

Ejemplo 2. Solución (3)

Si la pieza extraída es una pieza mala, la decisión es que pertenece al Lote 2, obteniendo una utilidad de 87.5 um.

Page 24: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 23 J. Bautista, G. López

 Ejemplo 2:

Por lo tanto, la Utilidad de Bayes del sistema realizando el experimento será:

En conclusión, como la “UB (con experimento)” es mayor que “UB (sin experimento) + Coste de la información”: 75. Ergo:

Conviene realizar el experimento!

UB = 0.6 · 75 + 0.4 · 87.5 = 80 > 75

Ejemplo 2. Solución (4)

Page 25: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 24 J. Bautista, G. López

Árboles de decisión. Concepto

 Estudio de problemas polietápicos:

Tipos de vértices:

•  De decisión: Utilidad esperada a obtener si se toma la mejor opción posible.

•  De azar: Utilidad esperada a obtener según las probabilidades de cada situación.

•  Terminales: Utilidad obtenida (Resultados).

uA = pj !uij( )j"lA = pj !uij( )j"

uD =max(R1,...Rn )lD =min(R1,...Rn )

R1

Rn

UD

UA

R1

R n

R i

Page 26: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 25 J. Bautista, G. López

 Ejemplo 2:

Un árbol de decisión del ejemplo de los lotes con piezas:

I

I

I I

I I

I I I

I I I

IV

IV

Caja1(0'5)

Caja2(0'5)

S í‐25

Sí‐25

No

No

Caja1

Caja2

100

0

B lanca(0'9)

A zul(0'1)

100

100

100

100

100

0

0

0

0

0

Caja1

Caja2

Caja1

Caja2

Caja1

Caja2

Caja1

Caja2

Caja1

Caja2

B lanca(0'3)

A zul(0'7)

Árboles de decisión. Representación

Page 27: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 26 J. Bautista, G. López

Árboles de decisión. Estrategias puras (1)

Una estrategia es una secuencia de acciones frente a una secuencia de conjuntos de información.

E1 E2 E3 E4 E5 E6 I No No Si Si Si Si II Lote 1 Lote 2 - - - -

III (blanca) - - Lote 1 Lote 2 Lote 1 Lote 2 IV (azul) - - Lote 1 Lote 2 Lote 2 Lote 1

En el Ejemplo 2: Seis estrategias posibles frente a los conjuntos de información

Page 28: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 27 J. Bautista, G. López

I

I

I I

I I

I I I

I I I

IV

IV

Caja1(0'5)

Caja2(0'5)

S í‐25

Sí‐25

No

No

Caja1

Caja2

100

0

B lanca(0'9)

A zul(0'1)

100

100

100

100

100

0

0

0

0

0

Caja1

Caja2

Caja1

Caja2

Caja1

Caja2

Caja1

Caja2

Caja1

Caja2

B lanca(0'3)

A zul(0'7)

E1 E2 E3 E4 E5 E6 I No No Si Si Si Si II Lote 1 Lote 2 - - - -

III (blanca) - - Lote 1 Lote 2 Lote 1 Lote 2 IV (azul) - - Lote 1 Lote 2 Lote 2 Lote 1

I II III (blanca) IV (azul) Utilidad media

E1 0 (No) 100 (0.5) + 0 (0.5) - 50

E2 0 (No) 0 (0.5) + 100 (0.5) 50

E3 -25 (Si) - 75 (0.6) 12.5 (0.4) 50 – 25 = 25

E4 -25 (Si) - 25 (0.6) 87.5 (0.4) 50 – 25 = 25

E5 -25 (Si) - 75 (0.6) 87.5 (0.4) 80 – 25 = 55

E6 -25 (Si) - 25 (0.6) 12.5 (0.4) 20 – 25 = -5

Árboles de decisión. Estrategias puras (2)

Page 29: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 28 J. Bautista, G. López

 Ejemplo 3:

Una empresa tiene tres opciones sobre su futuro:

Opción a: Continuar con su producto → Obtendrá un beneficio de 10 um.

Opción b: Modificar su producto → Supone un coste de 5 um.

- Hay una probabilidad del 60% de que salga bien → Beneficio de 35 um.

- Si sale mal: - Puede hacer la “opción b2” → Beneficio de 17.5 um.

- Puede cerrar → Beneficio de 15 um.

Opción c: Fabricar un nuevo producto → Supone una inversión de 1 um.

- Hay una probabilidad del 75% de que salga bien → Beneficio de 20 um.

- Si sale mal → Beneficio de 10 um.

Ejemplo 3. Descripción

Page 30: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 29 J. Bautista, G. López

 Ejemplo 3:

Árbol de decisión:

Ejemplo 3. Solución (1)

I I

OK(0'6)

K O(0'4)

35

17'5

10

2015

c

C ierraOK(0'75)

K O(0'25)

I

10

a

c‐1

b‐5

b2

Page 31: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 30 J. Bautista, G. López

 Ejemplo 3:

Árbol de decisión:

Ejemplo 3. Solución (2)

I I

OK(0'6)

K O(0'4)

35

17'5

10

2015

c

C ierraOK(0'75)

K O(0'25)

I

10

a

c‐1

b‐5

17'5

b2

Page 32: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 31 J. Bautista, G. López

 Ejemplo 3:

Árbol de decisión:

Ejemplo 3. Solución (3)

I I

OK(0'6)

K O(0'4)

35

17'5

10

2015

c

C ierraOK(0'75)

K O(0'25)

I

10

a

c‐1

b‐5 28

17'5

17'5

b2

Page 33: Fundamentos de Teoría de la Decisión€¦ · UML = 100 · 0.5 + 100 · 0.5 = 100 PFI = UML – UB = 100 – 50 = 50 Obviamente: “Cuanto más conocimiento se tiene de un problema,

MHD’15 - FTD: 32 J. Bautista, G. López

 Ejemplo 3:

Árbol de decisión:

Ejemplo 3. Solución (4)

I I

OK(0'6)

K O(0'4)

35

17'5

10

2015

c

C ierraOK(0'75)

K O(0'25)

I

10

a

c‐1

b‐5

2328

17'5

17'5

b2