“UNIVERSIDAD NACIONAL DE SAN AGUSTÍN”
Facultad De Ingeniería de Producción y Servicios Escuela Profesional De Ingeniería Industrial
Curso: Sistemas de Producción 1
VI semestre - Grupo: B
Integrantes:Chambi Almerón Miguel FerminChoque Cutipa Suzan KatherinnePeña Carbajal Fiorella NancyPérez Nina Walther Junior
Profesor:Ing. Pablo Azálgara Neira
Arequipa – Perú – 2015
UNSA
ÍNDICE
ÍNDICE...................................................................................................................................................2MÉTODOS DE CÁLCULO DE LOS PRONÓSTICOS...................................................................31. MÉTODO DE REGRESIÓN MÚLTIPLE...................................................................................32. OTROS MÉTODOS DE REGRESIÓN NO LINEALES..........................................................62.1 Modelos de 3o Orden................................................................................................................62.2 Función Potencia.....................................................................................................................62.3 Función Recíproca...................................................................................................................72.4 Función Hiperbólica.................................................................................................................82.5 Función Logística:.....................................................................................................................93. MODELO CON VARIABLES DICOTÓMICAS.........................................................................94. MÉTODO DE REGRESIÓN LOGÍSTICA – LOGIT...............................................................105. MÉTODO PARA SERIES ESTACIONARIAS........................................................................126. MODELO AUTOREGRESIVO..................................................................................................137. MÉTODOS INTUITIVOS...........................................................................................................138. SUAVIZAMIENTO EXPONENCIAL.........................................................................................14
MÉTODOS DE CÁLCULO DE LOS PRONÓSTICOS
1. MÉTODO DE REGRESIÓN MÚLTIPLE
• El análisis de regresión múltiple utiliza más variables independientes para predecir o
explicar la variación de una variable dependiente cuantitativa. Es una forma muy útil
de determinar el valor explicativo de muchos predictores diferentes posibles.
• La regresión múltiple trata de seleccionar cuales de los predictores en realidad
explican la variación de la variable dependiente. Posiblemente esta técnica
estadística es la más utilizada en las empresas y centros de investigación.
Pasos:
• Se aplica la misma lógica en la regresión múltiple que en la simple.
• Se identifica una sola variable dependiente cuyos movimientos o varianza desea
explicar.
• Después se identifica 2 o más variables predictores potenciales que puedan
correlacionarse con la variable dependiente.
• Se elige una muestra aleatoria de elementos a partir de la población que se estudia,
y se intenta encontrar una combinación de variables predictores que produzcan un
buen pronóstico o ecuación de regresión para ‘y’.
Matriz de Correlación Luego de tomadas las muestras aleatorias a las variables independientes que se van
a incluir en el modelo, se identifican las relaciones entre las variables de predicción y
la dependiente, así como entre las mismas variables independiente.
La matriz de correlación es un cuadro que muestra los coeficientes de correlación
para cada posible par de variables en el análisis.
Multicolineidad: Surge cuando las variables predictores tienen una correlación muy alta
entre ellas.
• Cuando se analiza en busca de Multicolineidad, se utiliza la siguiente regla: ‘la
correlación entre las dos variables predictores debe estar muy por debajo de la
menor de las dos correlaciones entre las variables predictores y la variable
dependiente’
• Esta regla se aplica sólo a la magnitud de los coeficientes de correlación e ignora
sus signos.
Notas sobre Multicolineidad, consecuencias adversas:
• La estimación de los coeficientes de regresión fluctúan de manera notoria de una
muestra a otra.
• Una variable dependiente que tiene una relación positiva con la variable dependiente
puede producir un coeficiente de regresión negativo si la correlación con otras
variables independientes es alta.
• Cuando las variables independientes se intercorrelacionan, explican la misma
varianza en el pronóstico de la variable dependiente, por esto es difícil separar la
influencia individual de cada variable independiente cuando la multicolineidad está
presente.
Ecuación de regresión Múltiple
La ecuación siguiente (Modelo Lineal general) indica como se describe el modelo de
regresión múltiple para la población:
Y = o + 1Xi1 + 2Xi2 + 3Xi3 + … + nXin +
Y : Variable dependiente.
X1, X2 X3 Xn : Variables de predicción.
o, 1, 2, 3, : Parámetros modelo poblacional.
: Componente de error aleatorio.
En la realidad, casi nunca se podrán conocer los verdaderos valores para los
parámetros de regresión o, 1, 2, 3, que pertenecen a la población, entonces
deben estimarse estos parámetros de los datos muestrales:
Y = bo + b1Xi1 + b2Xi2 + b3Xi3 + … + bnXin
Y : variable dependiente. (valor estimado)
X1, X2 X3 Xn : variables de predicción.
bo, b1, b2, b3,bn : estimaciones de o, 1, 2, 3,n.
La siguiente ecuación también representa a la ecuación de regresión múltiple para
datos muestrales (modelo de primer orden):
Y = a + b1x1 + b2x2
El modelo de primer orden es factible de ser resuelto a través de ecuaciones de
mínimos cuadrados y utiliza las siguientes tres ecuaciones para determinar los
valores de las constantes numéricas:
Y = an + b1x1 + b2x2
x1Y = ax1 + b1x12 + b2 x1x2
x2Y = ax2 + b1x1 x2 + b2 x22
Error Estándar de la Estimación En la regresión múltiple mide la variabilidad o dispersión de los valores muestrales
observados alrededor del plano de regresión.
Se=√∑ ( y− y )2
n−k
k = valor de parámetros linealmente independientes que deben estimarse (es el
número de constantes en la ecuación si se supone que las variables de predicción
son linealmente independientes)
Coeficiente de Determinación múltiple (R2)
Mide el porcentaje de la variabilidad en Y que se puede explicar mediante las variables de
predicción
r2=1−∑ ( y− y )2
∑ ( y− y )2
r2=1− SCESCT
2. OTROS MÉTODOS DE REGRESIÓN NO LINEALES:
2.1 Modelos de 3o Orden
Proporciona una curva tal cual se muestra en la figura.
Y = o + 1X+ 2X2 + 3X3 :
3 : control de la tasa de curvatura inversa para la curva.
A partir de la data se generan curvas de 3º orden
Y = o + 1X+ 2X2 + 3X3
Ecuaciones de Mínimos Cuadrados
2.2 Función Potencia
y=axbEsta función representa la relación entre Y y X en la muestra, en donde se desea encontrar
el exponente “b” que se desconoce, para esta función si b>1 aumenta a una tasa
creciente, cuando X aumenta.
Sí 0 <b< 1 , la tasa de incremento disminuye continuamente para cualquier valor de “b” , y
se aproxima al infinito cuando X se aproxima al infinito, cuando b = -1 , la función se
representa por una hipérbole rectangular.
Transformación:
log y=log a+b log x
Ecuaciones de Mínimos Cuadrados:
2.3 Función Recíproca
y=a+b( 1x )
Transformación:
z=1/ x
y=a+b z
Ecuaciones de Mínimos Cuadrados:
2.4 Función Hiperbólica
y= xa+bx
Transformación:
y∗¿ a+bxx
x∗¿ 1x
y∗¿a+bx∗¿ ¿
2.5 Función Logística:1y=a+bx
Transformación:
y∗¿ 1y
y∗¿a+bx
3. MODELO CON VARIABLES DICOTÓMICAS
• Son ficticias o artificiales, introduce una variable cualitativa en el análisis de
regresión. Utiliza valores de 0 y 1. Cuando usa ‘0’ significa ausencia del atributo y ‘1’
presencia del atributo. Estas variables son un recurso para clasificar datos en
categorías mutuamente excluyentes.
• Un modelo de regresión puede contener variables explicativas que son
exclusivamente dicotómicas o cualitativas. Estos modelos se denominan ‘Modelos
de Análisis de Varianza’:
Y = o + 1D1+ 2D2
• Un modelo de regresión puede contener variables explicativas que son dicotómicas
o cualitativas y cuantitativas. Estos modelos se denominan ‘Modelos de Análisis de
Covarianza’:
Y = o + 1D1+ 2D2+ 3X1
• Si una variable cualitativa tiene ‘m’ categorías, solo hay que agregar (m-1) variables
dicotómicas.
• Si no se respeta esta regla se provocará lo que se conoce como ‘trampa de la
variable dicotómica’, es decir se tendrá una situación de perfecta multicolineidad.
• La categoría a la cual no se le agrega variable dicotómica se conoce como categoría
base, de comparación, de control, de referencia u omitida. Además todas las
comparaciones se hacen respecto de la categoría de comparación.
• El valor de intersección Bo representa el valor medio de la categoría de
comparación.
• Los coeficientes anexos a las variables dicotómicas se conocen como coeficientes
de la intersección diferencial.
• Si una variable cualitativa tiene más de una categoría, la elección de la categoría de
comparación se deja al criterio del evaluador.
• Ejemplo de modelo aditivo en función a trimestres:
Yt = bo + b1D1 + b2D2 + b3D3
Y : Pronostico de Y
D1 : 1 para el 1º trimestre del año y 0 para el resto
D2 : 1 para el 2º trimestre del año y 0 para el resto
D3 : 1 para el 3º trimestre del año y 0 para el resto
bo : constante
b1, b2, b3 : Coeficientes de regresión
4. MÉTODO DE REGRESIÓN LOGÍSTICA – LOGIT
En procesos de cálculo en las que una serie de variables influyen en una variable
respuesta, cuando ésta es numérica la herramienta a disposición es Regresión Múltiple.
En los casos que la variable respuesta es dicotómica la herramienta a utilizar es el modelo
de Regresión Logística –LOGIT
La regresión logística resulta útil para los casos en los que se desea predecir la presencia o
ausencia de una característica o resultado según los valores de un conjunto de variables
predictoras. Es similar a un modelo de regresión lineal pero está adaptado para modelos en
los que la variable dependiente es dicotómica.
Los coeficientes de regresión logística pueden utilizarse para estimar la razón de las
ventajas (odds ratio) de cada variable independiente del modelo. La regresión logística se
puede aplicar a un rango más amplio de situaciones de investigación que el análisis
discriminante.
Identificación de factores de riesgo
• Probabilidad: (Marginal) Es el número de casos en que el evento ocurre dividido por
el total de casos.
• Oportunidad: (Odds) Es el número de casos en los que el evento ocurre dividido por
el número de casos en que no ocurre.
Factor de Riesgo:Riesgo Relativo. RR. R2/R1
Odd Ratio (OR). Oportunidad Relativa.
Interpretación:• OR = 1, Indica que no hay factor de riesgo, ya que la oportunidad para los expuestos
es la misma que para los no expuestos.
• OR > 1, Significa que se ha localizado un factor de riesgo, pues es mayor la
oportunidad de que ocurra el evento a los expuestos al factor que a los controles.
• OR < 1, Indica que sea menor la oportunidad de que ocurra el evento en los
individuos expuestos al tratamiento que entre los control.
Se tiene una variable respuesta en forma de dos posibles eventos y se desea estudiar el
efecto de otras variables independientes sobre el resultado.
El modelo de regresión logística binaria es útil para:
Dados los valores de las variables independientes estimar la probabilidad de que se
presente el evento de interés.
Se puede evaluar la influencia que cada variable independiente tiene sobre la
respuesta, en forma de OR. Una OR mayor que uno indica aumento en la
probabilidad del evento y una OR menor que uno, implica disminución.
Para construir un modelo de
regresión logística se necesita:
Un conjunto de variables
independientes o predictoras,
similar a una Regresión Lineal
Múltiple.
Una variable respuesta
dicotómica, esto es diferente
a la Regresión Múltiple,
porque la variable respuesta
es cuantitativa.
0
0.2
0.4
0.6
0.8
1
1.2
-10 0 10
P(Y)
z
Probit/Logit
Probit
Logit
• Codificación de variables en un modelo de regresión logística:
– En las variables dependientes se codifica como ‘1’ la ocurrencia del evento y ‘0’
la ausencia.
– Las Variables Independientes pueden ser varias y cada una de un tipo diferente:
– Variables Dicotómicas: Se codifica como ‘1’ en caso que la ocurrencia del
evento sea favorable.
– Caso Categórico: se denomina variables indicadoras (dummy)
– Variables Numéricas:
» Si se conoce que la variable numérica aumenta por cada unidad, la
OR aumentara en un factor multiplicativo constante e ingresan al
modelo tal cual se presentan.
» Si la variable numérica afecta pero no se conoce la forma en que lo
hace, entonces se puede categorizar la variable.
• Requisitos y Limitaciones en un modelo de regresión logística:
– Los parámetros del modelo son válidos cuando para cada combinación de
variables independientes se tiene un número suficientemente alto de
observaciones.
– No deben introducirse variables innecesarias.
– Ninguna variable relevante debe ser excluida.
– Se presenta multicolineidad y se muestra en errores típicos anormalmente
grandes en los coeficientes.
• Interpretación del modelo de regresión logística:
log ( p1−p
)=bo+b1 x1+. . .+bn xn– Donde ‘p’ es la probabilidad (riesgo) de que ocurra el evento de interés, las
variables independientes están representadas por x y sus respectivos
coeficientes.
5. MÉTODO PARA SERIES ESTACIONARIAS
Algunos modelos de pronósticos avanzados como ‘Box-Jenkins, están diseñados para
usarse con series de tiempo estacionarias. La estimación de los parámetros de los modelos
de Box-Jenkins es un problema de estimación no lineal bastante complicado. Por esta
razón, la estimación de parámetros debe dejarse a un programa de software de alta calidad
que se ajuste a los modelos de Box-Jenkins. Afortunadamente, muchos programas de
software estadístico ahora encajan modelos Box-Jenkins.
Una serie estacionaria es aquella cuyas propiedades estadísticas básicas como la media y
la varianza, permanecen constantes a través del tiempo. Una serie estacionaria no
contiene crecimiento o declinación.
Los coeficientes de auto correlación de datos estacionarios bajan a ‘0’ después del
segundo o tercer atraso, mientras que las series no estacionarias difieren de ‘0’ de manera
significativa durante varios periodos de atraso.
Para eliminar la tendencia de una serie no estacionaria se usa el método conocido como la
diferenciación.
Diferenciación consiste en restar Yt-1 de Yt, luego Yt-2 de Yt-1 y así sucesivamente creando
una nueva serie.
6. MODELO AUTOREGRESIVO
Genera una nueva variable de predicción al usar ‘Y’ como la variable atrasada uno o más
periodos.
Yt = βo+ β1Yt-1+….+ βkYt-k+εt
Yt = Valor del pronóstico Y para el periodo t.
Yt-1 = Valor Y para el periodo t atrasado un periodo
Yt-k = Valor Y para el periodo t atrasado ‘k’ periodos
Βo = Constante.
Β1; Βk = Coeficientes de regresión.
εt = Componente aleatoria en el tiempo
7. MÉTODOS INTUITIVOS
Son enfoques sencillos para pronosticar, como utilizar el valor anterior como estimación
para el siguiente periodo.
F t+1=Y t– Ft+1 = Pronostico para el periodo t+1
– Yt = Valor Y para el periodo t.
8. SUAVIZAMIENTO EXPONENCIAL
Utiliza un promedio ponderado de los valores pasados de una serie de tiempo para llegar a
un pronóstico suavizado. Utiliza pesos o ponderaciones que se asignan a periodos
anteriores.
F t+1=αY t+(1−α )F t– Ft+1 = Pronostico para el periodo t+1
– Yt = Valor Y para el periodo t.
– = Constante de suavizamiento exponencial, valor entre 0 y 1.
Valores cercanos a 1, la observación más reciente afectará más al nuevo
pronóstico. Valores cercanos a 0, el nuevo pronóstico será muy parecido a la
observación más antigua.
– Ft= experiencia promedio de la serie suavizada para el periodo t o valor del
pronóstico para el periodo t