Trabajo final de probabilidad y estadística.docx

51
Trabajo final de probabilidad y estadística Ejemplos de las distribuciones y regresión lineal en la ingeniería química Presentado por: Agustín Cardona Naranjo Docente: Julio Fernando Suarez Cifuentes

Transcript of Trabajo final de probabilidad y estadística.docx

Page 1: Trabajo final de probabilidad y estadística.docx

Trabajo final de probabilidad y estadística

Ejemplos de las distribuciones y regresión lineal en la ingeniería química

Presentado por:

Agustín Cardona Naranjo

Docente:

Julio Fernando Suarez Cifuentes

Universidad Nacional de Colombia-Sede Manizales

Page 2: Trabajo final de probabilidad y estadística.docx

Objetivos

1. Aplicar por lo menos una variable continúa a casos reales de la ingeniería química (exponencial).

2. Aplicar un caso de ingeniería a una variable discreta (poisson).3. A un caso o proceso de ingeniería aplicar los conceptos de regresión lineal vistos en

la clase de probabilidad y estadística. Objetivos específicos del objetivo 3:3.1 A las variables de la regresión lineal hacer el análisis con logaritmo.

INTRODUCCIÓN

En el presente trabajo se tratara de modelar algunos casos de la ingeniería con distribuciones de probabilidad y de regresión lineal, para ello se baso en la consulta del material bibliográfico para poder tener un respaldo solido. de esta forma se desarrolla los casos de estudio y poder cumplir con los objetivos planteados, de tal forma se obtuvo un análisis serio de las variables involucradas, por lo que la dinámica del trabajo será definir y explicar las variables obtenidas y hacer un análisis de los resultados obtenidos durante el transcurso del trabajo.

VARIABLE CONTINUA: DISTRIBUCIÓN EXPONENCIAL

Revisión Bibliográfica:

La distribución exponencial es una distribución continua de probabilidad para describir el tiempo que se tarda en realizar una actividad. Esta distribución es un caso especial de la distribución gamma. Esta función se usa para modelar las vidas de las baterías, de transistores, de valeros, etc. Una variable aleatoria exponencial puede ser usada para medir el tiempo que transcurre entre las ocurrencias de un evento.

Una variable aleatoria continua X se dice que está exponencialmente distribuida si su función de densidad es:

F ( x )= λe−λx Para X ≥ 0, λ ≥ 0

Donde: λ es un parámetro de la distribución, y e una constante igual a 2.71828

X y s2 de la variable aleatoria exponencial X son E(X) = 1/λ y V(X) = 1/λ2, respectivamente. Se puede demostrar que el promedio y la desviación estándar de una distribución exponencial son iguales el uno al otro, esto es: μ = σ = 1/λ.

Por otro lado, Keller et al. (1990) afirma que, en el caso de una variable aleatoria exponencial X, se puede demostrarse que la probabilidad de que X pueda tomar un valor más grande que un número especificado no negativo a, es e-λa. Esto se puede expresar usando cálculo integral, es decir:

Page 3: Trabajo final de probabilidad y estadística.docx

P(X ≥ a) = ∫ a λ e− λxdx = -e− λx| a = e− λx

El cálculo de las funciones exponenciales involucra la evaluación de integrales de probabilidad entre los límites de a y b. Para esto, se da una tabla de probabilidades exponenciales. Las siguientes fórmulas se usan con esa tabla.

P(a ≤ X ≤ b) = e− λa– λ e− λb

P(X ≤ a) = 1 – e− λa

P(X ≥ a) = e− λa

CASO DE ESTUDIO TOMADO DEL ARTÍCULO: METABOLIC AND PROCESS ENGINEERING OF CLOSTRIDIUM CELLULOVORANS FOR BIOFUEL PRODUCTION FROM CELLULOSE.

Revisión Bibliográfica.

La grafica 1 muestra que mientras se consume la celulosa, se produce acido butírico para la posterior producción de butanol y acido acético intermediario para la producción de etanol según el ciclo de la bacteria mencionada en el artículo (clostridium Cellulovorans), se escoge la celulosa y no la glucosa porque con una menor concentración de celulosa en g/l, se obtiene los mismos productos que con glucosa. Por lo que para completar la tarea metabólica o actividad de producción se hace lo mismo con menos materia prima.

Grafica 1. Cinética de fermentación de naturaleza de tipo C. cellulovorans usando (B), Celulosa (tomada del articulo).

Para hacer nuestra base de datos se observara el consumo de celulosa hasta que la bacteria la consumido completamente.

Page 4: Trabajo final de probabilidad y estadística.docx

Grafica 2. Observación de los puntos del consumo de Celulosa en el tiempo para la construcción de la base de datos para la función exponencial (tomada del artículo).

Tiempo (horas) celulosa (g/l)0 8.8725 7.0049 4.2568 1.2691 0.00

Tabla 1. Base de datos del consumo de la celulosa en horas.

La representación en R seria de la siguiente forma:

Tiempo<-c(0,25,49,68,91);TiempoCelulosa<-c(8.87,7,4.25,1.26,0);Celulosa

0 20 40 60 80

02

46

8

Tiempo

Celulosa

Figura 3. Representación en R del consumo de sustrato (celulosa).

Page 5: Trabajo final de probabilidad y estadística.docx

Entonces: sea x una variable aleatoria que indica la duración de celulosa si se sabe que la duración media para degradar los compuestos celulósicos es de 91 horas (tiempos iguales para el consumo total tanto de celulosa como glucosa a las condiciones planteadas por el artículo al que se hace mención al principio). Primero defino los intervalos para calcular las probabilidades intervalo=91/7=13 por lo que se eligen 8 intervalos a continuación se hace la siguiente tabla:

X~Exponencial(λ=1

E(x)= 1

91=0,0110¿

Gx(x)={ 191

e−x91 x>0

−−−−−−¿0 enotro caso

Con la función de densidad se obtiene la siguiente grafica desarrollando la integral:x Gx(x) P(Li<=X<=Ls) Fx(x)

0-13∫0

13 191

e−x91 dx 0.1331 0.1331

13-26∫13

26 191

e−x91 dx 0.1154 0.2485

26-39∫26

39 191

e−x91 dx 0.1000 0.3485

39-52∫39

52 191

e−x91 dx 0.0867 0.4352

52-65∫52

65 191

e−x91 dx 0.0752 0.5104

65-78∫65

78 191

e−x91 dx 0.0652 0.5756

78-91∫78

91 191

e−x91 dx 0.0565 0.6321

91 ó +∫91

∞ 191

e−x91 dx 0.3679 1.0000

Tabla 2. Probabilidades puntuales y acumuladas a 8 intervalos de tiempo

En lenguaje R el código queda de la siguiente manera:

Desarrollo en R de la Distribución Exponencial acumulada a excepción del primero y el último que no están acumuladas:

Page 6: Trabajo final de probabilidad y estadística.docx

Código Análisis>pexp(c(13), rate=1/91, lower.tail=TRUE) La probabilidad puntual de que se consuma

el sustrato entre 0-13 horas es del 13.3246 %

[1] 0.1332459

> pexp(c(26), rate=1/91, lower.tail=TRUE) La probabilidad acumulada de que se consuma el sustrato entre 0-26 horas es del 24.8737 %

[1] 0.2487374

> pexp(c(39), rate=1/91, lower.tail=TRUE) La probabilidad acumulada de que se consuma el sustrato entre 0-39 horas es del 34. 8840%

[1] 0.3488401

> pexp(c(52), rate=1/91, lower.tail=TRUE) La probabilidad acumulada de que se consuma el sustrato entre 0-52 horas es del 43.5604 %

[1] 0.4356045

> pexp(c(65), rate=1/91, lower.tail=TRUE) La probabilidad acumulada de que se consuma el sustrato entre 0-65 horas es del 51.0810 %

[1] 0.5108079

> pexp(c(78), rate=1/91, lower.tail=TRUE) La probabilidad acumulada de que se consuma el sustrato entre 0-78 horas es del 57.5991 %

[1] 0.5759907

Intervalo (0-91)=0,6325 acumulada hasta ese putno

La probabilidad acumulada de que se consuma el sustrato entre 0-91 horas es del 63.25%.

>pexp(c(91),rate=1/91, lower.tail=FALSE) La probabilidad acumulada de que se consuma el sustrato entre 91 horas o más es del 100% y la puntual del 36.7512%.

[1] 0.3675117

Tabla 3. Análisis de Probabilidades puntuales y acumuladas a 8 intervalos de tiempo

VARIABLE DISCRETA: DISTRIBUCIÓN DE POISSON

Fundamentos para realizar el ejercicio (Revisión Bibliográfica):

La distribución Poisson es una distribución de probabilidad discreta, porque se forma contando algo. La distribución de Poisson fue desarrollada por el francés Simeon Denis Poisson, quién la describió en 1837.

Aplicaciones de la distribución de Poisson:

1. Las aplicaciones de la distribución pueden ser enfocadas a estudiar el número de tóxicos encontrados en un volumen de aire emitido por una industria (contaminación del aire). Otras aplicaciones son en la meteorología, para encontrar la frecuencia imprevista de tempestades, ciclones, tornados, granizadas, inundaciones, fuegos forestales, etc., en ciertas

Page 7: Trabajo final de probabilidad y estadística.docx

regiones del mundo. Otras aplicaciones importantes de la distribución de Poisson son para encontrar el número de accidentes, entre los trabajadores, como por ejemplo, en una industria, en estudios de higiene industrial y seguridad entre otros.

Condiciones que se requieren para aplicar la distribución de Poisson:

1. Un experimento consiste en contar el número de veces de que un cierto evento ocurra (x), durante una unidad de tiempo o espacio.

2. La probabilidad de que un evento ocurra es pequeña para cada unidad de tiempo o espacio.

3. El número de eventos que ocurran en una unidad de tiempo o espacio es independiente del número de eventos que ocurren en las otras susodichas unidades.

4. Teóricamente, un número infinito de ocurrencias del evento deben ser posibles en el intervalo.

Funciones probabilísticas de la distribución Poisson:

Cuando la distribución de Poisson es apropiada, la probabilidad de observar exactamente x número de ocurrencias por unidad de medición (horas, minutos, centímetros cúbicos, páginas, etc.), es decir, el número de resultados que ocurren en un intervalo de tiempo dado o en una región específica, se encuentra usando las ecuaciones de abajo:

P ( x )=f ( x )= μx e−μ

x !

Donde:

μ = promedio de ocurrencias por intervalo = np

Donde: n = tamaño de la muestra

p = la probabilidad

e = 2.71828... (Base de los logaritmos Neperianos)

x = 0, 1, 2,....., ∞, es decir, los valores de la variable aleatoria X, esto es, el número de resultados que ocurren en un intervalo de tiempo.

De acuerdo a la fórmula de arriba, la distribución de Poisson tiene un solo parámetro simbolizado por la letra griega μ. Si conocemos este valor del promedio μ podemos escribir la distribución de probabilidad completa. Este parámetro μ puede ser

Page 8: Trabajo final de probabilidad y estadística.docx

interpretado como el promedio de las ocurrencias, por intervalo de tiempo o espacio que caracteriza el proceso generado por la distribución de Poisson.

Otra manera de ver la distribución de Poisson es usando la función dada:

Abajo:

P ( x )= λx e− λ

x !

Donde:

λ = np es una constante dada. Es el número promedio de resultados por unidad de tiempo o región. Aquí, debido a que λ es positiva para todos los posibles valores de X, entonces:

∑x=0

∞ λx

x !

CASO DE ESTUDIO TOMADO DEL TEXTO: MECANISMOS DE DEFORMACIÓN PLÁSTICA A ALTA TEMPERATURA DE POLICRISTALES CERÁMICOS.

Revisión Bibliográfica:

Los cerámicos avanzados han sido objeto de atención preferente por parte de científicos e ingenieros a lo largo del siglo XX. En gran medida, este interés se basa en las peculiares propiedades físicas que algunos de estos sistemas presentan, que los hacen óptimos para ciertas aplicaciones funcionales; pensemos, por ejemplo, en el UO2 en aplicaciones nucleares, en el ZrO2 como componente de células de combustible o en los YBaCuO superconductores. Otros cerámicos, en cambio, son interesantes por sus potenciales aplicaciones estructurales; por ejemplo, en 1986 se puso de manifiesto que algunos cerámicos a base de ZrO2 exhibían el comportamiento superplástico característico de los metales.

La identificación de los mecanismos de deformación en policristales se realiza mediante una secuencia de ensayos mecánicos, que permiten caracterizar macroscópicamente el proceso, y de observaciones de la microestructura de las muestras antes y después de la deformación. La  comparación de ambas microestructuras permite obtener información acerca de los procesos primarios y de acomodación activos y, por tanto, identificar el mecanismo de deformación.

Análisis del problema: sea x la variable aleatoria que mida la deformación de los policristales en un intervalo de tiempo a condiciones de temperatura como se muestran en las siguientes graficas tomadas de los siguientes gráficos, con los cuales haremos el análisis para la distribución de poisson:

Page 9: Trabajo final de probabilidad y estadística.docx

Grafica 4 y 5. Presión y tiempo de deformación (se debe pasar ɛ a tiempo) (4). Y Frecuencia de deformación y no deformación de los policristales (5) con tendencia de poisson.

Los ensayos mecánicos a alta temperatura (entre 1450 ºC y 1650 ºC) revelaron un exponente de tensión sistemáticamente menor que uno (con un valor promedio en torno a 0.5) para ambas muestras en todas las condiciones experimentales. Las observaciones micro estructurales eran consistentes, en principio, con un mecanismo de deslizamiento de fronteras de grano acomodado por disolución - precipitación. Estos resultados eran sorprendentes porque los distintos modelos comúnmente invocados para explicar la fluencia de este tipo de materiales predicen exponentes de tensión iguales a uno o comprendidos entre uno y dos. Y por este caso en particular tienen una distribución que tiene una tendencia de poisson tanto para la configuración de los policristales cuando se deforman como también, cuando no están deformados(antes de someterse a las temperaturas), con una media de 5μm, para cualquiera de los casos. La temperatura a la cual se someten a deformación es de 1450 ºC, 1550°C y 1650 ºC, se puede hallar el tiempo en el cual ocurre dicha deformación a las condiciones de presión (que son las mismas para las tres temperaturas), para este caso se tomo a 1650 °C para realizar el ejercicio.

Page 10: Trabajo final de probabilidad y estadística.docx

Grafica 6. Presión y tiempo de deformación (se debe pasar ɛ a tiempo), lectura de ɛ para hallar tiempo.

A 1650°C y 90MPa con una media de 0.5 de deformados el tiempo para la formación de las microestructuras (Nota: se aclara que en la grafica esta a diferentes presiones a las cuales se forman las microestructuras); en todos los casos siguen una distribución de poisson, para ese punto el tiempo es igual a:

ɛ=12−4 seg−1(Dato leído de la tabla 6), Con este dato encontramos el tiempo en el cual ocurren las deformaciones para esta temperatura a la presión dada, entonces se calcula de la siguiente manera:

ɛ= 1T Donde T=1

ɛ entonces T= 112−4 seg−1 =20736 seg si lo pasamos a horas

Son: 20736 seg3600 seg

∗1 hora=5.76 horas

Cabe resaltar que no tienen el mismo comportamiento de tiempo. Para todos los casos solo basta con observar la línea que se trazo, paso por los tres intervalos de temperatura tocando todos los puntos a pesar de estar a diferentes temperaturas pero a la misma presión pero variando en el tiempo, con un promedio de deformación de cristales de 0.5𝞵m.

Ahora se cuenta que la deformación del proceso tiene un promedio de 0,5μm cada 5.76 horas a la temperatura y presión dadas (también cabe resaltar que el promedio se mantiene por todo el proceso a pesar de que las presiones y temperaturas cambien pero para mi caso

Page 11: Trabajo final de probabilidad y estadística.docx

lo trabaje a 1650°C y 90MPa); cabe resaltar que los intervalos de tiempo son diferentes para las tres temperaturas.

X: variable aleatoria que denota la deformación por unidad de tiempo.

Ahora puedo hacer la siguiente pregunta ¿Cuál es la probabilidad de que un policristal se deforme 0.5μm durante un tiempo cualquiera?, y esto se explica por la difusión y transferencia de calor ya que el calor debe penetrar a travez de la estructura del policristal y en ese transcurso asía el interior de la estructura ocurrirán deformaciones.

También se puede hallar la probabilidad de que se registre distinto número de deformaciones en las mismas 5.76 horas.

f ( x )=P ( X=x )={ λx e− λ

x !0en otro caso

x=0,1,2 , … .. ,

El lambda λ=0.5

Calculando con la función de densidad se halla la siguiente tabla para el caso en x vale de 0𝞵m de deformación hasta 10𝞵m de deformación: entonces X=1,2,3,4,5,6,7,8,9,10.

x P(x)=f(x) P(x)0 0.50 e−0.5

0 !0.6065

1 0.51 e−0.5

1 !0.3033

2 0.52 e−0.5

2 !0.0758

3 0.53 e−0.5

3 !0.0126

4 0.54 e−0.5

4 !0.0016

5 0.55 e−0.5

5 !0.0002

6 0.56 e−0.5

6 !1.3163E-5

7 0.57 e−0.5

7 !9.4018E-7

8 0.58 e−0.5

8 !5.7861E-8

9 0.59 e−0.5

9 !3.2664E-9

Page 12: Trabajo final de probabilidad y estadística.docx

10 0.510 e−0.5

10 !1.6323E-10

Suma 1.0000Tabla 4. Probabilidades puntuales para la deformación de policristales

Ahora se procede a calcular lo anterior en el código de R:

Observando la tabla anterior se puede concluir que los datos calculados con la función y los calculados con el programa R son muy parecidos con la diferencia en que en R el cálculo se hace de inmediato.

Alternativa: Si se da la probabilidad de tener, de manera exacta, (y)  ocurrencias en un intervalo (t) veces mayor o menor que el de referencia en la medición entonces la distribución de probabilidades de Y número de éxitos en la nueva unidad de referencia viene dada por:

Código R Análisis de resultados> dpois(0,0.5) La probabilidad de que un policristal se deforme 0𝞵m a

1650°C y 90MPa es del 60.6531%[1] 0.6065307> dpois(1,0.5) La probabilidad de que un policristal se deforme 1𝞵m a

1650°C y 90MPa es del 30.3265%[1] 0.3032653> dpois(2,0.5) La probabilidad de que un policristal se deforme 2𝞵m a

1650°C y 90MPa es del 7.5816%[1] 0.07581633> dpois(3,0.5) La probabilidad de que un policristal se deforme 3𝞵m a

1650°C y 90MPa es del 1.2636%[1] 0.01263606> dpois(4,0.5) La probabilidad de que un policristal se deforme 4𝞵m a

1650°C y 90MPa es del 0.157951% (P—baja)[1] 0.001579507> dpois(5,0.5) La probabilidad de que un policristal se deforme 5𝞵m a

1650°C y 90MPa es del 0.0157951% ( P—muy baja) [1] 0.0001579507> dpois(6,0.5) La probabilidad de que un policristal se deforme 6𝞵m a

1650°C y 90MPa es del 0.00131625% (P—muy baja)[1] 1.316256e-05> dpois(7,0.5) La probabilidad de que un policristal se deforme 7𝞵m a

1650°C y 90MPa es del 9.401827e-05% (P—muy baja)[1] 9.401827e-07> dpois(8,0.5) La probabilidad de que un policristal se deforme 8𝞵m a

1650°C y 90MPa es del 5.876142e-06 % (P—muy baja)[1] 5.876142e-08> dpois(9,0.5) La probabilidad de que un policristal se deforme 9𝞵m a

1650°C y 90MPa es del 3.264523e-07% (P—muy baja)[1] 3.264523e-09> dpois(10,0.5) La probabilidad de que un policristal se deforme 10𝞵m a

1650°C y 90MPa es del 1.632262e-08% (P—muy baja)[1] 1.632262e-10 Tabla 5. Análisis Probabilidades puntuales para la deformación de policristales

Page 13: Trabajo final de probabilidad y estadística.docx

f ( y )= λt y e−λt

y !

Donde λ Promedio de ocurrencias por intervalo ó unidad de medida considerada en X y t= Número de intervalos ó unidades de medida especificados donde u (y)=λt.

También se puede proceder a trabajar y hallar sus correspondientes probabilidades variando el tiempo (con esto también se varia el lambda) para saber el porcentaje de deformación de policristales en el proceso (recuerde que el promedio de deformaciones es de 5𝞵m).

Ahora se toma varios intervalos de tiempo (1, 2, 3, 4, y 5 horas), con lo cual quedara mejor ilustrado mi ejemplo y se observara como van evolucionando las deformaciones a diferentes lambdas.

y= variable aleatoria que indica el promedio de deformación a 2, 3, 4, 5 y 6 horas a las condiciones elegidas en nuestro proceso de deformación de policristales. Hallar la probabilidad de que en los tiempos dados se deforme entre 0.5𝞵m y 1𝞵m.

Entonces λt1=0.5*1=0.5; λt2=0.5*2=1; λt3=0.5*3=1.5; λt4=0.5*4=2; λt5=0.5*5=2.5; λt5=0.5*6=3.

Reemplazo los λ calculados anteriormente en el código de R menos para el primero ya que el lambda no varía la probabilidad queda de la siguiente forma:

P (0.5<=y<=1) = p (y<=1) - p (y<=0) esto lo pasamos al código de R:

Codigo Análisis de resultados> a<-ppois(0,1);a La probabilidad de que los policristales se

deformen entre 0.5𝞵m y 1𝞵m en 2 horas es del 36.7879 %.

[1] 0.3678794> a1<-ppois(1,1);a1[1] 0.7357589> a2<-(a1-a);a2[1] 0.3678794> La probabilidad de que los policristales se

deformen entre 0.5𝞵m y 1𝞵m en 3 horas es del 55.7825 %.

> b<-ppois(0,1.5);b[1] 0.2231302> b1<-ppois(1,1.5);b1[1] 0.5578254> b2<-(b1-b);b2[1] 0.3346952> La probabilidad de que los policristales se

deformen entre 0.5𝞵m y 1𝞵m en 4 horas es del 27.0671%.

> c<-ppois(0,2);c[1] 0.1353353

Page 14: Trabajo final de probabilidad y estadística.docx

> c1<-ppois(1,2);c1[1] 0.4060058> c2<-(c1-c);c2[1] 0.2706706> La probabilidad de que los policristales se

deformen entre 0.5𝞵m y 1𝞵m en 5 horas es del 20.5212 %.

> d<-ppois(0,2.5);d[1] 0.082085> d1<-ppois(1,2.5);d1[1] 0.2872975> d2<-(d1-d);d2[1] 0.2052125> La probabilidad de que los policristales se

deformen entre 0.5𝞵m y 1𝞵m en 6 horas es del 14.9361 %.

> e<-ppois(0,3);e[1] 0.04978707> e1<-ppois(1,3);e1[1] 0.1991483> e2<-(e1-e);e2[1] 0.1493612Tabla 6. Análisis de las probabilidades de deformación a diferentes tiempos con un intervalo de deformación de 0.5𝞵m-1𝞵m de policristales

MODELO DE REGRESION CON 3 VARIABLES INDEPENDIENTES X1, X2 y X3.

Para este análisis se busco una referencia bibliográfica en la base de datos science direct y se eligió el artículo: H2 production by sorption enhanced steam reforming ofbiomass-derived bio-oil in a fluidized bed reactor: An assessment ofthe effect of operation variables using response surface methodology. Para poder construir mi base de datos. La siguiente tabla fue extraída de dicho artículo.

Tabla 7. Datos experimentales del rendimiento de H2.

Page 15: Trabajo final de probabilidad y estadística.docx

Ahora se procede al análisis de nuestro problema de estudio y de las variables que intervienen y la posterior explicación del modelo de regresión lineal al cual ajustamos dichas variables.

los datos de la tabla 7 son los datos obtenidos de la Producción de H2 (en términos de su rendimiento) por absorción mejorada de reformado con vapor, de la biomasa derivada de bio-aceite en un reactor de lecho fluidizado: Una evaluación del efecto de las variables de operación utilizando la metodología de superficie de respuesta. Ahora se procede a definir mi variable dependiente y las tres variables independientes. Se arranca nuestro ejercicio con 3 variables independientes para ver cuál de todas o si todas ajustan el rendimiento, todo enfocado a cumplir los objetivos propuestos al inicio del trabajo.

Variable dependiente:

Y= Rendimiento H2 (%)

Variables independientes:

X1= Selectividad H2 (%)

X2= Pureza H2 (vol. %)

X3=Temperatura (°C)

Ahora se procede a resolver el modelo en R con 10 observaciones para cada variable:

Datos de entrada en R:

> Y<-c(65.5, 92.48, 74.17, 94.71, 51.86, 86.37, 64.28, 88.33, 85.35, 22.48)

> X1<-c(90.22, 98.77, 95.05, 99.75, 77.74, 98.56, 86.4, 99.8, 98.82, 73.26)

> X2<-c(94.72, 96.53, 97.28, 96.55, 87.35, 96.25, 92.29, 96.42, 98.94, 81.44)

> X3<-c(516, 634, 516, 634, 516, 634, 516, 634, 575, 475)

Los datos se visualizan en el siguiente data.frame:

>datos<-data.frame(Y,X1,X2,X3);datos

Y X1 X2 X31 65.50 90.22 94.72 5162 92.48 98.77 96.53 6343 74.17 95.05 97.28 5164 94.71 99.75 96.55 6345 51.86 77.74 87.35 5166 86.37 98.56 96.25 634

Page 16: Trabajo final de probabilidad y estadística.docx

7 64.28 86.40 92.29 5168 88.33 99.80 96.42 6349 85.35 98.82 98.94 57510 22.48 73.26 81.44 475Tabla 8. Base de datos

> pairs(datos,main="Rendimiento H2 (% )")# matriz de gráficos bidimensionales.

Y

75 85 95 500 600

2060

7585

95

X1

X2

8595

20 60

500

600

85 95

X3

Rendimiento H2 (% )

Grafica 7. Matriz de gráficos bidimensionales.

En la grafica 7 se puede observar un comportamiento bastante lineal en la base de datos que se ha construido, se podría decir que casi todas se pueden explicar con el modelo lineal.

MATRIZ DE CORRELACION: correlación de orden cero (correlación simple:marginal)

> R<-cor(datos);R

Y X1 X2 X3Y 1.0000000 0.9663441 0.9313163 0.8702770X1 0.9663441 1.0000000 0.9526421 0.8302457X2 0.9313163 0.9526421 1.0000000 0.6625810X3 0.8702770 0.8302457 0.6625810 1.0000000Tabla 9. Matriz de correlación de orden cero

Page 17: Trabajo final de probabilidad y estadística.docx

La matriz de correlación R es una matriz cuadrada n X n constituida por los coeficientes de correlación de cada pareja de variables; de manera que tendrá unos en su diagonal principal, y en los elementos no diagonales (i,j) los correspondientes coeficientes de correlación rij . La matriz de correlación será, obviamente, simétrica, y conservará las propiedades de ser definida-positiva y tener un determinante no negativo.

El ajuste de la regresión lineal se puede hacer por a) MRLS, Y b) MRLM: a continuación presentare 2 ejemplos (1 es al azar y el otro con todas las variables ya que como se verá más adelante es el modelo que mejor ajusta los datos); del primero para observar que dan iguales y el resto lo hago con MRLM incluido el caso no lineal con logaritmos ya que en lo personal me parece más sencillo el código.

a. MRLS:

> (ajuste1<-lm(datos[,1]~datos[,2]))

> summary(ajuste1)

Call:

lm(formula = datos[, 1] ~ datos[, 2])

Residuals:

Min 1Q Median 3Q Max -8.655 -3.279 -1.574 4.314 10.737 Tabla 10. Resumen del rendimiento de H2 (%) ~pureza H2 (vol. %)

Coeficientes:

Estimate Std. Error t value Pr(>|t|) (Intercept) -132.1996 19.3687 -6.825 0.000134 ***datos[, 2] 2.2295 0.2098 10.625 5.39e-06 ***Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘’ 1Residual standard error: 6.134 on 8 degrees of freedom Multiple R-squared: 0.9338, Adjusted R-squared: 0.9255 F-statistic: 112.9 on 1 and 8 DF, p-value: 5.39e-06Tabla 11. Modelo: rendimiento de H2 (%) ~pureza H2 (vol. %)

El modelo generado es: Y= -132.1996 + 2.2295X1

Inferencia en el modelo de regresión simple:

Page 18: Trabajo final de probabilidad y estadística.docx

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores son 19.3687 y 0.2098 respectivamente.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.9338 que está muy cercano a 1 por lo que los valores se ajustan relativamente bien.

> Yest1<-ajuste1$fitted.values # obtener los valores ajustados (estimados) por el modelo

> Error1<- ajuste1$residuals # generar los valores de los errores

> cbind(datos[,1],Yest1,Error1)

originales Yest1 Error11 65.50 68.94786 -3.4478622 92.48 88.01028 4.4697213 74.17 79.71646 -5.5464554 94.71 90.19521 4.5147895 51.86 41.12342 10.7365776 86.37 87.54208 -1.1720797 64.28 60.43109 3.8489138 88.33 90.30669 -1.9766879 85.35 88.12175 -2.77175510 22.48 31.13516 -8.655162

Tabla 12. Valores estimados del rendimiento de H2 (%)

> mean(Error1) #verificación de la suma cero

[1] 2.203099e-17 #se puede concluir que es cero

Ahora se procede a verificar el modelo con todos los datos en R:

> datos1<-as.data.frame(datos)

> (ajuste2.lm<-lm(datos[,1]~datos[,2]+datos[,3]+datos[,4]))

> summary(ajuste2.lm)

Call:

Page 19: Trabajo final de probabilidad y estadística.docx

lm(formula = datos[, 1] ~ datos[, 2] + datos[, 3] + datos[, 4])

Residuals:

Min 1Q Median 3Q Max -3.8386 -1.7701 -0.2681 1.6199 4.6214 Tabla 13. Resumen del rendimiento de H2 (%) ~Selectividad (%)+pureza H2 (Vol. %)+Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|)(Intercept) -330.73119 47.41835 -6.975 0.000432 ***datos[, 2] -1.13045 0.72982 -1.549 0.172368datos[, 3] 4.08418 0.97726 4.179 0.005818 ** datos[, 4] 0.21964 0.04512 4.868 0.002800 **Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 3.153 on 6 degrees of freedomMultiple R-squared: 0.9869, Adjusted R-squared: 0.9803 F-statistic: 150.5 on 3 and 6 DF, p-value: 4.915e-06Tabla 14.Modelo: rendimiento de H2 (%) ~Selectividad H2 (%)+pureza H2(Vol.%)+Temperatura(°C)

El modelo generado es: Y= -330.7312 – 1.13045X1+ 4.0842X2 + 0.2196X3

Inferencia en el modelo de regresión simple:

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores se visualizan en la tabla 14.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.9869 que está muy cercano a 1 por lo que los valores se ajustan bien (este es el modelo que a pesar de involucrar todas las variables tiene un R mayor que el resto de los modelos).

Page 20: Trabajo final de probabilidad y estadística.docx

> Yest2<-ajuste2.lm$fitted.values # obtener los valores ajustados (estimados) por el modelo.

> Error2<- ajuste2.lm$residuals # generar los valores de los errores

> sum(Error2)

[1] 3.885781e-16

> cbind(datos[,1],Yest2,Error2)

originales Yest2 Error21 65.50 67.46975 -1.96975292 92.48 91.11479 1.36520973 74.17 72.46517 1.70482504 94.71 90.08863 4.62137035 51.86 51.47737 0.38262746 86.37 90.20861 -3.83861397 64.28 61.86352 2.41648318 88.33 89.50116 -1.17116319 85.35 87.94213 -2.592131710 22.48 23.39885 -0.9188540Tabla 15. Valores estimados del rendimiento de H2 (%)

De la tabla 15 se puede inferir que al generar con el modelo los nuevos datos del rendimiento de H2 estos no están tan lejanos de los datos originales por lo que es una muy buena aproximación de los datos reales.

> mean(Error2)

[1] 3.887407e-17 # se puede decir que el error es cero.

Ahora se hará un análisis de todas las variables involucradas con la opción b) MRLM:

> Y1<-lm(Y~X1);summary(Y1)

Call:

lm(formula = Y ~ X1)

Residuals:

Page 21: Trabajo final de probabilidad y estadística.docx

Min 1Q Median 3Q Max -8.655 -3.279 -1.574 4.314 10.737 Tabla 16. Resumen del rendimiento de H2 (%) ~Selectividad H2 (%)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept)

-132.1996 19.3687 -6.825 0.000134 ***

X1 2.2295 0.2098 10.625 5.39e-06 ***Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 6.134 on 8 degrees of freedomMultiple R-squared: 0.9338, Adjusted R-squared: 0.9255 F-statistic: 112.9 on 1 and 8 DF, p-value: 5.39e-06Tabla 17.Modelo: rendimiento de H2 (%) ~Selectividad H2 (%)

El modelo generado es: Y= -132.1996 – 2.2295 Nota: este modelo ya había sido hecho previamente con una variación del código y se puede observar en la tabla 11, por lo que no se volverá a repetir el análisis.

> Y2<-lm(Y~X2);summary(Y2)

Call:

lm(formula = Y ~ X2)

Residuals:

Min 1Q Median 3Q Max -11.9261 -6.0040 0.8892 5.2331 11.4362 Tabla 18. Resumen del rendimiento de H2 (%) ~+pureza H2(Vol.%)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -290.0031 50.2039 -5.777 0.000416 ***X2 3.8662 0.5346 7.233 8.96e-05 ***Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 8.684 on 8 degrees of freedom

Page 22: Trabajo final de probabilidad y estadística.docx

Multiple R-squared: 0.8674, Adjusted R-squared: 0.8508 F-statistic: 52.31 on 1 and 8 DF, p-value: 8.957e-05Tabla 19.Modelo: rendimiento de H2 (%) ~+pureza H2 (Vol.%)

Y= -290.0031+ 3.8662X2

Inferencia en el modelo de regresión simple:

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores se visualizan en la tabla 19.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.8674 que es cercano a 1 por lo que los valores todavía se ajustan relativamente bien.

> Y3<-lm(Y~X3);summary(Y3)

Call:

lm(formula = Y ~ X3)

Residuals:

Min 1Q Median 3Q Max -22.5561 -5.6135 -0.0543 7.6234 16.5984 Tabla 20. Resumen del rendimiento de H2(%) ~Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -100.19182 34.76611 -2.882 0.02045 * X3 0.30574 0.06118 4.997 0.00106 **Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 11.74 on 8 degrees of freedomMultiple R-squared: 0.7574, Adjusted R-squared: 0.7271 F-statistic: 24.97 on 1 and 8 DF, p-value: 0.001056Tabla 21.Modelo: rendimiento de H2(%) ~Temperatura(°C)

Page 23: Trabajo final de probabilidad y estadística.docx

Y= -100.1918+ 0.3057X3

Inferencia en el modelo de regresión simple:

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores se visualizan en la tabla 21.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.7574 este valor no es muy cercano a 1 pero los valores todavía se ajustan relativamente bien.

> Y4<-lm(Y~X1+X2);summary(Y4)

Call:

lm(formula = Y ~ X1 + X2)

Residuals:

Min 1Q Median 3Q Max -7.4496 -4.1058 -0.9335 4.4786 10.2369 Tabla 22. Resumen del rendimiento de H2 (%) ~Selectividad H2 (%)+pureza H2(Vol.%)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -153.9622 62.8105 -2.451 0.0440 *X1 1.9743 0.7307 2.702 0.0306 *X2 0.4820 1.3148 0.367 0.7248 Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 6.495 on 7 degrees of freedomMultiple R-squared: 0.9351, Adjusted R-squared: 0.9165 F-statistic: 50.4 on 2 and 7 DF, p-value: 6.976e-05Tabla 23.Modelo: rendimiento de H2 (%) ~Selectividad H2 (%)+pureza H2 (Vol.%)

Page 24: Trabajo final de probabilidad y estadística.docx

Y= -153.9622+ 1.9743X1+ 0.4820X2

Inferencia en el modelo de regresión simple:

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores se visualizan en la tabla 23.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.9351 este valor es cercano a 1 los valores se ajustan relativamente bien al modelo lineal.

> Y5<-lm(Y~X1+X3);summary(Y5)

Call:

lm(formula = Y ~ X1 + X3)

Residuals:

Min 1Q Median 3Q Max -9.5229 -2.8970 -0.3965 2.4136 8.5950 Tabla 24. Resumen del rendimiento de H2(%) ~Selectividad H2 (%)+Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -137.13942 18.55862 -7.390 0.000151 ***X1 1.81044 0.35437 5.109 0.001386 ** X3 0.07686 0.05396 1.424 0.197344 Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 5.774 on 7 degrees of freedomMultiple R-squared: 0.9487, Adjusted R-squared: 0.934 F-statistic: 64.72 on 2 and 7 DF, p-value: 3.059e-05Tabla 25.Modelo: rendimiento de H2(%) ~Selectividad H2 (%)+Temperatura(°C)

Y= -137.1394+ 1.8104X1+ 0.07686X2

Page 25: Trabajo final de probabilidad y estadística.docx

Inferencia en el modelo de regresión simple:

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores se visualizan en la tabla 25.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.9487 este valor es cercano a 1 los valores se ajustan relativamente bien al modelo lineal.

> Y6<-lm(Y~X2+X3);summary(Y6)

Call:

lm(formula = Y ~ X2 + X3)

Residuals:

Min 1Q Median 3Q Max -3.6151 -2.2802 -0.7828 2.989

83.9456

Tabla 26. Resumen del rendimiento de H2 (%) ~pureza H2 (Vol. %)+Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -263.17230 20.37920 -12.914 3.88e-06 ***X2 2.62467 0.28389 9.245 3.58e-05 ***X3 0.15857 0.02403 6.600 0.000304 ***Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 3.454 on 7 degrees of freedomMultiple R-squared: 0.9816, Adjusted R-squared: 0.9764 F-statistic: 187.1 on 2 and 7 DF, p-value: 8.393e-07Tabla 27.Modelo: rendimiento de H2 (%) ~pureza H2(Vol.%)+Temperatura(°C)

Y= -263.1723+ 2.6247X2+ 0.1586X3

Inferencia en el modelo de regresión simple:

Page 26: Trabajo final de probabilidad y estadística.docx

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores se visualizan en la tabla 27.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.9816 este valor es cercano a 1 los valores se ajustan relativamente bien al modelo lineal.

> Y7<-lm(Y~X1+X2+X3);summary(Y7)

Call:

lm(formula = Y ~ X1 + X2 + X3)

Residuals:

Min 1Q Median 3Q Max -3.8386 -1.7701 -0.2681 1.6199 4.6214 Tabla 28. Resumen del rendimiento de H2 (%) ~Selectividad H2 (%)+pureza H2(Vol.%)+Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -330.73119 47.41835 -6.975 0.000432 ***X1 -1.13045 0.72982 -1.549 0.172368 X2 4.08418 0.97726 4.179 0.005818 ** X3 0.21964 0.04512 4.868 0.002800 ** Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 3.153 on 6 degrees of freedomMultiple R-squared: 0.9869, Adjusted R-squared: 0.9803 F-statistic: 150.5 on 3 and 6 DF, p-value: 4.915e-06Tabla 29.Modelo: rendimiento de H2 (%) ~Selectividad H2 (%)+pureza H2 (Vol.%)+Temperatura(°C)

El modelo generado es: Y= -330.7312 – 1.13045X1+ 4.0842X2 + 0.2196X3 Nota: no repito el análisis ya que esta hecho en la tabla 14. (Se puede concluir que este es el modelo que mejor ajusta los datos teniendo en cuenta que se tienen 3 variables independientes).

Page 27: Trabajo final de probabilidad y estadística.docx

Ahora se hace un análisis con regresión no lineal aplicando log para cumplir con el objetivo específico 3.1:

> Y8<-lm(log(Y)~log(X1));summary(Y8)

Call:

lm(formula = log(Y) ~ log(X1))

Residuals:

Min 1Q Median 3Q Max -0.31127 -0.05465 -0.01217 0.02477 0.31102 Tabla 30. Resumen del log rendimiento de H2 (%) ~log Selectividad H2 (%)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -12.0316 2.2563 -5.332 7e-04 ***log(X1) 3.5993 0.4996 7.204 9.21e-05 ***Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 0.1681 on 8 degrees of freedomMultiple R-squared: 0.8664, Adjusted R-squared: 0.8497 F-statistic: 51.89 on 1 and 8 DF, p-value: 9.211e-05Tabla 31.Modelo: log rendimiento de H2 (%) ~log Selectividad H2 (%)

Para el caso de log se puede observar que el R-cuadrado baja con respecto al modelo que hizo previamente a los datos de la base sin ningún tipo de tratamiento previo para hallar el modelo, este comportamiento también se repite para el resto de los datos, cabe resaltar que los p-valores son bajos Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Los modelos que se obtienen a continuación como ya se había mencionado presentan la misma tendencia que el modelo de la tabla 31(salvo unas excepciones). Y se observaran a continuación.

> Y9<-lm(log(Y)~log(X2));summary(Y9)

Call:

lm(formula = log(Y) ~ log(X2))

Residuals:

Page 28: Trabajo final de probabilidad y estadística.docx

Min 1Q Median 3Q Max -0.17322 -0.14023 0.04800 0.09086 0.20592 Tabla 32. Resumen del log rendimiento de H2 (%) ~log pureza H2 (vol. %)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -26.8519 3.5993 -7.460 7.19e-05 ***log(X2) 6.8445 0.7929 8.633 2.51e-05 ***Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 0.1432 on 8 degrees of freedomMultiple R-squared: 0.9031, Adjusted R-squared: 0.8909 F-statistic: 74.53 on 1 and 8 DF, p-value: 2.515e-05Tabla 33.Modelo: log rendimiento de H2 (%) ~log pureza H2 (vol. %)

Log*(Y= -26.8519+ 6.8445X2) este modelo ajusta mejor los datos involucrados que el modelo que se observa en la tabla 19.

Inferencia en el modelo de regresión simple:

Los errores típicos de los estimadores de los parámetros beta0 y beta1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores se visualizan en la tabla 33.

La columna t value contiene el estadístico t, es decir, cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes (H0: beta0 = 0) y (H0:beta1 = 0). Los correspondientes p-valores aparecen en la columna Pr (>|t|). En este caso son muy pequeños por lo que se rechazan ambas hipótesis para los niveles de significación habituales. Por lo que los Bj son diferentes de cero y los Xj deben ir en el modelo. Con un R-Cuadrado de 0.9031 que es cercano a 1 por lo que los valores todavía se ajustan relativamente bien.

> Y10<-lm(log(Y)~log(X3));summary(Y10)

Call:

lm(formula = log(Y) ~ log(X3))

Residuals:

Page 29: Trabajo final de probabilidad y estadística.docx

Min 1Q Median 3Q Max -0.59597 -0.09251 -0.02281 0.19205 0.34644 Tabla 34. Resumen del log rendimiento de H2 (%)~log Temperatura(°C)

Coefficients:

Estimate

Std. Error t value Pr(>|t|)

(Intercept) -15.0006 5.1832 -2.894 0.02007 * log(X3) 3.0356 0.8186 3.708 0.00597 **Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 0.2789 on 8 degrees of freedomMultiple R-squared: 0.6322, Adjusted R-squared: 0.5862 F-statistic: 13.75 on 1 and 8 DF, p-value: 0.005971Tabla 35.Modelo:log rendimiento de H2 (%)~log Temperatura(°C)

El modelo que se visualiza en la tabla 35, no es mejor modelo que el que se encuentra en la tabla 21. Por lo que me quedo con el análisis de la tabla 21.

> Y11<-lm(log(Y)~log(X1)+log(X2));summary(Y11)

Call:

lm(formula = log(Y) ~ log(X1) + log(X2))

Residuals:

Min 1Q Median 3Q Max -0.17729 -0.11856 0.02764 0.07664 0.24076 Tabla 36. Resumen del log rendimiento de H2 (%) ~log selectividad H2 (%)+log pureza H2(Vol.%)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -23.4847 6.7699 -3.469 0.0104 *log(X1) 0.9368 1.5674 0.598 0.5689 log(X2) 5.1711 2.9196 1.771 0.1198 Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 0.1493 on 7 degrees of freedomMultiple R-squared: 0.9078, Adjusted R-squared: 0.8814

Page 30: Trabajo final de probabilidad y estadística.docx

F-statistic: 34.45 on 2 and 7 DF, p-value: 0.0002383Tabla 37.Modelo:log rendimiento de H2 (%) ~log selectividad H2 (vol. %)+log pureza H2 (Vol.%)

El modelo que se visualiza en la tabla 37, no es mejor modelo que el que se encuentra en la tabla 23. Por lo que me quedo con el análisis de la tabla 23.

> Y12<-lm(log(Y)~log(X1)+log(X3));summary(Y12)

Call:

lm(formula = log(Y) ~ log(X1) + log(X3))

Residuals:

Min 1Q Median 3Q Max -0.31633 -0.04774 -0.00897 0.02572 0.29631 Tabla 38. Resumen del log rendimiento de H2 (%) ~log selectividad H2 (%)+log Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -12.7750 3.3752 -3.785 0.00685 **log(X1) 3.3541 0.9470 3.542 0.00945 **log(X3) 0.2923 0.9350 0.313 0.76369 Signif. Codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 0.1785 on 7 degrees of freedomMultiple R-squared: 0.8683, Adjusted R-squared: 0.8306 F-statistic: 23.07 on 2 and 7 DF, p-value: 0.0008297Tabla 39.Modelo: log rendimiento de H2 (%) ~log selectividad H2 (%)+log Temperatura(°C)

El modelo que se visualiza en la tabla 39, no es mejor modelo que el que se encuentra en la tabla 25. Por lo que me quedo con el análisis de la tabla 25.

> Y13<-lm(log(Y)~log(X2)+log(X3));summary(Y13)

Call:

lm(formula = log(Y) ~ log(X2) + log(X3))

Page 31: Trabajo final de probabilidad y estadística.docx

Residuals:

Min 1Q Median 3Q Max -0.16244

-0.03676 -0.01765 0.03098 0.20151

Tabla 40. Resumen del log rendimiento de H2 (%) ~log pureza H2 (Vol.%)+log Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -27.3845 2.9301 -9.346 3.34e-05 ***log(X2) 5.4891 0.8779 6.253 0.000423 ***log(X3) 1.0560 0.4653 2.269 0.057542 Signif. Codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 0.1162 on 7 degrees of freedomMultiple R-squared: 0.9441, Adjusted R-squared: 0.9282 F-statistic: 59.16 on 2 and 7 DF, p-value: 4.118e-05Tabla 41.Modelo: log rendimiento de H2 (%) ~log pureza H2 (Vol. %)+log Temperatura(°C)

El modelo que se visualiza en la tabla 41, no es mejor modelo que el que se encuentra en la tabla 27. Por lo que me quedo con el análisis de la tabla 27.

> Y14<-lm(log(Y)~log(X1)+log(X2)+log(X3));summary(Y14)

Call:

lm(formula = log(Y) ~ log(X1) + log(X2) + log(X3))

Residuals:

Min 1Q Median 3Q Max -0.120893 -0.031666 0.004532 0.036873 0.072390 Tabla 42. Resumen del log rendimiento de H2 (%) ~log selectividad H2 (%)+log pureza H2 (Vol. %)+log Temperatura(°C)

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -46.1663 5.6036 -8.239 0.000173 ***log(X1) -4.9984 1.4121 -3.540 0.012225 *

Page 32: Trabajo final de probabilidad y estadística.docx

log(X2) 12.3440 2.0104 6.140 0.000854 ***log(X3) 2.6719 0.5387 4.960 0.002553 **Signif. Codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 0.07142 on 6 degrees of freedomMultiple R-squared: 0.9819, Adjusted R-squared: 0.9729 F-statistic: 108.6 on 3 and 6 DF, p-value: 1.285e-05Tabla 43.Modelo: log rendimiento de H2 (%) ~log selectividad H2 (%)+log pureza H2 (Vol. %)+log Temperatura(°C)

El modelo que se visualiza en la tabla 43, no es mejor modelo que el que se encuentra en la tabla 29. Por lo que me quedo con el análisis de la tabla 29.

CONCLUSIONES

Muchas cosas se pueden modelar con la distribución exponencial, y más cuando los datos que son objeto de estudio representan muy bien la forma de dicha distribución para el caso de estudio con Clostridium cellulovorans, el comportamiento cuando este va consumiendo como sustratos los materiales celulósicos, para dar lugar a la formación de nuevos productos. Se encontró que el tiempo para degradar estos materiales es de 91 horas, lo que nos hace pensar que este tipo de microorganismos mantienen una tasa metabólica ya sea que se utilice como sustrato celulosa o glucosa y esto es debido a la capacidad enzimática que toda bacteria tiene para de esta forma obtener la energía necesaria para la obtención de biomasa y para la producción de analitos de interés que son utilizados por el hombre como es el caso de ácidos y alcoholes (comúnmente etanol o butanol). Entonces con la distribución exponencial se puede saber con exactitud la probabilidad de consumo de sustrato para nuestro caso, claro que también se puede modelar otras variables del proceso ya que por lo regular siguen una distribución exponencial como un caso particular hablemos por ejemplo de la producción de biomasa del microorganismo ya que esta biomasa también sigue una distribución exponencial por lo que también se podría saber con exactitud la probabilidad de producir biomasa en un determinado momento.

La distribución de poisson tiene un valor especial y es que al conocer el promedio de un evento en un intervalo de tiempo determinado como puede ser el caso de la deformación de un policristal a condiciones de presión y temperatura dadas. Se puede encontrar la probabilidad de que ocurra dicho evento en un tiempo cualquiera siguiendo las condiciones iniciales del problema, ya que si nos remontamos al caso de estudio el intervalo de tiempo varia con respecto a la presión para cada temperatura dada (1450 °C, 1550°C y 1650°C), por lo que la probabilidad de que ocurra el mismo evento a temperaturas distintas al mismo intervalo de tiempo es muy bajo, pero afortunadamente el histograma de deformaciones sigue un comportamiento de poisson, por lo que dicho modelo explica muy bien la probabilidad de deformación de policristales para el caso particular al cual las observaciones fueron tomadas.

Page 33: Trabajo final de probabilidad y estadística.docx

El modelo que mejor representa los datos es el presentado en la tabla 14 ya que el R-cuadrado como se ha comentado antes es el mayor de todos por lo que ajusta mejor los datos a la regresión lineal que los demás modelos, también cabe resaltar que los valores estimados de la tabla 15 son muy cercanos a los valores que teníamos en un principio en nuestra base de datos, cabe resaltar que cuando se hace el análisis con log al modelo en algunos casos mejora un poco la correlación, pero nunca fue superior al modelo presentado en la tabla 14. Por lo que el tratamiento de los datos con log en este caso no es necesario, ya que los datos se ajustan bien sin ningún tipo de transformación adicional.

Finalmente la estadística con distribuciones y modelos de regresión ayudan a estructurar mejor el análisis de los procesos y eventos en la ingeniería no solo en la química si no en todas las disciplinas en donde se relacione la observación de lo que esta sucediendo.

Bibliografía

1- Xiaorui Yang, Mengmeng Xu, Shang-Tian Yang n. Metabolic and process engineering of Clostridium cellulovorans for biofuel production from cellulose. Department of Chemical and Biomolecular Engineering and Department of Molecular Genetics, The Ohio State University, 151 West Woodruff Avenue, Columbus, OH 43210, USA. Metabolic Engineering 32 (2015) 39–48.

2- María V. Gila,b, Javier Fermosoc, Fernando Rubieraa, De Chenb,∗. H2production by sorption enhanced steam reforming ofbiomass-derived bio-oil in a fluidized bed reactor: An assessment ofthe effect of operation variables using response surface methodology. -a). Instituto Nacional del Carbón, INCAR-CSIC, Apartado 73, 33080 Oviedo, Spain; b).Department of Chemical Engineering, Norwegian University of Science and Technology, Sem Sælands vei 4, Trondheim NO-7491, Norway; c).IMDEA Energy Institute, Thermochemical Processes Unit, Avenida Ramón de la Sagra 3, 28935 Móstoles, Spain. Catalysis Today 242 (2015) 19–34.

Web-grafía

3- Araya alpizar carlomangno. Estadistica para laboratorista químico. Recuperado de:https://books.google.com.co/books?id=IibtfIBQLMoC&pg=PA54&lpg=PA54&dq=como+aplicar+la+distribuci%C3%B3n+de+poisson+en+quimica&source=bl&ots=gl8sf0ArE&sig=VHq2arhdScbfi8aYLLqXhl4_eZM&hl=es&sa=X&ved=0ahUKEwiyjrv_9bPJAhWCKiYKHTmzDMEQ6AEIJDAB#v=onepage&q=como%20aplicar%20la%20distribuci%C3%B3n%20de%20poisson%20en%20quimica&f=false