Apuntes sobre Control de la Calidad y...

277
Apuntes sobre Control de la Calidad y Fiabilidad Salvador Naya Fernández Febrero 2012

Transcript of Apuntes sobre Control de la Calidad y...

Page 1: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Apuntes sobre Control de la Calidad y

Fiabilidad

Salvador Naya Fernández

Febrero 2012

Page 2: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

ii

Page 3: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Índice general

1. Introducción al control de la calidad. 1

1.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2. Definiciones básicas de calidad . . . . . . . . . . . . . . . . . . . 2

1.2.1. Tipos de control . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.2. Control estadístico y control ingenieril de Procesos . . . 4

1.2.3. Proceso bajo control . . . . . . . . . . . . . . . . . . . . 5

1.2.4. Control ingenieril de procesos . . . . . . . . . . . . . . . 7

1.2.5. Introducción a la fiabilidad . . . . . . . . . . . . . . . . . 8

1.3. Breve reseña histórica . . . . . . . . . . . . . . . . . . . . . . . 10

1.3.1. Antecedentes al control de la calidad . . . . . . . . . . . 10

1.3.2. Nacen los diagramas de control . . . . . . . . . . . . . . 11

1.3.3. Se aplican planes de muestreo (control de aceptación) . . 12

1.3.4. Aparecen los departamentos de control de calidad . . . . 13

1.3.5. La expansión del control de calidad en y desde Japón . . 14

1.3.6. Control de la calidad total (TQC) . . . . . . . . . . . . . 15

1.3.7. La normalización en el control de calidad . . . . . . . . . 16

1.3.8. Aparece la fiabilidad . . . . . . . . . . . . . . . . . . . . 19

1.3.9. La Calidad en Europa . . . . . . . . . . . . . . . . . . . 20

1.3.10. La calidad en España . . . . . . . . . . . . . . . . . . . . 21

1.3.11. Los grandes artífices de la calidad . . . . . . . . . . . . . 23

1.3.12. Hitos históricos . . . . . . . . . . . . . . . . . . . . . . . 28

1.4. Nuevas Metodologías . . . . . . . . . . . . . . . . . . . . . . . . 30

1.4.1. Cuadro de mando y modelos de excelencia . . . . . . . . 30

1.4.2. Metodología Seis sigma . . . . . . . . . . . . . . . . . . . 31

1.4.3. El ciclo DMAIC . . . . . . . . . . . . . . . . . . . . . . . 32

1.4.4. Diseño para Seis Sigma (DFSS) . . . . . . . . . . . . . . 33

1.4.5. Lean y Just-In-Time . . . . . . . . . . . . . . . . . . . . 34

1.4.6. Desafíos actuales. . . . . . . . . . . . . . . . . . . . . . . 35

1.5. Cuestiones y ejercicios . . . . . . . . . . . . . . . . . . . . . . . 36

1.6. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

1.7. Análisis descriptivo de los datos . . . . . . . . . . . . . . . . . . 40

1.8. Principales herramientas del control de calidad . . . . . . . . . . 41

1.8.1. Hojas de datos . . . . . . . . . . . . . . . . . . . . . . . 42

1.8.2. Diagrama de Pareto . . . . . . . . . . . . . . . . . . . . 42

1.8.3. Diagrama causa-efecto o de Ishikawa . . . . . . . . . . . 44

1.8.4. Histograma. . . . . . . . . . . . . . . . . . . . . . . . . . 46

1.8.5. Diagrama de dispersión o correlación . . . . . . . . . . . 47

1.9. Medidas estadísticas . . . . . . . . . . . . . . . . . . . . . . . . 49

ÍNDICE GENERAL iii

Page 4: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1.9.1. Medidas de dispersión . . . . . . . . . . . . . . . . . . . 50

1.10. Gráficos de control. . . . . . . . . . . . . . . . . . . . . . . . . . 53

2. Cómo funcionan los gráficos de control 57

2.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

2.2. Relación con el contraste de hipótesis . . . . . . . . . . . . . . . 60

2.2.1. Errores de tipo I y II o riesgos del vendedor y comprador 60

2.2.2. Subgrupos racionales. Tamaño de muestra y frecuencia

de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . 61

2.3. Tipo de gráficos de Control . . . . . . . . . . . . . . . . . . . . 62

2.4. Intervalos de tolerancia. Calidad y coste. . . . . . . . . . . . . . 63

2.4.1. El concepto de capacidad . . . . . . . . . . . . . . . . . . 65

2.5. Interpretación de los gráficos de control . . . . . . . . . . . . . . 65

3. El control de fabricación por variables 69

3.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3.2. Gráficos de control para variables . . . . . . . . . . . . . . . . . 69

3.2.1. Gráficos de control () . . . . . . . . . . . . . . . . . 71

3.2.2. Gráficos de control ( ) . . . . . . . . . . . . . . . . . . 73

3.2.3. Gráfico de desviaciones típicas . . . . . . . . . . . . . . 74

3.2.4. Gráficos de control (b) . . . . . . . . . . . . . . . . . . 74

3.3. Otros gráficos de control para variables . . . . . . . . . . . . . . 75

3.3.1. Gráficos con valores poblacionales conocidos . . . . . . . 75

3.3.2. Gráficos probabilísticos . . . . . . . . . . . . . . . . . . . 77

3.3.3. Gráficos para medidas individuales . . . . . . . . . . . . 77

3.4. Intervalos de tolerancia. Calidad y coste. . . . . . . . . . . . . . 78

3.5. El concepto de capacidad . . . . . . . . . . . . . . . . . . . . . 80

3.6. Curva característica de operación (Curva OC) . . . . . . . . . . 83

3.7. El ARL para gráficos de variables . . . . . . . . . . . . . . . . . 86

3.8. Ejercicios del tema . . . . . . . . . . . . . . . . . . . . . . . . . 88

3.8.1. Ejercicio 1: . . . . . . . . . . . . . . . . . . . . . . . . . 88

3.8.2. Ejercicio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 88

3.8.3. Ejercicio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 89

3.8.4. Ejercicio 4 . . . . . . . . . . . . . . . . . . . . . . . . . . 90

4. El control de fabricación por atributos. 91

4.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

4.2. Gráficos de atributos tipo p y np . . . . . . . . . . . . . . . . . 92

4.2.1. Gráfico tipo p . . . . . . . . . . . . . . . . . . . . . . . . 92

4.2.2. Gráficos de control np . . . . . . . . . . . . . . . . . . . 94

4.2.3. Curva característica de operación (OC) y curva ARL . . 94

4.3. El control de fabricación por número de defectos. . . . . . . . . 99

4.3.1. Gráficos de control tipo c . . . . . . . . . . . . . . . . . . 100

4.3.2. Gráficos de control tipo u . . . . . . . . . . . . . . . . . 100

4.3.3. Sistemas de demérito . . . . . . . . . . . . . . . . . . . . 101

iv ÍNDICE GENERAL

Page 5: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

4.4. Ejercicios: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

5. Estimación de la capacidad mediante índices 103

5.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5.2. Concepto probabilístico de capacidad . . . . . . . . . . . . . . . 104

5.3. Índices de capacidad . . . . . . . . . . . . . . . . . . . . . . . . 105

5.3.1. Índices generalizados o de cuarta generación . . . . . . . 107

5.3.2. Índices y capacidad del proceso . . . . . . . . . . . . . . 108

5.4. Índices en metrología dimensional . . . . . . . . . . . . . . . . . 109

5.5. Intervalos de confianza y contrastes para la estimación de los

índices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

5.6. Ejercicio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

6. Otros gráficos de control univariantes. 115

6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

6.2. Gráficos de control para medias individuales . . . . . . . . . . . 116

6.3. Gráficos CUSUM . . . . . . . . . . . . . . . . . . . . . . . . . . 119

6.3.1. Construcción del gráfico CUSUM tabular . . . . . . . . . 122

6.3.2. Construcción del gráfico CUSUM con máscara V . . . . 123

6.4. Gráficos de control de medias móviles ponderadas exponencial-

mente (EWMA) . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

6.4.1. Construcción del gráfico . . . . . . . . . . . . . . . . . . 129

7. Gráficos de control multivariantes. 133

7.1. Introducción: el enfoque multivariante . . . . . . . . . . . . . . . 133

7.2. Control independiente de las variables . . . . . . . . . . . . . . . 134

7.3. Variable aleatoria p-dimensional . . . . . . . . . . . . . . . . . . 135

7.3.1. Estimación del vector de medias y de la matriz de varianzas-

covarianzas . . . . . . . . . . . . . . . . . . . . . . . . . 137

7.3.2. La distribución normal multidimensional . . . . . . . . . 138

7.4. La T2 de Hotelling . . . . . . . . . . . . . . . . . . . . . . . . . 139

7.4.1. Caso bidimensional . . . . . . . . . . . . . . . . . . . . . 139

7.4.2. Caso multidimensional . . . . . . . . . . . . . . . . . . . 140

7.5. Componentes principales . . . . . . . . . . . . . . . . . . . . . . 143

7.6. Gráficos MCUSUM . . . . . . . . . . . . . . . . . . . . . . . . . 143

7.7. Gráficos MEWMA . . . . . . . . . . . . . . . . . . . . . . . . . 144

7.8. Control-charts de procesos multivariantes basados en el concepto

de profundidad de datos . . . . . . . . . . . . . . . . . . . . . . 153

7.8.1. Profundidad de datos . . . . . . . . . . . . . . . . . . . . 155

7.8.2. r-charts . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

7.8.3. Q-charts . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

7.8.4. DDMA-charts . . . . . . . . . . . . . . . . . . . . . . . . 157

7.8.5. S-charts . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

ÍNDICE GENERAL v

Page 6: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

8. Control de Recepción. 161

8.1. Fundamentos estadísticos de los planes de muestreo . . . . . . . 161

8.2. Planes de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . 162

8.3. Plan de muestreo simple por atributos . . . . . . . . . . . . . . 163

8.3.1. Curva OC para un plan de muestreo simple . . . . . . . 164

8.4. Planes de muestreo dobles y secuenciales . . . . . . . . . . . . . 168

8.5. Planes de muestreo Rectificativos . . . . . . . . . . . . . . . . . 170

8.6. Control de recepción por variables . . . . . . . . . . . . . . . . . 172

8.7. Diseño de planes de muestreo . . . . . . . . . . . . . . . . . . . 173

8.7.1. El plan Military Standard para atributos (MIL-STD-

105D ó ANSI/ASQC Z1.4 ó UNE 66020) . . . . . . . . . 173

8.7.2. El plan Military Standard para variables (MIL-STD-414

o ANSI/ASQC Z1.9) . . . . . . . . . . . . . . . . . . . . 175

8.7.3. El plan japonés JIS Z 9002 . . . . . . . . . . . . . . . . . 175

8.7.4. Planes Dodge-Romig de control rectificativos . . . . . . . 175

9. Fiabilidad. Principios básicos 177

9.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

9.2. Concepto probabilístico de fiabilidad . . . . . . . . . . . . . . . 178

9.3. Características de los datos usados en fiabilidad . . . . . . . . . 179

9.4. Características de los modelos usados en fiabilidad . . . . . . . . 180

9.5. Principales distribuciones para fiabilidad . . . . . . . . . . . . . 181

9.5.1. Distribución exponencial y Distribución gamma . . . . . 181

9.5.2. Distribución gamma . . . . . . . . . . . . . . . . . . . . 183

9.5.3. Distribución Normal y lognormal . . . . . . . . . . . . . 184

9.5.4. Distribución de Weibull . . . . . . . . . . . . . . . . . . 184

9.6. Estimadores no paramétricos de la fiabilidad . . . . . . . . . . . 185

9.7. Análisis de los datos de tiempos de fallo en motores. . . . . . . . 188

9.7.1. Estimador no paramétrica de la fiabilidad con el esti-

mador Kaplan-Meier. . . . . . . . . . . . . . . . . . . . . 190

9.8. Análisis de los datos de tiempos de fallo en motores. Problema 2. 192

9.8.1. Ajuste de una distribución Normal . . . . . . . . . . . . 192

9.8.2. Ajuste Weibull . . . . . . . . . . . . . . . . . . . . . . . 192

9.8.3. Contrastes de bondad de ajuste . . . . . . . . . . . . . . 195

9.8.4. Estimador no paramétrica de la fiabilidad con el esti-

mador Kaplan-Meier. . . . . . . . . . . . . . . . . . . . . 195

9.9. Fiabiliadad de Sistemas . . . . . . . . . . . . . . . . . . . . . . . 196

9.9.1. Sistemas en Serie y en parelelo . . . . . . . . . . . . . . . 197

9.9.2. Fiabilidad en serie . . . . . . . . . . . . . . . . . . . . . 199

9.9.3. Fiabilidad en paralelo . . . . . . . . . . . . . . . . . . . . 201

9.10. Sistemas reparables . . . . . . . . . . . . . . . . . . . . . . . . . 203

9.10.1. Modelo noparamétrico para estimar el MCF (Mean Cu-

mulative Function) . . . . . . . . . . . . . . . . . . . . . 203

9.10.2. Apuntes sobre el coste del ciclo de vida (LCC) . . . . . . 204

9.10.3. Relación vida útil con curvas de rodaje . . . . . . . . . . 204

vi ÍNDICE GENERAL

Page 7: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

10.Modelos de degradación y test de vida acelerada 207

10.0.4. Estimación de la distribución . . . . . . . . . . . . . . . 207

10.1. Pruebas de vida aceleradas (ALT) . . . . . . . . . . . . . . . . . 207

10.1.1. Métodos de aceleración . . . . . . . . . . . . . . . . . . . 208

10.1.2. El Modelo de Arrhenius . . . . . . . . . . . . . . . . . . 210

11.Diseños de Experimentos para calidad y fiabilidad 211

11.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

11.2. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . 211

11.3. Principios básicos de un diseño . . . . . . . . . . . . . . . . . . 212

11.4. Etapas de un diseño . . . . . . . . . . . . . . . . . . . . . . . . 213

11.5. El ANOVA con un factor para diseño de experimentos . . . . . 215

11.5.1. Diseño completamente aleatorizado . . . . . . . . . . . . 215

11.6. Diseños factoriales . . . . . . . . . . . . . . . . . . . . . . . . . 220

11.7. Factoriales completos . . . . . . . . . . . . . . . . . . . . . . . . 221

11.7.1. Cálculo de efectos e interacciones . . . . . . . . . . . . . 222

11.8. Factoriales fraccionales . . . . . . . . . . . . . . . . . . . . . . . 224

11.9. Otros diseños de experimentos en la industria . . . . . . . . . . 225

11.9.1. Diseños tipo Taguchi . . . . . . . . . . . . . . . . . . . . 225

11.9.2. Diseños de procesos robustos . . . . . . . . . . . . . . . . 226

11.9.3. Diseños Plackett-Burman . . . . . . . . . . . . . . . . . . 226

11.9.4. Superficies de Respuesta . . . . . . . . . . . . . . . . . . 227

11.9.5. El modelo ANOVA FUNCIONAL . . . . . . . . . . . . . 229

11.9.6. Estudio de la profundidad de los datos. . . . . . . . . . . 231

12.Apéndices 235

12.1. Apéndice 1. Resumen de fórmulas . . . . . . . . . . . . . . . . . 235

12.2. Introducción al programa estadístico R . . . . . . . . . . . . . . 236

12.2.1. Introducción al R . . . . . . . . . . . . . . . . . . . . . . 236

12.2.2. El entorno de trabajo en R . . . . . . . . . . . . . . . . . 237

12.2.3. Objetos . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

12.2.4. ¿Cómo introducir datos? Vectores . . . . . . . . . . . . . 238

12.2.5. Función edit . . . . . . . . . . . . . . . . . . . . . . . . . 239

12.2.6. Importando ficheros de datos . . . . . . . . . . . . . . . 239

12.2.7. Matrices en R . . . . . . . . . . . . . . . . . . . . . . . . 239

12.2.8. Data-frames . . . . . . . . . . . . . . . . . . . . . . . . . 241

12.2.9. Estadística descriptiva con R . . . . . . . . . . . . . . . 241

12.2.10.Variables k-dimensionales . . . . . . . . . . . . . . . . . 243

12.2.11.Modelos de Regresión en R . . . . . . . . . . . . . . . . 244

12.2.12.Modelos de regresión paramétricos lineales . . . . . . . . 244

12.2.13.Distribuciones de Probabilidad . . . . . . . . . . . . . . 247

12.2.14.Inferencia estadística con R . . . . . . . . . . . . . . . . 248

12.2.15.Contraste de hipótesis . . . . . . . . . . . . . . . . . . . 250

12.2.16.Estimación no paramétrica de la densidad . . . . . . . . 251

12.2.17.Diseño de Experimentos con R . . . . . . . . . . . . . . . 253

ÍNDICE GENERAL vii

Page 8: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

viii ÍNDICE GENERAL

Page 9: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1. INTRODUCCIÓN AL CONTROL DE

LA CALIDAD.

Contenido del tema: Introducción. Definiciones y tipos de control. Reseña

histórica del control de calidad y de la fiabilidad. Desafíos actuales.

1.1. Introducción.

En este primer capítulo se introducen las ideas básicas sobre el control es-

tadístico de la calidad y de la fiabilidad. El objetivo es presentar los conceptos

fundamentales de estas técnicas y analizar los cambios como han ido aparecien-

do a lo largo de la Historia. Para ello se realizará un breve recorrido histórico,

que irá, desde las primeras definiciones hasta el momento actual, con el obje-

to de ver la evolución de los conceptos básicos y presentar a los autores que

ayudaron a hacerlo posible.

En un principio, las primeras definiciones de calidad de un producto se

centraban en ajustar la producción a un modelo estándar, lo que podría lla-

marse .aptitud para el uso", para, con el tiempo, basarse en la satisfacción de

los requerimientos del cliente y englobar a todos los participantes, amplian-

do también la aplicación no sólo a productos manufacturados sino a todos los

procesos industriales o al sector de los servicios.

Hoy en día, aunque han variado los objetivos de la calidad, sigue siendo

esencial la necesidad de controlarla y medidarla, pero ampliando el control más

allá del proceso de fabricación. Han surgido otras dimensiones de la calidad,

como es la calidad del diseño (antes de la fabricación) o la fiabilidad como

calidad en el tiempo (posterior a la fabricación). En cualquier caso, cuando se

trata de controlar sea antes, durante o depués, es preciso medir y la Estadística

será la herramienta que debe de utilizarse. Esto justifica que esté más vigente

que nunca, si cabe, hablar de control estadístico de la calidad y de la fiabilidad,

pues la gran evolución que ha tenido la estadística en los últimos años propicia,

que sus aplicaciones al ámbito de la calidad y de la fiabilidad, una mejora

evidente en la resolución de problemas propios de estos campos.

En la actualidad nadie discute que la calidad supone un factor básico en

la toma de decisiones de cualquier consumidor tanto de productos como de

servicios. No importa que el consumidor (cliente o usuario de un servicio) sea

una persona, una pequeña empresa, una gran industria o una empresa pública,

no hay duda que la mejora de la calidad representa una oportunidad para el

éxito y la competitividad.

INTRODUCCIÓN AL CONTROL DE LA CALIDAD. 1

Page 10: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Cualquier producto o servicio, sea un automóvil, un teléfono móvil, una

tostadora o un servicio de transporte tienen la posibilidad de ser medidos,

por tanto, siempre será posible analizar variables que permitan controlar cier-

tas características. Estas características medibles de calidad pueden ser físicas

(longitud, peso, densidad, tensión), sensoriales (color, sabor, acabado) o bien

relacionados con la vida útil del producto, es decir, cuánto tiempo va a man-

tenerse un producto con las condiciones óptimas para su uso, esto nos llevará

a los llamados estudios de fiabilidad del producto, entendida la fiabilidad co-

mo calidad a través del tiempo ("quality over time"). Por tanto, aunque el

tratamiento de la fiabilidad (también denominada confiabilidad), suele hacerse

por separado, en este manual se propondrá estas técnicas de fiabilidad como

un eslabón más de la cadena para el control de la calidad, pues aunque un

producto pueda salir de fábrica en condiciones aceptables para su empleo, es

muy importante que estas condiciones sean perdurables en el tiempo.

La importancia que tienen los métodos estadísticos para el control, tanto

de la calidad como de la fiabilidad, radica en la premisa de que el error es algo

inherente a cualquier proceso de fabricación, por tanto, se parte de la base

que esas características medibles de calidad o de fiabilidad de un producto

o servicio presentan cierta variabilidad. Esta variabilidad, lógicamente, será

indeseable y un objetivo importante será analizarla y reducirla o, al menos,

mantenerla dentro de unos límites de especificación.

El control estadístico tendrá como misión aportar las herramientas, de tipo

estadístico, para controlar e intentar medir, y si es posible reducir, esa variabil-

idad inherente al producto o servicio. De este modo, podría definirse el control

estadístico de la calidad como el conjunto de técnicas estadísticas utilizadas

para "medir"la calidad y compararla con las especificaciones o requisitos del

cliente, con la intención de poder tomar medidas correctivas para su mejora,

que en la mayoría de los casos estarán orientadas a la reducción de la variabil-

idad.

Para comprender como ha ido evolucionando los conceptos del control de la

calidad y la fiabilidad, se presentan algunas de estas definiciones básicas y se

enumeran los distintos tipos de control en la siguiente sección. En una sección

se hace una breve introdución a la fiabilidad para posteriormente dar un recor-

rido histórico y terminar el capítulo con algunas de las nuevas metodologías

existentes.

1.2. Definiciones básicas de calidad

Cuando se pretende aclarar que se entiende por calidad se pueden encon-

trar diferentes definiciones en función de la fuente o de la época en las que se

enunciaron. Una de las más aceptadas es la definición que aporta la conoci-

da norma ISO, que define la calidad como el conjunto de características de

2 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 11: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

un producto, proceso o servicio que le confieren su aptitud para cumplir los

requisitos de los usuarios o clientes, o de otras partes interesadas.

Esta definición de la norma ISO, engloba muchas de las ideas que apare-

cen en definiciones anteriores, como las dadas por Houghton (calidad total),

quien dice que la calidad es saber qué debe hacerse, tener las herramientas para

hacerlo correctamente y luego hacerlo correctamente a la primera; o la propor-

cionada por el japonés Genichi Taguchi, que define la calidad de un producto

como la mínima pérdida impuesta por este producto a la sociedad durante su

vida útil.

Por otra parte, desde la perspectiva del control estadístico, una de las defini-

ciones que hacen incidencia en la idea de variabilidad, es la que aporta el

profesor Douglas Montgomery, quien afirma que la calidad es inversamente

proporcional a la variabilidad.

Al igual que en el caso de definir calidad existen varias versiones, también

ocurre lo mismo en para el control de la calidad. Así, la norma europea

UNE lo define como el conjunto de técnicas y actividades de carácter operativo,

utilizadas para satisfacer los requisitos relativos a la calidad. Esta definición es

similar a la aportada por la norma americana ANSI, que afirma que el control

de calidad será el conjunto de técnicas y actividades que sustentan la calidad de

un producto o servicio para satisfacer unas determinadas necesidades. Mientras

que su correspondiente norma japonesa, la JISZ, influenciada por las ideas de

Taguchi, define el control como el sistema por el cual la calidad de los bienes y

servicios se consigue de forma económica cumpliendo al mismo tiempo con los

requerimientos del cliente.

Uno de los grandes gurús del control de la calidad, el profesor Joseph Juran,

en su libro "Quality Control Handbook", define el control de calidad como

"proceso regulador a través del cual se mide la calidad conseguida, se compara

con los estándares y se actúa sobre la diferencia". Como puede apreciarse,

esta definición se centra en el proceso productivo, el objetivo es buscar que los

productos se ajusten a un modelo preestablecido por el fabricante ("ajuste a

un estándar"), con el tiempo se buscará también la aptitud para el uso final, es

decir, se tendrá en cuenta el usuario final así aparece la idea de la satisfacción

del cliente ("el cliente siempre tiene razón").

1.2.1. Tipos de control

El control de calidad puede ser aplicado en diferentes partes del proceso.

Comúnmente, suele clasificarse, en función del momento en que se aplique el

control, dos tipos diferentes de control el de fabricación y el de recepción. El

control de fabricación, será aquel que se realiza durante la fase de fabricación

de un producto. Normalmente se lleva a cabo a intervalos de tiempo fijos y

tiene por objeto vigilar el funcionamiento correcto del sistema para que este

se encuentre en las mejores condiciones posibles así como tratar de mejorarlo.

DEFINICIONES BÁSICAS DE CALIDAD 3

Page 12: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

El llamado control de recepción, se aplica a una partida de un nuevo producto

(sea este un producto final, una materia prima o un producto semielabora-

do). El objetivo de este último control es el de comprobar que se verifican las

especificaciones establecidas.

Además, se puede diferenciar otro tipo de controles en función de la forma

en que se observa la calidad. Así se hablará del control por variables, cuando se

mide una característica cuantitativa de un producto o servicio (peso, longitud,

resistencia, tiempo de espera, etc.). Se llamará control por atributos, cuando

el estudio recae en medir una característica cualitativa que el producto puede

presentar o no (una pieza es correcta o defectuosa, se acopla o no se acopla en

otra, etc.). En este caso del control por atributos suele también diferenciarse

el control por número de defectos cuando lo que se observa es el número de

defectos de cada elemento (una pieza puede presentar uno, dos o más defectos).

Es obvio que el control de calidad por variables da más información que el

control por atributos. Así, por ejemplo, si se examina una serie de piezas que

deben acoplar en otra pieza matriz, de una determinada longitud, se obtendrá

más información analizando la medida de cada pieza (variable cuantitativa)

que solamente observando si la pieza se acopla o no en su matriz (atributo).

A pesar de ello, en ocasiones se usa el control por atributos, por motivos de

coste económico, cuando el objetivo es únicamente verificar las especificaciones

previstas.

1.2.2. Control estadístico y control ingenieril de Procesos

Es frecuente denominar al control estadístico de la calidad, control es-

tadístico de procesos (CEP o SPC del inglés), esta versión proviene de la

orientación hacia los procesos industriales, aunque lógicamente la idea de proce-

so abarca mucho más. Desde esta perspectiva, un proceso es una secuencia de

operaciones en la que intervienen una serie de elementos o agentes y que tienen

como finalidad la fabricación de un producto o la prestación de un servicio.

Podemos pensar el proceso de fabricación de un coche, pero también podemos

pensar como proceso el viaje que realizamos para ir de casa al trabajo, o el

proceso de aprendizaje necesario para superar una materia.

Cada una de las operaciones está sujeta a una variabilidad, ya que está

afectada por un gran número de causas, que dan lugar a la variabilidad que

presenta el producto final. Asumida la imposibilidad de fabricar dos elementos

que sean exactamente iguales, aunque si esta variabilidad está acotada entre

unos límites fijos, podremos considerar como razonablemente iguales a elemen-

tos que en realidad no lo son.

Los distintos factores que afectan a un proceso pueden resumirse en el

concepto de las 5M´s empleado también en la elaboración del diagrama causa-

efecto, y que son:

4 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 13: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Mano de obra.

Maquinaria.

Método de producción.

Medio exterior.

Material empleado.

Además, el proceso de medición de las características que se consideren de

interés para la determinación de la calidad, también está sujeta a variabilidad,

ampliando así el concepto a las 6 M´s.

Hoy en día existe también la tendencia a estudiar la calidad ligada a proyec-

tos. Esta es una interesante opción que está siendo aplicada enmuchas empresas

e instituciones que la engloba en los objetivos marcados dentro de la Dirección

de Proyectos.

1.2.3. Proceso bajo control

Un concepto muy importante en el control de calidad es el de proceso

bajo control. Para explicar su significado es necesario introducir previamente

lo que se entiende por causas de variabilidad asignables y no asignables.

Se llamarán causas asignables (especiales o esporádicas) de variabilidad

a las que producen efectos predecibles que aumentan la variabilidad. Normal-

mente son muy pocas, pero de mucha influencia. Por ejemplo un fallo en una

máquina, una mezcla de materias primas en una proporción inadecuada, etc.

Por el contrario, se llamarán causas no asignables (comunes o aleatorias)

a aquellas que aparecen con efectos combinados, no predecibles de antemano

e inherentes a la incertidumbre del proceso productivo. Suele haber muchas

causas no asignables, cada una de las cuales tiene un efecto individual muy

pequeño. Ejemplos de estas son la heterogeneidad de las materias primas, la

precisión de las máquinas, la de los elementos de medida o la destreza de los

operarios, entre otras.

Estudiando con detalle un proceso, es posible eliminar todas las causas

asignables de variabilidad, para que así, la única variabilidad existente se deba

a causas no asignables. En tal caso, diremos que el proceso se encuentra ba-

jo control (o en estado de control). En la práctica, no existen procesos que

se encuentren espontáneamente bajo control. A menudo son necesarios mu-

chos esfuerzos para conseguir llevar un proceso a un estado de control. Ese es,

precisamente, uno de los objetivos del control de procesos.

La existencia de tolerancias obliga a que las unidades que no cumplan este

requisito sean consideradas como defectuosas o, en términos más usuales, no

conformes. La producción de este tipo de unidades, o su rectificación, conlleva

DEFINICIONES BÁSICAS DE CALIDAD 5

Page 14: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

un coste que podría ser eliminado; pero también la inspección y la búsqueda de

las causas de esta situación presenta un coste monetario cada vez mayor. Surge

así el reto de intentar reducir la proporción de unidades no conformes hasta

un punto en el que el incremento del coste de inspección y control iguale al

incremento de ahorro por la disminución del número de unidades rechazadas.

La inspección o medición de algunas características de calidad (como pueden

ser la resistencia o tiempo de vida útil) son de carácter destructivo, por lo que

no pueden ser llevadas a cabo sobre todas las unidades; incluso aunque las

pruebas no fuesen destructivas, la inspección del 100% de la producción puede

ser improcedente económicamente. Aparece entonces la necesidad de garantizar

la viabilidad de la producción de forma general mediante la inspección de una

parte significativa de ésta y, por tanto, la necesidad de determinar qué propor-

ción de unidades debe ser inspeccionada, cómo seleccionar dichas unidades y

cómo garantizar que los resultados obtenidos son extrapolables a la generalidad

de la producción.

Las causas asignables dan lugar a dos tipos distintos de modificaciones:

modificaciones por descentrado y modificaciones por aumento de

variabilidad. Las primeras son las que se producen cuando se presenta una

traslación del valor medio de la característica de calidad, mientras que en las

segundas lo que ocurre es un aumento de la variabilidad (véase gráfico):

 

Figura 1-1 Modificaciones por descentrado.

 

Figura 1-2 Modificaciones por aumento de la dispersión.

6 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 15: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Las modificaciones por descentrado del proceso se observan sobre todo en

procesos de fabricación automáticos mientras que en los semiautomáticos son

más frecuentes las modificaciones por dispersión. En la práctica, ambos tipos

de modificaciones se mezclan y confunden, dando lugar en cualquier caso a un

incremento del número de piezas fuera de especificación.

Las técnicas de control de calidad en curso de fabricación tienen por objeto

mantener estable la variabilidad propia del proceso y detectar con la mayor

eficacia posible la aparición de causas asignables de fluctuación. La manera de

controlar un proceso es mediante el control de la variabilidad.

1.2.4. Control ingenieril de procesos

Es frecuente diferenciar entre el control estadístico de procesos (EPS) y el

control ingenieril de procesos (EPC), sin embargo, la principal diferencia

es que este último suele tener como base el concepto de feedback, conocido como

retroalimentación, y que se refiere a la capacidad del emisor para recoger las

reacciones de los receptores.

Un objetivo del control estadístico de procesos (SPC) es identificar la nat-

uraleza de las causas comunes de variabilidad (aquéllas que están permanente-

mente presentes en un proceso) y cuantificar su efecto, con el fin de establecer la

capacidad del proceso para las diferentes características de calidad. Además

el SPC busca también el establecimiento de un sistema de observación, perma-

nente, que detecte precozmente la aparición de causas especiales de variabilidad

y ayude a identificar su origen.

Podría decirse que la filosofía del control ingenieril de procesos (EPC) es

que tiene como objetivo la regulación de procesos, utilizando la información

obtenida “on-line” en el proceso para manipular de forma óptima las variables

compensatorias, con el fin de ajustar lo mejor posible las características de

calidad a sus valores deseados.

Estas condiciones, en el contexto de control de calidad, son equivalentes a

que por una parte el efecto de las causas comunes de variabilidad debe tener

una cierta “inercia”, que permita predecir, a partir de los valores observados en

un momento de las características de calidad, los valores más probables en un

futuro inmediato si no se actuara sobre el proceso. Una segunda condición para

implementar el control feedback hace referencia a la existencia en el proceso de

variables compensatorias, fácilmente manipulables por los operadores, cuya

modificación tenga un efecto sobre las características de calidad que se desea

controlar.

Un ejemplo de control de procesos mediante feedback puede ser el fun-

cionamiento del termostato de un frigorífico o de una calefacción: una vez

fijada la temperatura ideal, el termostato reactiva el motor del frigorífico, o

del circuito de calentamiento, cada vez que la temperatura real se aparta de la

cifra prefijada (por exceso o defecto) reconduciendo la temperatura al valor de

DEFINICIONES BÁSICAS DE CALIDAD 7

Page 16: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

aquella.

Es un error muy frecuente en la industria la confusión entre ambos aspectos

de control y, en particular, la creencia de que los gráficos de control clásicos

del SPC son los que indican, a partir de las señales de salidas de control, la

necesidad de adoptar una decisión de regulación del proceso manejando una

variable compensatoria. Una señal de falta de control (si el gráfico se ha con-

struido correctamente) indica la aparición en el proceso de una causa especial

que debe ser identificada, pero el proceso, aun hallándose bajo control, puede

presentar una variabilidad indeseable que quizás sea posible reducir manejando

adecuadamente variables compensatorias mediante el EPC. En definitiva, SPC

y EPC no son dos alternativas excluyentes, sino dos enfoques complementar-

ios, y ambos deben ser utilizados, siempre que sea posible, para optimizar el

proceso.

1.2.5. Introducción a la fiabilidad

En el caso de la fiabilidad existe un mayor consenso para su definición, así

una de las definiciones más comúnmente aceptadas es la proporcionada por

Condra, quien la define como calidad a través del tiempo. Más concretamente,

se puede definir la fiabilidad de un producto o equipo como la probabilidad de

que dicho producto o equipo funcione correctamente durante un período deter-

minado de tiempo en las condiciones para las que fue diseñado. Por lo tanto, un

producto fiable es aquel que permanece con una buena calidad, lo que obliga

a estar dentro de sus límites de especificación, durante su vida útil.

Dependiendo del enfoque dado a la fiabilidad, puede también encontrarse su

vinculación con el concepto de "misión.esta idea aparece vinculada a los inicios

de estos estudios, en el contexto de equipos diseñados para su uso militar,

aunque hoy en día sigue siendo utilizada también en diferentes campos. En

este caso se transforma el concepto de fiabilidad asociándola a que el equipo

funcione correctamente durante el tiempo de misión.

En el caso de la fiabilidad se suele diferenciar entre en fiabilidad de pro-

ductos y fiabilidad de sistemas, entendiendo un sistema como una colección

de componentes o subsistemas dispuestos de acuerdo a un diseño dado, con

el propósito de lograr el cumplimiento de una determinada misión. El tipo de

componentes, su cantidad, su calidad y el modo en que están dispuestas tendrá

un efecto directo en la fiabilidad del sistema.

La fiabilidad de un producto se puede definir (cualitativamente) como su

aptitud para realizar su función, durante un tiempo especificado, en condiciones

especificadas. Una definición probabilística común de fiabilidad, (Meeker y Es-

cobar, 1998), es la siguiente: “fiabilidad es la probabilidad de que una unidad

realice su función hasta un tiempo especificado bajo las condiciones de uso en-

contradas”. Es importante que esta probabilidad sea evaluada a las condiciones

ambientales o de uso encontradas por el producto, en lugar de las condiciones

8 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 17: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

de trabajo para las que el producto fue diseñado.

Aunque los estudios de fiabilidad son de gran utilidad en todas las ramas

de la industria, por su amplia aplicación han surgido técnicas y normativas

específicas para el estudio de la fiabilidad de componentes electrónicas y para

la fiabilidad de los programas informáticos, rama esta última que se engloba en

la denominada fiabilidad del software. Así, Lawless, dice “la fiabilidad se refiere

al funcionamiento adecuado de equipos y sistemas, lo cual incluye factores como

software, hardware, humanos y ambientales”. Este es un concepto más amplio

y muestra la complejidad de lo que se entiende por fiabilidad, su evaluación, el

mantenimiento y su mejora.

Por otra parte, Condra afirma que “un producto fiable es aquel que hace

lo que el usuario quiere que haga cuando el usuario quiere que lo haga”. De

acuerdo con esto, la fiabilidad es calidad a través del tiempo, por lo tanto un

producto fiable debe permanecer dentro de sus límites de especificación durante

su vida tecnológica. Esto es, la buena calidad es necesaria pero no suficiente

para garantizar buena fiabilidad. Esto plantea otra dificultad, la fiabilidad de

un producto se puede evaluar directamente sólo después de que ha estado

en servicio por algún tiempo, por lo tanto, la evaluación y pronóstico de la

fiabilidad presenta varios desafíos técnicos, como por ejemplo, la propuesta

de buenas pruebas aceleradas para forzar el fallo del producto o de una

determinada componente.

Los enfoques con los que se puede tratar el estudio de la fiabilidad marcan

diferentes conceptos. Así, si se hace un estudio cuantitativo, se suelen analizar

las curvas de fiabilidad y definir una serie de medidas características propias

de esta materia: vida media (Mean-Time-To-Failure, MTTF) o la media entre

fallos (Men-Time_Between-Failures, MTBF). Un estudio cualitativo de la fia-

bilidad lleva al análisis modal de fallos y sus efectos (FMEA) o al análisis por

árboles de fallos (FTA). Existen métodos que permiten estimar estos valores

en función de las observaciones de los fallos de muestras de productos y que

serán el objeto de capítulos posteriores.

Surgen también otros conceptos asociados al estudio general de la fiabilidad,

como el de disponibilidad que se define como la relación entre el tiempo

operativo y el tiempo de vida considerado o el concepto de mantenibilidad

que será una medida de cómo de tan fácil y rápido puede un sistema o equipo

repararse después de un fallo.

Al igual que ocurre en el caso de la calidad, también existen normativas

específicas que regulan la fiabilidad, entre ellas cabe destacar la propuesta por

el ejército americano en el año 1991 para equipos electrónicos conocida como

norma 217F.

DEFINICIONES BÁSICAS DE CALIDAD 9

Page 18: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1.3. Breve reseña histórica

1.3.1. Antecedentes al control de la calidad

Aunque podría situarse el nacimiento del control estadístico de la calidad

en la primera mitad del siglo XX, con los trabajos pioneros sobre gráficos de

control utilizados en la Bell Telefhone Laboratories por Walter Shewart, es

evidente que a lo largo de la Historia hubo siempre un interés por controlar y

mejorar la calidad, como ejemplo de este interés y de la buena calidad alcanzada

son, sin duda, la mayoría de los monumentos y piezas artísticas, o de uso

cotidiano, que han resistido el paso del tiempo y que hoy podemos contemplar

en cualquier museo.

La importancia de controlar la calidad es tan antigua como la propia ex-

istencia de civilizaciones sobre el planeta. Así, se puede constatar como la

mayoría de las civilizaciones antiguas daban gran importancia a la calidad de

sus obras. Por ejemplo, en el Código de Hammurabi (2150 a. C.), se declara-

ba: “Si un constructor construye una casa para un hombre, y su trabajo no es

fuerte y la casa se derrumba matando a su dueño, el constructor será conde-

nado a muerte”. Otro caso similar es el de los inspectores fenicios, que tenían

por costumbre cortar la mano a quien hacía un producto defectuoso. Alrededor

del año 1450 a.C., los inspectores egipcios encargados de comprobar las me-

didas de los bloques de piedra en la construcción de las pirámides ya usaban

procedimientos de control. También se ha constatado que en otras culturas,

como la de los mayas o en la China imperial, también se usaron métodos de

control para verificar las grandes construcciones. Otros curiosos ejemplos son

algunas de los que se pueden encontrar en textos sagrados, así en la Biblia,

puede leerse: "Dios dio a Noé las especificaciones necesarias para construir el

Arca".

Llegada la Edad Media, cuando proliferaron los aprendices y los gremios,

el papel del artesano es a la vez de instructor como de inspector, también se

empeñaban en verificar que hubiera calidad en lo que hacían, es frecuente ver

acuñadas en obras de la época la marca de determinadas controles sobre las

piedras de los monumentos que hoy aún lucen en muchas localidades, a este

proceso inicial suele denominarse como çontrol de calidad del operario". El

gobierno fijaba y proporcionaba normas y, en la mayor parte de los casos, un

individuo podía examinar todos los productos y establecer un patrón de calidad

único. En este período, es cuando los gremios y hermandades establecen reglas

para que los aprendices puedan convertirse en maestros de un oficio.

Uno de los procedimientos más curioso, e innovador para su tiempo, del

que se tiene constancia, es el del control de la calidad mediante un esque-

ma de muestreo desarrollado por la Casa de la Moneda inglesa, que recibe el

nombre de trial of the pyx. Procede del reinado de Enrique II (1154-1189), y

su propósito era establecer si las monedas acuñadas respetaban las especifica-

10 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 19: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

ciones establecidas por la Corona. El objetivo era verificar que los lingotes de

oro que se le suministraban a la casa de la moneda iban efectivamente desti-

nados en su totalidad a la acuñación de monedas. Para realizar este control se

guardaba en la Abadía de Westminster un lingote convenientemente pesado,

que se consideraba como patrón para la comparación de las monedas, y una

muestra de las monedas acuñadas, guardadas en una caja denominada “pyx”.

Cada determinado tiempo se realiza inspecciones llamadas trial of the pyx por

un jurado independiente de la casa de la moneda y de la casa real. El pyx era

abierto y los contenidos del mismo eran pesados y comparados con el estándar

guardado; si el resultado era satisfactorio, se anunciaba públicamente y se cel-

ebraba un banquete, mientras que en caso contrario, el jefe de la Casa de la

Moneda era obligado a solventar la situación. El trial of the pyx sería un primer

ejemplo de lo que con el tiempo se convertirá en el muestreo de aceptación.

Estos métodos de control de la calidad podían florecer en un mundo pequeño

y local, pero el crecimiento de la población mundial exigió más productos y,

como consecuencia, una mayor distribución a gran escala. Con la Revolución

Industrial, la producción en masa de productos manufacturados, que fue posible

mediante la división del trabajo, creó nuevos problemas para los que estaban

acostumbrados que propiciaron el nacimiento de nuevas herramientas para el

control.

Será el siglo XX el que se desarrollará una era tecnológica que permitió

que las masas obtuvieran productos hasta entonces reservados sólo para las

clases privilegiadas. Sin lugar a duda, entre los ejemplos más destacables de

popularización de artículos, antes pensados para unos pocos, está el caso del

automóvil. Será Henry Ford el que introduce uno de los cambios mayores en la

fabricación de productos: la producción en cadena. La producción de la línea de

ensamblaje dividió operaciones complejas en procedimientos sencillos, capaces

de ser ejecutados por obreros no especializados, dando como resultado produc-

tos de gran tecnología a bajo costo. Parte de este proceso fue una inspección

para separar los productos aceptables de los no aceptables. Será durante esta

época cuando el control de la calidad empieza a hacerse imprescindible en los

departamentos de fabricación.

1.3.2. Nacen los diagramas de control

La primera aplicación clara de métodos estadísticos al control de calidad fue

en el año 1924 llevada a cabo por Shewhart, cuando presentó su "diagrama de

control.a los responsables de la empresa en la que trabajaba, la Bell Telefhone

Laboratories. La Bell System y su subsidiaria manufacturera, la Western Elec-

tric, estuvieron a la cabeza en el control de la calidad instituyendo un departa-

mento de ingeniería de inspección que se ocupará de los problemas creados por

los defectos en sus productos. Además del ya mencionado Walter Shewhart,

George Edwars, H. F. Dodge y H. G. Romig serán miembros de dicho depar-

BREVE RESEÑA HISTÓRICA 11

Page 20: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

tamento que aportarían grandes ideas al nacimiento del control de calidad.

Estos dos últimos serán los responsables de la creación de las primeras normas

para la inspección por muestreo, siendo aún utilizadas hoy en día las tablas de

Dodge-Romig.

Son destacables las palabras de Edwards cuando afirmó: "Existe el control

de la calidad cuando artículos comerciales sucesivos tienen sus características

más cercanas al resto de sus compañeros y más aproximadamente a la inten-

ción del diseñador de lo que sería el caso si no se hiciera la aplicación. Para

mí, cualquier procedimiento, estadístico u otro que obtenga los resultados que

acabo de mencionar es control de calidad, cualquier otro que no obtenga estos

resultados no los es". Edwards también acuñó la frase "seguridad en la calidad"

y la defendía como parte de la responsabilidad de la administración.

Aunque es en 1924 cuando Shewhart utiliza los gráficos de control (hoy en

día denominados gráficos Shewhart) la publicación de sus trabajos no llegaría

hasta el año 1931 cuando aparece el artículo sobre gráficos de control .Economic

Control of Quality of Manufactured Product"(véase los trabajos de Shewhart

en bibliografía).

Estos investigadores de la Bell Sytem, en colaboración con sociedades como

la American Society for Testing and Materials (ASTM) emprenderán una cam-

paña de divulgación de sus técnicas que logrará su expansión a otras empresas,

tanto dentro de estados unidos como en Europa, pues Shewhart viajará a Lon-

dres para impartir distintas conferencias. También es destacable la implicación

del profesor H. A. Freeman que promoverá la utilización del control estadísti-

co de la calidad en sus cursos del prestigioso MIT (Massachusetts Institute of

Thecnology).

La Segunda Guerra Mundial aceleró la implantación de estos métodos de

control de la calidad, propiciando el nacimiento de departamentos de calidad

en las fábricas de armamento. Con el tiempo, estos primeros departamentos

de calidad irán trasladándose a todo tipo de fábricas al comprobar los buenos

resultados que aportan en la mejora de los productos.

1.3.3. Se aplican planes de muestreo (control de aceptación)

Como ya se mencionó anteriormente, el interés del control de calidad en la

Inglaterra data ya de la época de los tudor. Pero será en el año 1935, cuan-

do el estadístico Egon Pearson, que será el profesor que invita a Shewart a

Europa (previamente, en 1941, había estado en USA invitado por el propio

Shewart), quien contribuye al desarrollo de la norma British Standard 600

para la aceptación de muestras del material de entrada, que sería reemplaza

por la British Standard 1008, adaptación del 4l U.S. Z —1 Standard desarrollado

durante la Segunda Guerra Mundial.

Es por tanto, en la década de los cuarenta cuando comenzó el desarrollo

y aplicación de tablas de muestreo para inspecciones de aceptación y

12 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 21: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

se publicaron tablas de muestreo para usos militares, probando su empleo por

parte de las fuerzas armadas.

Este apoyo gubernamental al control de calidad fue posible gracias al im-

pulso dado en las fábricas de armamento, que propiciaron que especialistas

de la Bell Telephone se trasladaran a Washington para elaborar programas de

inspección por muestreo para el ministerio de defensa. Estas colaboraciones

dieron lugar a unas tablas de inspección por muestreo que aparecieron en 1942

y que posteriormente serían la base de las conocidas normasMilitar Standard

105D, que aún hoy sigue a ser utilizada para las inspecciones de aceptación

por muestreo de atributos y las Militar Standard 414 para muestreos de

aceptación basados en variables.

1.3.4. Aparecen los departamentos de control de calidad

Será también en el año 1942 cuando se funda un grupo de investigación

estadística en la Universidad de Columbia, con objeto de desarrollar un método

de análisis secuencial y el empleo de técnicas de análisis multivariantes en

control de calidad, aparece así el empleo del estadístico T2 introducido por

Harold Hotelling, uno de los principales investigadores del grupo. El desarrollo

de estas técnicas pueden verse en varios artículos publicados posteriormente

como Sampling Inspection (1948), Techniques of Statistical Analysis (1947) y

Sequential Analysis of Statistical Data: Applications (1945).

En el año 1946 se fundó la ASQC (American Society for Quality Control) y

su presidente electo, George Edwars, declaró en aquella oportunidad: “La cali-

dad va a desempeñar un papel cada vez más importante junto a la competencia

en el costo y precio de venta, y toda compañía que falle en obtener algún tipo

de arreglo para asegurar el control efectivo de la calidad se verá forzada, a fin

de cuentas, a verse frente a frente a una clase de competencia de la que no

podrá salir triunfante”.

Será también en este mismo año, cuando Kenichi Koyanagi funde la JUSE

(Union of Japanese Scientists and Engineers) con Ichiro Ishikawa como su

primer presiente. Una de las primeras actividades de la JUSE fue formar el

Grupo de Investigación del Control de la Calidad (Quality Control Research

Group: QCRG) que darán un gran impulso al control de la calidad japonés,

que además de estar influidos por el carácter y la filosofía oriental de hacer

las cosas, promueven nuevos métodos como la creación de los círculos de la

calidad.

En 1954, Page desarrolla el gráfico de control de sumas acumuladas

(CUSUM) que intenta solucionar algunos problemas que presentaba el gráfico

de control Shewhart cuando los cambios en el proceso eran de pequeña magni-

tud. Este gráfico de control va a considerar la información pasada del proceso

en su desarrollo, lo que va a suponer que su comportamiento ante cambios de

pequeña magnitud va a ser mejor que el del gráfico Shewhart. También en esa

BREVE RESEÑA HISTÓRICA 13

Page 22: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

fecha Juran empieza a difundir los métodos estadísticos y los sistemas de con-

trol de calidad entre todos los dirigentes y mandos intermedios de las empresas

japonesas.

En el año 1959, Roberts introduce el gráfico de control de medias móviles

exponencialmente ponderadas, conocido como gráfico EWMA (Exponential-

ly Weighted Moving Average). Este gráfico de control, al igual que el gráfico

CUSUM, va a comportase mejor en algunos aspectos que el tradicional gráfico

Shewhart, la idea es que la inclusión de la información pasada del proceso se

realiza mediante una ponderación exponencial considerándolo como un proceso

estocástico.

En los procesos de producción actuales, existe más de una característica

que influye en la calidad final de los productos. Para solventar este problema

y poder controlar varias características al mismo tiempo han proliferado últi-

mamente técnicas multivariantes de control. Dentro de éstas caben destacar

por su mayor desarrollo y aplicación el gráfico de control T2 de Hotelling y los

gráficos MCUSUM y MEWMA, extensiones al caso multidimensional de sus

correspondientes gráficos unidimensionales.

1.3.5. La expansión del control de calidad en y desde Japón

Un caso especial es la importancia que ha tenido la implementación del con-

trol de calidad en el Japón de final de la Guerra. Después de acabada la Segunda

Guerra Mundial, y tras la firma de la rendición habiendo sufrido el holocausto

nuclear, Japón necesitaba realizar la reconstrucción del país. Las fuerzas de

ocupación estadounidenses deciden apoyar esta reconstrucción enviando a un

grupo de expertos para ayudar en su labor. Entre los temas tratados por este

comité de expertos se incluyó el control estadístico de la calidad, aplicando

muchos de los conocimientos que habían sido implementado por Shewhart.

Se envió a Japón a un profesor de la Universidad de Columbia, Edwards

Deming, discípulo del propio Shewhart. En 1950, Deming, un estadístico que

trabajara en la Bell System con Edwards y Shewhart, fue invitado a hablar ante

los principales hombres de negocios del Japón. Deming los convenció de que

la calidad japonesa podría convertirse en la mejor del mundo al instituirse los

métodos que él proponía. Posiblemente, en la buena acogida de los principios

del control de la calidad en Japón, haya tenido mucho que ver la cultura de

este pueblo inspirada en el principio del kaizen, o continua búsqueda para

incrementar la mejora.

El programa de aplicaciones del control a la industria japonesa comenzó en

la década de los cincuenta, con la mejora del sistema de telecomunicaciones

de Japón, realizado por los ECL (Electrical Communication Laboratories),

de la compañía NTT (Nippon Telephone and Telegraph). Entre los japoneses

participantes en este proyecto destaca Genichi Taguchi, que participa con la

responsabilidad de promover la productividad en investigación y desarrollo

14 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 23: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

para ECL. Para optimizar los costes de la experimentación, Taguchi desarrolló

un enfoque del diseño de experimentos en términos de costes: la variación

reducida se traduce en una mayor reproducibilidad, viabilidad y, finalmente,

en grandes ahorros en costes tanto para el fabricante como para el cliente.

Cualquier enfoque efectivo de la calidad debe dirigirse a la relación entre calidad

y coste.

Taguchi hará una estancia en en la Universidad de Princetown como In-

vestigador Asociado durante el año 1962. A su vuelta a Japón ocupará una

plaza de profesor en la Universidad Aoyama Gakuin, en Tokio, hasta 1982.

Durante este tiempo, formó a muchos ingenieros en la industria al tiempo que

colaboraba como consultor con las más importantes empresas japonesas.

Los métodos Taguchi se introdujeron en los Estados Unidos al principio de

la década de los ochenta en la AT&T Bell Laboratories, Ford Motor Company y

Xerox Corporation. La también llamada ingeniería de calidad de Taguchi

se basa en el empleo de una serie de métodos y desarrollos, tanto estadísticos

como propios de ingeniería, así como unos aspectos filosóficos y culturales que

enmarcan todo el proceso.

Serán también destacables las aportaciones del profesor Ishikawa, que in-

tentó implicar en la calidad a todos los estamentos de la empresa, poniéndola

al alcance de los niveles más bajos, desarrolló las siete herramientas básicas

de la calidad y propuso la creación de los círculos de calidad.

Cada año se otorgan en Japón los Premios Deming a la persona o institución

que destaque en la aplicación del control de la calidad. Algunas de las empresas

que han obtenido dichos premios incluyen a empresas conocidas, como el caso

de Nissan, Toyota, Hitachi y Nipon Steel. En 1989, la Florida Power and Light

Company fue la primera compañía no japonesa en ganar el premio Deming.

Deming regresó de Japón en los años 70 a Estados Unidos y se hizo profeta

en su tierra. A partir de ese momento, empezó a calar la idea de garantía

de calidad entre los ingenieros americanos. Desgraciadamente la reacción en

Europa ha sido, en muchos casos, bastante más tardía quedando todavía mucho

por hacer.

1.3.6. Control de la calidad total (TQC)

En la década de los 60 y 70, Armand Feigenbaum sienta los principios

básicos del control de la calidad total (Total Quality Control, TQC): "el

control de la calidad existe en todas las áreas de los negocios, desde el diseño

hasta las ventas". Hasta ese momento los esfuerzo en la calidad habían estado

dirigidos a corregir actividades, no a prevenirlas. Es así que en 1958, un equipo

japonés de estudio de control de la calidad, dirigido por Kaoru Ishikawa, visitó

a Feigenbaum en General Electric; al equipo le gusto el nombre TQC y lo llevó

consigo al Japón; sin embargo, el TQC japonés difiere del de Feigenbaum.

El TQC requiere que todos los empleados participen en las actividades de

BREVE RESEÑA HISTÓRICA 15

Page 24: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

mejoramientos de la calidad, desde el presidente y el staff de la organización

hasta los obreros, pasando por quienes atienden a los clientes.

Muchas empresas trabajan con el concepto de sistema Integral de Calidad,

que afecta al diseño, la fabricación y la comercialización, produciéndose un

fenómeno singular que afectó a la comercialización y economía industrial de

muchos países, aplicando los conceptos del aseguramiento de la calidad y

la prevención.

Hay que resaltar que el aseguramiento de la calidad no es sólo patrimonio de

la industria, sino que también ha trascendido a otros sectores como el caso de

los servicios (Service Quality Assurance: SQA). Así se han aplicado y siguen

utilizándose métodos para el control y la mejora de la calidad en hoteles,

hospitales, bancos y cualquier otro tipo de empresas de servicios.

El final de los década de los 70 y principio de los 80 fue marcado por un

empeño en la calidad en todos los aspectos de los negocios y organizaciones

de servicios, incluyendo las finanzas, ventas, personal, mantenimientos, admin-

istración, fabricación y servicios. La reducción en la productividad, los altos

costos, huelgas y alto desempleo hicieron que la administración se volviera hacia

el mejoramientos en la calidad como medio de supervivencia organizacional.

Hoy en día, aunque muchas empresas e instituciones siguen utilizando la

filosofía TQC, son más comunes políticas de calidad basadas en metodologías

Seis Sigma u otras en las que la optimización juegan un papel clave como el

caso de las debiminadas Lean. En cualquier caso, los objetivos siguen siendo

los mismos: dar mejores productos o servicios y más competitivos. Algunos

autores sostienen que estas nuevas metodologías de control de la calidad, en el

fondo, se basan en lo de que se hizo siempre pero con una mejor envoltura, lo

que resumen diciendo que se trata de un "vino viejo en botellas nuevas".

1.3.7. La normalización en el control de calidad

Para llevar a cabo controles de calidad en empresas e instituciones surgen

distintas organizaciones y asociaciones que crean una normativa propia a la

que deben acogerse estas empresas en aras de competir con sellos de calidad

reconocidos. Así surgen las normas ISO, las AENOR, las ASTM, etc.

La Organización Internacional para la Normalización (ISO), creada en 1947,

es una organización internacional no gubernamental, con sede en Ginebra, que

redacta y aprueba normas técnicas internacionales, en la actualidad está pre-

sente en 157 países (véase gráfica). Es el organismo encargado de promover el

desarrollo de normas internacionales de fabricación, comercio y comunicación

para todas las ramas industriales a excepción de la eléctrica y la electrónica.

Su función principal es la de buscar la estandarización de normas de productos

y seguridad para las empresas u organizaciones a nivel internacional.

La Organización ISO está compuesta por tres tipos de miembros:

16 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 25: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 1-3 En verde se muestran los miembros natos de la ISO, en amarillo los

correspondientes, en rojo los suscritos y en negro el resto.

• Miembros natos, uno por país, recayendo la representación en el or-

ganismo nacional más representativo.

• Miembros correspondientes, de los organismos de países en vías de

desarrollo y que todavía no poseen un comité nacional de normalización. No

toman parte activa en el proceso de normalización pero están puntualmente

informados acerca de los trabajos que les interesen.

• Miembros suscritos, países con reducidas economías a los que se les

exige el pago de tasas menores que a los correspondientes.

ISO coopera estrechamente con la Comisión Electrotécnica Internacional

(International Electrotechnical Commission o IEC), su precendente histórico

ya que fue creada en 1906, y que es responsable de la normalización de equipos

eléctricos y electrónicos. Es un error común el pensar que ISO significa Inter-

national Standards Organization o algo similar, ISO no es un acrónimo sino

que proviene del griego iso, que significa igual (en inglés su nombre es Interna-

tional Organization for Standardization, mientras que en francés se denomina

Organisation Internationale de Normalisation; el uso del acrónimo conduciría

a diferentes nombres).

De este organismo surgen la familia de normas ISO 9000, que están in-

tegradas por un conjunto de modelos y documentos sobre gestión de calidad.

En 1987 se publicaron las normas internacionales actuales sobre aseguramiento

de la calidad. Por primera vez, cada una de ellas sirve como un modelo de cali-

dad dirigido a determinada área de la industria, la manufactura o los servicios.

En la actualidad cubren todas las funciones o posibilidades de desempeño, y

tienen el objetivo de llevar la calidad o la productividad de los productos o

servicios que se oferten. Aunque los antecedentes más remotos de la existencia

de la norma ISO 9000 datan de hace más de 50 años, es importante destacar

que la aceptación internacional de la normalización ha tenido vigencia, sobre

BREVE RESEÑA HISTÓRICA 17

Page 26: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

todo, a partir de la década de 1980.

Actualmente la normalización es un requerimiento indispensable para ex-

portar a los países del primer mundo, principalmente a los ubicados en el área

de Europa; sin embargo otros países como Japón, a pesar de su indiferencia

anterior, tienen ahora entusiasmo en participar en la aplicación de estas nor-

mas, ya que será imposible introducirse al mercado global si no se demuestra

su cumplimiento específico para garantizar la calidad de productos y servicios

al mercado futuro de los consumidores. De todos modos son muchas las em-

presas que deciden no invertir en acreditarse y emplear esos recursos a una

implementación real de control de su calidad.

Como ya se comentó, al inicio del capítulo, la norma ISO 9000:2000 defina

la calidad como: “conjunto de características de un producto, proceso o servicio

que le confieren su aptitud para cumplir los requisitos de los usuarios o clientes,

o de otras partes interesadas”.

Entre estos requisitos tenemos:

Los establecidos expresamente por el cliente.

Los no establecidos por el cliente, pero necesarios para el uso específico

o previsto.

Los requisitos legales y reglamentarios relacionados con el producto o

servicio.

Cualquier otro requisito adicional determinado por la organización.

Mediante el cumplimiento de estos requisitos se satisfacen las necesidades

del cliente o usuario en cuanto a:

Seguridad

Fiabilidad

Servicio

Existe toda una normativa específica que desglosa las normas iso para cada

aplicación concreta, por ejemplo, en la actualidad está siendo muy requerido el

empleo de controles de calidad que engloben el estudio del ciclo de vida de los

productos, sobre todo por problemas relacionados con la degradación de ciertos

materiales como los plásticos o los subproductos de la industria nuclear. Es el

caso de la ISO-14000 recientemente actualizada en el año 2008 y que recoge

varias recomendaciones sobre control medioambiental.

18 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 27: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1.3.8. Aparece la fiabilidad

Al igual que ocurre con la calidad, la fiabilidad de un producto o de un

sistema siempre ha estado presente a lo largo de la Historia, pues cuando se

fabrica un objeto los fabricantes buscan no solo su calidad sino que esta sea

perdurable, es decir, se persigue aumentar la vida útil.

Parte de la metodología sobre estimación de la vida útil de los productos

fue desarrollada para materiales militares. Uno de los primeros ejemplos con-

statados de análisis de tiempos de vida fue el empleado para estimar el número

de repuestos necesarios para mantener equipos electrónicos y mecánicos fun-

cionando en forma intensiva por períodos largos de tiempo durante la guerra

de Corea. Los responsables de armamento verificaron que uno de los proble-

mas de fallos estaba relacionado con las condiciones ambientales extremas, en

el caso de las guerras de Vietnan y Corea, se llegó a estimar que el 70% del

material electrónico del ejército americano no funcionaba correctamente: estos

hechos llevaron a la industria militar a mimar la fiabilidad del armamento y a

establecer los principios de esta nueva técnica, que no tardaría en adaptar el

resto de la industria.

Es también destacable las aportaciones que han tenido al empleo y creación

de normas para el control de la fiabilidad organismos como el Instituto de Elect-

ricidad y Electrónica (IEEE). Es en el año 1959 cuando aparecen publicadas las

primeras normas para controlar la fiabilidad. Un ejemplo de estas normas es la

guía de referencia para tasas de fallos, elaborada por el Pentágono americano,

conocida como MILHDBK217F.

Por otra parte, la gran utilización de la aviación comercial y el inicio de

la exploración espacial en los años cincuenta con satélites, sondas y vehículos

tripulados, aumentó la necesidad de un mayor desarrollo e implementación de

la metodología de fiabilidad para componentes y sistemas. Hoy en día es una

de las técnicas emergentes, ya no sólo en el campo militar o de la aviación sino

también en toda la industria.

En algunos sectores de la industria, como el farmacéutico o el alimentario,

se usa un término más específico, estabilidad, para referirse a los casos en que la

fiabilidad depende de la conservación de una determinada composición química.

En las ciencias de la salud, en las que se tratan cuestiones bastante parecidas

a las de la fiabilidad, se usa la expresión análisis de la supervivencia, siendo en

este campo en el que se ha investigado con más ahínco en la implementación

de nuevos métodos estadísticos, como el caso de la aplicación de técnicas de

estimación no paramétrica.

Otra aplicación de estas técnicas de fiabilidad han ido de la mano de dar

apoyo a la sociedad consumista, proporcionando herramientas, no sólo para la

mejora de los productos sinó también para que estos tengan una determinada

vida limitada en el tiempo. Es lo que algunos han denominado obsolescencia

programada. En todo caso esta sería una aplicación poco recomendable y sigue

siendo la mejora de la fiabilidad de productos que precisan de una altísima cal-

BREVE RESEÑA HISTÓRICA 19

Page 28: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

idad, como los empleado en la industria aeronaútica, la naval o la biosanitaria

los que mayores esfuerzos y éxitos proporcinan.

1.3.9. La Calidad en Europa

Como ya se mencionó el control de calidad entró en Europa a partir de

colaboraciones con profesionales americanos de la industria. Un ejemplo de

esta colaboración fue la mantenida por Egon Pearson, profesor de la Univer-

sity College de Londres, con el propio Walter Shewhart. Pearson realiza una

visita a Estados Unidos en 1931 y posteriormente invita a Shewhart a impar-

tir tres conferencias en Gran Bretaña sobre el papel del método estadístico

en la estandarización industrial. La propia Royal Statistical Society creará en

1932 una sección dedicada a la estadística industrial incorporando posterior-

mente la revista Applied Statistics a sus publicaciones. Como resultado de

esta colaboración y del patrocinio de la Royal se publicará la conocida norma

BS-600-1935 sobre aplicaciones de métodos estadísticos en la estandarización

industrial y control de calidad, que llevaría el nombre de Egon Pearson. Entre

las industrias que con mayor aínco impulsaron la aplicación de estas técnicas

estaría la General Electric Company.

Finalmente estas técnicas de control estadístico se irán expansionando a

otros países europeos, fundándose la Organización Europea para el Control de

Calidad, sociedad conocida como EFQM (European Foundation for Quality

Management), en donde se crea el conocido como comité técnico 69 para las

aplicaciones de los métodos estadísticos a las normas ISO, cuya principal misión

será la de emitir normas para los planes de muestreo y los diagramas de control.

Estas aplicaciones en la industria vendrán acrecentadas con las aportaciones

de estadísticos tan importantes como Ronald Fisher con su conocido método de

diseño de experimentos, que aunque en un principio surge ligado a problemas

agrícolas posteriormente será aceptado y explatado en todo tipo de activivades.

Es también destacable las aportaciones de William Gosset, quien publicará

su famosa distribución t (publicada bajo el pseudónimo de Student) y que

emplearía para la mejora de la calidad, como parte de su trabajo como maestro

cervecero, en la conocida fábrica de cervezas irlandesa Guinnes.

Desde mediados de los años ochenta el panorama económico internacional,

caracterizado por la globalización de los mercados y la aparición de nuevas tec-

nologías, ha creado un clima de competitividad como jamás se había conocido

antes. Surge así una nueva tendencia conocida como Excelencia en la Gestión.

Al igual que ocurrió con la incorporación de los planes de muestreo y los

diagramas de control, en Europa, la Excelencia en la Gestión llega, aproxi-

madamente, una década más tarde que en Estados Unidos. Hasta entonces, las

empresas europeas adoptan modelos de Aseguramiento de la Calidad como los

basados en las normas internacionales ISO 9000 (derivadas de la norma militar

británica BS 5750).

20 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 29: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1.3.10. La calidad en España

El caso concreto del control de calidad en España se enmarca dentro del

caso Europeo aunque con una serie de características propias. A nivel de ma-

teria el control estadístico, dentro de los planes de estudio, fue impulsado por

departamentos de Estadística con docencia en titulaciones que habitualmente

tienen una mayor relación con la industria, como es el caso de las ingenierías, la

química o la economía. Son destacables las primeras iniciativas de las escuelas

politécnicas y de otras universidades, que cuentan con importantes departa-

mentos de Estadística e Investigación Operativa con secciones aplicadas a la

industria, que han y siguen dando apoyo, mediante no sólo la docencia reglada,

sino también con cursos dirigidos a empresas e instituciones sobre diferentes

técnicas estadísticas.

A nivel gubernamental, ha sido la creación de la Agencia de Evaluación

de las Políticas Públicas y la Calidad de los Servicios el elemento clave en el

proceso de institucionalización de la evaluación en España. Si bien existían pre-

viamente instituciones que realizaban evaluaciones, su dimensión era más bien

sectorial o relacionada con las políticas de gasto. La Agencia aporta una mayor

articulación al modelo global, dentro de un marco común del que enriquecerse

interadministrativamente (http://www.aeval.es/).

Asimismo, el proceso de institucionalización de la evaluación y la gestión

de la calidad en España se ha impulsado mediante el marco normativo que

desarrolla el Real Decreto 951/2005, de 29 de julio, sobre Mejora de la Cal-

idad en la Administración del Estado y con los trabajos sobre el análisis del

impacto normativo encomendados por Acuerdo del Consejo de Ministros, de

25 de febrero de 2005, por el que se adoptan mandatos para poner en marcha

medidas de impulso a la productividad.

Entre las experiencias evaluadoras más destacadas en la Administración

General del Estado (AGE) se encuentran las centradas en políticas sociales,

sanitarias, educativas y tecnológicas, preocupadas por la eficacia de los progra-

mas y su impacto social y/o calidad de los servicios prestados, todas ellas de

ámbito sectorial y especializado. Es el caso de los trabajos realizados en mate-

ria educativa por ANECA - Agencia Nacional de Evaluación de la Calidad y la

Acreditación - y el Instituto de Evaluación (antiguo INECSE), por la Agencia

de Calidad del Sistema Nacional de Salud en materia sanitaria, por el INEM

y el Servicio Público de Empleo Estatal en materias laborales y de empleo,

por la ANEP — Agencia Nacional de Evaluación y Prospectiva - en el sistema

público de ciencia y tecnología y de proyectos de I+D+i, o por la Dirección

General de Planificación y Evaluación de Políticas de Desarrollo en materia de

cooperación internacional al desarrollo.

En 1999, con el Real Decreto 1259/1999 se regulaban las Cartas de Servicios

y los Premios a la Calidad en la Administración General del Estado (actual-

mente derogado), se establecieron los contenidos y las estrategias a aplicar por

las organizaciones de la Administración estatal para desarrollar el principio de

BREVE RESEÑA HISTÓRICA 21

Page 30: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

servicio a los ciudadanos, así como para asegurar la mejora continua de sus

procedimientos, servicios y prestaciones.

El Modelo de Evaluación, Aprendizaje y Mejora (EVAM) , representa una

metodología sencilla y asequible que permite conocer el nivel de calidad en la

gestión y resultados de las organizaciones, realizar, a modo de una autoevalu-

ación asistida, un primer análisis de la madurez organizacional y del nivel de

prestación de los servicios y orientar el camino a seguir, poniendo a disposición

de las organizaciones, herramientas para la mejora de su rendimiento.

La Agencia de Evaluación emite una certificación del nivel de excelencia

a aquellas organizaciones que se hayan autoevaluado conforme a modelos de

gestión de calidad reconocidos y sometido sus resultados a la correspondiente

validación, de acuerdo con lo previsto en el Programa de Reconocimiento. El

proceso de certificación culmina con la concesión de un sello, en función del

modelo utilizado para la autoevaluación y del nivel de excelencia comprobado

por la Agencia.

Es también de mención la labor de la Asociación Española para la Calidad

(AEC). Este organismo es una entidad privada sin ánimo de lucro, fundada en

1961, cuya finalidad es fomentar y apoyar la competitividad de las empresas

y organizaciones españolas, promoviendo la cultura de calidad y el desarrollo

sostenible, reflejados en su Misión y Visión. (véase http://www.aec.es/)

Con el fin de ayudar a las empresas españolas, y fundamentalmente a las

PYMEs, a mejorar su posición en el mercado global, la AEC fomenta la divul-

gación de las mejores prácticas a través de sus 21 Comités y de la organización

de una media de 21 jornadas y congresos al año.

Además, ofrece información actualizada a través del CNIC (Centro Nacional

de Información de la Calidad), de la revista Çalidad de las publicaciones que

se editan. Asimismo, facilita material divulgativo y de apoyo en la gestión y

mejora de la calidad (carteles de motivación).

Aparte, la AEC, a través de su Centro de Registro y Certificación de Per-

sonas (CERPER) gestiona y emite los certificados de personas. El CERPER

ofrece doble garantía ya que es la única entidad reconocida en España por la Eu-

ropean Organization for Quality (EOQ) como su representante para certificar

personas siguiendo sus esquemas de certificación y la única entidad certificado-

ra de personas acreditada por ENAC, para certificar a profesionales en Calidad

y Medio Ambiente.

Por otra parte, la AECmantiene una colaboración habitual con la American

Society for Quality (ASQ) y con la Fundación Iberoamericana para la Gestión

de la Calidad (FUNDIBEQ).

Además de la labor de asociaciones como la AEC cabe destacar la gran

labor desarrollada desde los departamentos de Estadística de las universidades

españolas y la creación de institutos dedicados a las aplicaciones de los méto-

dos matemáticos a la industria, que apoyados por proyectos como el i-math

y su reciente ampliación en la red math-in hacen una importantísima labor

de transferencia de conocimiento de la Universidad a la Industria. i-MATH

es un proyecto CONSOLIDER de investigación singular para el periodo 2006-

22 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 31: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

2011 que propone un Programa de Actividad Investigadora integral para la

matemática española con el objetivo básico de promover y ejecutar actuaciones

estratégicas de ámbito estatal que incrementen cualitativa y cuantitativamente

el peso de las matemáticas en el panorama internacional y en el sistema es-

pañol de ciencia, tecnología, empresa y sociedad. i-MATH es una iniciativa

promovida y subvencionada por el Ministerio de Educación y Ciencia en el que

participan más de 300 grupos de investigación.

1.3.11. Los grandes artífices de la calidad

Sin duda el papel inicial de Walter Shewart en la popularización del control

estadístico ha sido decisivo, pero deben de mencionarse también otra serie de

autores, que algunos han llamado los "gurús"de la calidad para aportar nombre

propios a este breve recorrido histórico.

Walter Shewart (1891-1967), estudió en la Universidad de Illinois y se doc-

toró en física de la Universidad californiana de Berkeley. Presentó sus primeras

cartas de control en el año 1924 en la empresa Bell Telephone Laboratories.

El jefe de Shewhart, George Edwards, recuerda: .El Dr. Shewhart preparó un

pequeño memorandum de sólo una página de longitud. Casi un tercio de la

página lo ocupaba un sencillo diagrama que todos reconocemos hoy día como

un diagrama de control esquemático". Desde finales de 1930 en adelante, los

intereses de Shewhart se expandieron desde la calidad industrial a la ciencia

y la inferencia estadística. El título de su segundo libro "Método Estadístico

desde el punto de vista del Control de Calidad (1939)"hace la audaz pregun-

ta: ¿Qué puede aprender la practica estadística, y la ciencia en general, de la

experiencia del control industrial de calidad?

En 1938 su obra llama la atención del también físico Edwards Deming,

que estaba intrigado por la medición del error en ciencia y había publicado

un artículo seminal en Reviews of Modern Physics en 1934. Al leer las ideas

de Shewhart, escribió a la revista para cambiar totalmente su enfoque en los

términos de lo que Shewhart promocionaba.

El encuentro comenzó una larga colaboración entre Shewhart y Deming que

incluyó trabajos sobre la productividad durante la Segunda Guerra Mundial.

Deming promovió las ideas de Shewhart en Japón desde 1950 en adelante.

Además Deming desarrolló algunas de las propuestas metodológicas de She-

whart acerca de la inferencia científica y llamó a su síntesis el ciclo de Shewhart

(Shewhart cycle). Este ciclo es una breve guía de actuación, que es también

conocido por sus siglas en inglés, como ciclo PDCA (Plan-Do-Check-Act). Es

fácil encontrar una anología de este ciclo con el ciclo DMAIC que se analizará

con detalle en una sección posterior. Shewhart será también el que diferencie

en los procesos las causas asignables y no asignables de variación.

Además de su gran labor en la industria, debe destacarse su labor divulgado-

ra de Shewhart. Visitó la India en 1947 bajo el patrocinio del gran matemático

BREVE RESEÑA HISTÓRICA 23

Page 32: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Mahalanobis del Indian Statistical Institute. Recorrió el país, dio conferencias

y estimuló el interés en el control estadístico de la calidad entre los industrailes

indios. Fue también el editor fundador de la Wiley Series en Mathematical Sta-

tistics y miembro honorario de la Royal Statistical Society, miembro fundador,

presidente del Institute of Mathematical Statistics, miembro y presidente de la

American Statistical Association y del International Statistical Institute.

William Edwards Deming (1900-1993) estudió ingeniería eléctrica en Uni-

versidad de Wyoming en 1925 obtuvo la maestría en Física y Matemáticas en

la Universidad de Colorado y en 1928 obtuvo el Doctorado por la Universidad

de Yale en Física donde fue empleado como profesor. Posteriormente trabajó

para el Departamento de Agricultura en Washington D.C. y como consejero es-

tadístico para la Oficina de Censo de los Estados Unidos, durante este periodo

fue cuando Deming entabló la fructifera relación con Shewhart.

En 1950 la Unión Japonesa de Científicos e Ingenieros (JUSE) invitó a

Deming a Tokio a impartir charlas sobre control estadístico de procesos. Sus

conferencias fueron copiadas, editadas e impresas en japonés, se vendieron miles

de copias. Los japoneses pretendieron pagarle los derechos de autor, sin em-

bargo Deming rechazó la oferta proponiéndoles emplear el dinero en crear un

premio para las empresas que demostraran un comportamiento ejemplar en la

mejora de calidad.

Las ideas de Deming se recogen en los Catorce Puntos y Siete Enfermedades

de la Gerencia de Deming. Deming afirma que todo proceso es variable y cuanto

menor sea la variabilidad del mismo mayor será la calidad del producto resul-

tante. En cada proceso pueden generarse dos tipos de variaciones o desviaciones

con relación al objetivo marcado inicialmente: variaciones comunes y varia-

ciones especiales. Solo efectuando esta distinción es posible alcanzar la calidad.

Las variaciones comunes están permanentemente presentes en cualquier pro-

ceso como consecuencia de su diseño y de sus condiciones de funcionamiento,

generando un patrón homogéneo de variabilidad que puede predecirse y, por

tanto, controlarse. Las variaciones asignables o especiales tienen, por su parte,

un carácter esporádico y puntual provocando anomalías y defectos en la fab-

ricación perfectamente definidos, en cuanto se conoce la causa que origina ese

tipo de defecto y por tanto se puede eliminar el mismo corrigiendo la causa

que lo genera. El objetivo principal del control estadístico de procesos es de-

tectar las causas asignables de variabilidad de manera que la única fuente de

variabilidad del proceso sea debido a causas comunes o no asignables, es decir,

puramente aleatorias.

Deming ofreció catorce principios que presentó por primera vez en su libro

.Out of the Crisis"("Salir de la Crisis"). Estos 14 puntos de Deming son los

siguientes:

Crear constancia en el mejoramiento de productos y servicios, con el obje-

tivo de ser competitivo y mantenerse en el negocio, además proporcionar

puestos de trabajo.

24 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 33: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Adoptar una nueva filosofía de cooperación en la cual todos se benefician,

y ponerla en práctica enseñándola a los empleados, clientes y proveedores.

Desistir de la dependencia en la inspección en masa para lograr calidad.

En lugar de esto, mejorar el proceso e incluir calidad en el producto desde

el comienzo.

Terminar con la práctica de comprar a los más bajos precios. En lugar

de esto, minimizar el costo total en el largo plazo. Buscar tener un solo

proveedor para cada ítem, basándose en una relación de largo plazo de

lealtad y confianza.

Mejorar constantemente y por siempre los sistemas de producción, servi-

cio y planeamiento de cualquier actividad. Esto va a mejorar la calidad

y la productividad, bajando los costos constantemente.

Establecer entrenamiento dentro del trabajo (capacitación).

Establecer líderes, reconociendo sus diferentes habilidades, capacidades y

aspiraciones. El objetivo de la supervisión debería ser ayudar a la gente,

máquinas y dispositivos a realizar su trabajo.

Eliminar el miedo y construir confianza, de esta manera todos podrán

trabajar más eficientemente.

Borrar las barreras entre los departamentos. Abolir la competición y con-

struir un sistema de cooperación basado en el mutuo beneficio que abar-

que toda la organización.

Eliminar eslóganes, exhortaciones y metas pidiendo cero defectos o nuevos

niveles de productividad. Estas exhortaciones solo crean relaciones de

rivalidad, la principal causa de la baja calidad y la baja productividad

reside en el sistema y este va más allá del poder de la fuerza de trabajo.

Eliminar cuotas numéricas y la gestión por objetivos.

Remover barreras para apreciar la mano de obra y los elementos que

privan a la gente de la alegría en su trabajo. Esto incluye eliminar las

evaluaciones anuales o el sistema de méritos que da rangos a la gente y

crean competición y conflictos.

Instituir un programa vigoroso de educación y auto mejora.

Poner a todos en la compañía a trabajar para llevar a cabo la transfor-

mación. La transformación es trabajo de todos.

Gracias a su aportación a la mejora de la calidad de la industria japonesa

el premio de calidad japonés lleva su nombre "Premio Deming se considera

como el número uno entre los premios de calidad a nivel mundial. Además

BREVE RESEÑA HISTÓRICA 25

Page 34: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

los japoneses llaman a Deming .El padre de la tercera revolución industrial".

Posteriormente, los estadounidenses, ante el empuje de la industria japonesa,

recuperan estos conceptos que les habían pasado desapercibidos en la figura

del propio Deming y su más aventajado condiscípulo, Malcolm Baldrige.

Joseph Moses Juran (1904 - 2008) estudió ingeniería eléctrica en la Univer-

sidad de Minnesota y trabajó en la Western Electric en Hawthorne Works. En

1925, la Bell Labs propone que el personal capacitado de Hawthorne Works

trabaje en su recién desarrollado programa de control estadístico. Juran fue

seleccionado para unirse a la inspección del Departamento de Estadística este

hecho y su relación con las nuevas técnicas impulsa el rápido ascenso de Ju-

ran en la organización siendo ascendido a jefe de departamento en 1928, y al

año siguiente se convirtió en un jefe de división. Publicó su primer artículo

relacionado en calidad de Ingeniería electrolitica de fagor en 1935. En 1937, se

trasladó a Western Electric /AT&T en la sede de la Ciudad de Nueva York.

En 1941 Juran descubrió la obra de Vilfredo Pareto y amplió la aplicación

del conocido como "principio de Pareto.a cuestiones de calidad (por ejemplo, el

90% de un problemas es causado por el 10% de ciertas causas). Esto también

se conoce como "los pocos vitales y muchos triviales". Aunque Juran en los

últimos años ha preferido hablar de "los pocos vitales y los muchos útiles"para

indicar que el 80% restante de las causas no deben ser totalmente ignoradas.

Juran harán hincapié en lo que llamó "la dimensión humana de la gestión

de la calidad". Impulsó la educación y la formación de directivos creando un

instituo que lleva su nombre y sigue a ser una referencia en todo el mundo. Para

Juran, las relaciones humanas son los problemas para aislar. La resistencia al

cambio, en sus términos, la resistencia cultural la causa fundamental de las

cuestiones de calidad.

Es conocido también por lo que llegó a denominarse la "trilogía de Ju-

ran,ün enfoque de la gestión que se compone de tres procesos para la gestión:

la planificación, el control de la calidad y la mejora de la calidad

Además Juran propone 10 medidas para la mejora de la calidad:

Crear conciencia de la necesidad y oportunidad de mejorar

Establecer metas para la mejora

Crear planes para alcanzar los objetivos

Proporcionar capacitación

Llevar a cabo proyectos para resolver problemas

Informe sobre el progreso

Dar un reconocimiento para el éxito

Comunicar los resultados

Llevar la cuenta

26 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 35: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Mantener el impulso

Al igual que Deming, Juran también visitó Japón en 1966 y se interesó por

el concepto japonés de Çírculos de Calidad"que promocionó con entusiasmo a

su regreso a América. Durante su larga vida, (estuvo prácticamente en activo

hasta los 103 años de existencia) sería un gran impulsor de implementar las

ventajas del control de calidad y establecer contactos entre empresas japones

y americanas.

Genichi Taguchi ( ), nació en 1924 en Tokamachi siendo hoy día uno de

los líderes mundiales en la implementación del control de calidad. Estudió ini-

cialmente ingeniería textil con la intención de entrar en el negocio de la familia

kimono. Sin embargo, con la escalada de la Segunda Guerra Mundial, en 1942,

fue reclutado en el Departamento de Astronomía del Instituto de Navegación

de la Armada Imperial Japonesa. Después de la guerra, en 1948, ingresó en el

Ministerio de Salud Pública y Bienestar Social, donde bajo la influencia del

estadista Matosaburo Masuyama, que incentivó su interés en el diseño de ex-

perimentos. También trabajó en el Instituto de Estadística Matemática durante

este tiempo, y apoyó el trabajo experimental en la producción de penicilina en

la farmacéutica Morinaga.

En 1950, se incorporó al Laboratorio de Comunicaciones Eléctricas (ECL),

de la Nippon Telegraph and Telephone Corporation justo cuando el control de

calidad estadístico estaba empezando a ser popular en Japón, bajo la influen-

cia de W. Edwards Deming y la Unión Japonesa de Científicos e Ingenieros.

ECL se encuentra en una rivalidad con Bell Labs para desarrollar la barra

transversal y los sistemas de conmutación telefónica. Taguchi pasó doce años

en la elaboración de métodos para mejorar la calidad y fiabilidad. A partir

de esta experiencia se le empieza a consultar ampliamente en otras industrias

japonesas, como la conocida Toyota.

Taguchi fue también profesor visitante en el Instituto de Estadística de

la India, donde trabajó con Ronald. Fisher y Walter Shewhart. Tras concluir

su doctorado en la Universidad de Kyushu en 1962, dejó el ECL, manteniendo

una relación de consultoría. En el mismo año visitó la Universidad de Princeton

bajo el patrocinio de John Tukey, quien le proporcionó un periodo en los Lab-

oratorios Bell. En 1964 se convirtió en profesor de ingeniería en la Universidad

Aoyama Gakuin en Tokio. En 1966 inicia una colaboración con Yuin Wu, quien

más tarde emigra a los EE.UU., y, en 1980, invita a Taguchi a una conferencia.

Durante su visita, el propio Taguchi financia su retorno a los Laboratorios Bell,

donde su enseñanza inicial había tenido poco impacto duradero. Esta segunda

visita se inició una colaboración con Madhav Phadke y un creciente entusiasmo

por su metodología en los Laboratorios Belll y en otros lugares, incluyendo la

Ford Motor Company, Boeing, Xerox y ITT.

Desde 1982, Genichi Taguchi ha sido asesor de la Instituto japonés de Nor-

mas, y el director ejecutivo del Instituto de Proveedores de América, una or-

ganización internacional de consultoría.

Entre las aportaciones de Taguchi al control de calidad está sin duda la

BREVE RESEÑA HISTÓRICA 27

Page 36: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

función de pérdida, utilizada para medir la pérdida financiera de la sociedad

resultante de la mala calidad, la filosofía del control de calidad fuera de línea, el

diseño de productos y procesos basado en parámetros de diseño que determinan

el buen funcionamiento del equipo, y las innovaciones en diseño de experimen-

tos, en particular el uso de una serie de factores externos que son incontrolables

en la vida real, pero son sistemáticamente variadas en el experimento. Taguchi

afirma que es más barato rediseñar los procesos de fabricación y productos que

en las acciones de mejora de la calidad luego de un control.

1.3.12. Hitos históricos

A modo de resumen, se refleján los principales hitos históricos que han

tenido lugar a lo largo del pasado siglo XX, siglo que como se ha constatado,

fue esencial en la aparición de metodologías para el control de la calidad y la

fiabilidad:

1901: Se establecen los primeros laboratorios de estandarización en Gran

Bretaña.

1908: Gosset publica su distribución t de Student fruto de sus trabajos

en control de calidad de la cerveza en la conocida fábrica dublinesa de

Guiness.

1920: Se crea el departamento de calidad en la AT&Bell en USA y General

Electric en Inglaterra emplea control de calidad para sus lámparas.

1923: Fisher publica sus trabajos sobre diseño de experimentos en agri-

cultura

1924: Shewhart utiliza sus gráficos de control en los laboratorios de la

Bell.

1928: Dodge y Romig emplean controles de recepción en Bell Labs.

1930. Henry Ford establece la primera cadena de montaje.

1931: Shewart publica su trabajo sobre gráficos de control .Economic Con-

trol of Quality of Manufactured Product"

1932: Shewart imparte sus teorías en Inglaterra (University of Lonon).

1938: Shewart, invitado por Demig, imparte sus teorías en el U.S. De-

partment of Agriculture Graduate Schol

1940-43: Se publican distintas guias sobre control de calidad y de recep-

ción (Pentágono americano y Bell Labs)

28 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 37: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1944-46: Se crean institutos sobre calidad (American Society for Quality

Control, ASQC) y aparece la revita Industrial Quality Control.

1946-49: Deming imparte sus teorías en Japón. Se crea la sociedad japone-

sa JUSE (Japanese Union of Scientistis and Engineers).

1948: Taguchi comienza sus aplicaciones del diseño de experimentos a la

industria.

1949: Isikawa introduce los diagramas de causa-efecto.

1950: Aparece el texto sobre control de calidad de Grant y Duncan.

1951: Feigenbaum publica el libro Total Quality Control. La JUSE es-

tablece el premio de calidad Deiming.

1951: Box y Wilson presentan la metodología de superficies de respuesta

para la optimización de diseños de experimentos.

1954: Juran imparte sus teorías en Japón.

1954: Page utiliza sus gráficos CUSUM.

1957: Juran y Gryna publican la primera edición del manual Quality

Control Handbook.

1959: Aparece la revista Technometrics con Stuart Hunter como editor.

1959: Roberts introduce los gráficos EWMA.

1960: Box y Hunter publican sus trabajos sobre diseños factoriales frac-

cionarios.

1960: Ishikawa introduce sus teorías sobre los círculos de calidad.

1969: Se crea la revista Journal of Quality Technology cuyo primer editor

es Lloyd Nelson

1970-80: Aparecen varios textos sobre control de la calidad. Se aplica el

diseño de experimentos en la industria.

1984: Se crea una filial de la ASA (Americam Statistical Association)

sobre calidad (Ad Hoc Commitee on Quality and Productivity)

1987: Premio Nacional de Calidad de USA o premio Malcolm Baldrige.

1990: Aparece la ISO 9000.

1991: Premio Europeo a la Calidad o premio EFQM (European Founda-

tion for Quality Manegement).

BREVE RESEÑA HISTÓRICA 29

Page 38: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1997: Motorola aplica los modelos Six Sigma.

1998: Se publica el libro de Meeker y Escobar sobre fiabilidad.

1999: Premio del Modelo Iberoamericano de Excelencia en la Gestión

o premio FUNDIBQ (Fundación Iberoamericana para la gestión de la

Calidad).

2000: Se publican las normas ISO 9000:2000

1.4. Nuevas Metodologías

1.4.1. Cuadro de mando y modelos de excelencia

En los últimos años, para ayudar a las empresas y organizaciones en su

camino a la Excelencia en la Gestión de la Calidad han surgido una serie de

herramientas como son el Modelo EFQM de Excelencia, el Cuadro de Mando

o Seis Sigma.

El modelo conocido como Cuadro de Mando Integral (Balanced Scorecard)

utiliza como elemento clave los indicadores estratégicos para el control de los

procesos.

En general, el “Modelo de Excelencia” es un conjunto de criterios agrupa-

dos por áreas que sirven de referencia para implementar un plan de Gestión

de Calidad que pretende ajustarse a las bases de los grandes premios a la cali-

dad. Así, los modelos más populares son los basados en el Premio Nacional de

Calidad de Estados Unidos, conocido como “Malcolm Baldrige”, cuyo nombre

hace referencia al Secretario de Comercio impulsor del mismo. El premio Dem-

ing es el Premio Nacional a la Calidad en Japón. A nivel europeo, se crea en

1991 el Premio Europeo a la Calidad. Finalmente, el Modelo Iberoamericano

de Excelencia a la Gestión es el último en aparecer en 1999.. Algunas de las

más empleadas son as como son el Modelo EFQM de Excelencia, el Cuadro de

Mando o Seis Sigma.

El llamado “Modelo de Excelencia” es un conjunto de criterios agrupados

por áreas que sirven de referencia para implementar un plan de Gestión de

Calidad que pretende ajustarse a las bases de los grandes premios a la calidad.

Así, los modelos más populares son los basados en el Premio Nacional de Cali-

dad de Estados Unidos, conocido como “Malcolm Baldrige”, cuyo nombre hace

referencia al Secretario de Comercio impulsor del mismo. El premio Deming es

el Premio Nacional a la Calidad en Japón. A nivel europeo, se crea en 1991 el

Premio Europeo a la Calidad. Finalmente, el Modelo Iberoamericano de Exce-

lencia a la Gestión es el último en aparecer en 1999.El Cuadro de Mando es una

herramienta para la mejora de la Calidad basada en indicadores estratégicos.

30 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 39: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Partiendo de una misión (hecha por la organización) y una visión (lo que se

quiere convertir) se proponen estrategias que se seguirán mediante indicadores.

1.4.2. Metodología Seis sigma

Seis sigma es sin duda, la herramienta de mayor implantación para la

Gestión de la Calidad hoy en día. El término seis sigma que hace referen-

cia a la costumbre de representar la desviación típica con esta letra griega

sigma (), prima la importancia del control de la variabilidad, siendo pues una

metodología que tiene una fuerte base estadística.

Seis Sigma nace en los años 80 en la empresa Motorola, de la mano del Dr.

Mikel Harry, como un intento para conseguir mejoras sustanciales en la calidad

del producto. En sus primeros años Seis Sigma se circunscribía a la mejora de

procesos, pero entendida como mejora radical y profunda: una verdadera “rup-

tura” (según la propia terminología Seis Sigma) en los métodos de producción

tradicionales. Entre los objetivos de Seis Sigma está alcanzar unos niveles de

calidad en los procesos y productos que no superen los 3.4 defectos por millón.

En la década de 1990, Jack Welch, presidente de General Electric, decició

utilizar Seis Sigma consiguiendo resultados económicos espectaculares. Desde

entonces, Seis Sigma se ha convertido en una de las herramientas de mejora

más utilizadas, habiendo sido adoptadas, además de Motorola y General Elec-

tric, por compañías como Pollaroid, Toshiba, Honeywell, City Bank, American

Express, Movistar o Iberia, entre muchas otras. Aunque el concepto Seis (Six)

Sigma fue acuñado por Motorola los pasos de los que consta su aplicación fueron

llevados a cabo por primera vez en USA ya en 1985 en la empresa Florida Power

and Light cuando decidió solicitar el Premio Deming (Voehl, 2000).

Como se comentó una de las características de esta metodología está en

buscar los çero defectos". En términos prácticos puede decirse que un proceso

de producción tiene un nivel de calidad 6 sigma cuando a largo plazo presenta

poco más de 3 DPMO (defectos por millón de oportunidades). Este “nivel

sigma” de un proceso mide la distancia entre la media y los límites superior e

inferior de la especificación correspondiente.

Ha sido habitual considerar suficiente que un proceso tuviese una desviación

de ±3, lo que viene a significar que dicho proceso era capaz de producir sólo2.7 defectos por cada mil oportunidades (equivalente a 2700 DPMO), lo que

equivale a trabajar con un nivel de confianza del 9973%. Hoy en día este nivel

de calidad es inaceptable para muchos procesos. Por ejemplo en los procesos

que involucren varias componentes, si por se supone que la probabilidad de

fallo de cada componente es independiente, en el caso de contarse con 100 de

estas componentes, cada una con un nível de confianza del 99.73%, el niv-

el de confianza final del sistema sería inferior al 77% (0997310 = 0763) lo

que supondría que un 23% de los productos fuesen defectuosos. Teniendo en

cuenta muchos productos, como los automóviles, los barcos, aviones, etc. están

NUEVAS METODOLOGíAS 31

Page 40: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

compuestos por más de un millón de componentes estos niveles de calidad son

claramente inadmisibles.

Aunque es difícil encontrar situaciones en las que se obtengan estos niveles

tan altos de calidad, puede pensarse en el caso de la aviación lo que supone un

nivel de calidad seis sigma, este nivel se consigue cuando se analiza el porcentaje

de muertes en accidentes de aviación pero está lejos de conseguirse en la pérdida

de equipajes.

Más recientemente, y como consecuencia natural de la aplicación de la

metodología, el concepto Seis Sigma se ha extendido hasta convertirse en una

verdadera filosofía de gestión global de la empresa. Una de sus características es

que promueve la utilización de herramientas y métodos estadísticos de manera

sistemática y organizada, que permite a las empresas alcanzar considerables

ahorros económicos a la vez que mejorar la satisfacción de sus clientes, todo

ello en un período de tiempo muy corto.

Los cambios se consiguen traduciendo las necesidades de los clientes al

lenguaje de las operaciones y definiendo los procesos y las tareas críticas que

hay que realizar de manera excelente. Se fijan objetivos que además de buscar

la reducción de defectos relacionan esta mejora en ganancias a corto plazo para

la empresa o institución que los aplique.

Para su puesta en práctica, aunque requiere de la implicación de todo el

personal de la empresa, suelen formarse equipos técnicos que se gestionan sigu-

iendo cierta similitud con los grados de las artes marciales. Así es frecuente

que un equipo Seis Sigma esté liderado por un cinturón negro (black belt) con

varíos técnicos conocedores del proceso que harían el papel de cinturones verde

(green belts). En el artículo de Hoerl (2001) pueden verse las fases y exigencias

de formación de estos equipos Seis Sigma. Los elementos clave que soportan la

filosofía Seis Sigma son los siguientes:

(a) Conocimiento de los requerimientos del cliente.

(b) Dirección basada en datos y hechos.

(c) Mejora de procesos.

(d) Implicación de la dirección.

Entre sus características se encuentra el uso de una serie de etapas, el

denominado ciclo DMAIC, para conseguir la mejora de los procesos.

1.4.3. El ciclo DMAIC

La aplicación de la metodología Seis Sigma a un proceso consta de cin-

co etapas: Definición, Medida, Análisis, Mejora y Control; las siglas DMAIC

provienen de las correspondientes palabras inglesas (Breyfogle, 1999). Breve-

mente, el ciclo DMAIC podría decirse que se basa en Definir los problemas y

situaciones a mejorar, Medir para obtener la información, Analizar la informa-

ción recogida, Incorporar mejoras en los procesos y Controlar los procesos o

32 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 41: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 1-4 Capacidad según seis sigma.

productos existentes. Estas claves también se pueden evaluar en función de los

clientes y las prioridades:

(1) (D)efine. ¿Quiénes son los clientes y cuáles son sus prioridades?

(2) (M)easure. ¿Cómo es el proceso de medida y cómo se puede medir?

(3) (A)nalyse. ¿Cuál/es es/son la/las causa/s más importante/s de defec-

tos?

(4) (I)mprove. ¿Cómo eliminar las causas que provocan los defectos?

(5) (C)ontrol. ¿Cómo se pueden mantener las mejoras?

La Definición de un proyecto de mejora consiste en seleccionar aquel proceso

cuya mejora tendrá el mayor impacto positivo en las características del pro-

ducto que resulten críticas para la calidad, las determinadas CTQ (“Critical-

to-Quality”), según las ha definido el cliente. Pieza clave en esta etapa es la

herramienta denominada QFD o despliegue de la función de calidad.

En la etapa de Análisis es donde se aplican las herramientas estadísticas del

proceso: utilización de diagramas de proceso, herramientas de Ishikawa, etc.

1.4.4. Diseño para Seis Sigma (DFSS)

Aunque el ciclo DMAIC constituye un salto cualitativo hacia la mejora

continua, se puede ir un paso más allá. Cuando se trata de diseñar un nuevo

proceso o producto, o cuando el actual es francamente mejorable es mejor

partir de cero. Surge así el diseño para Seis Sigma (DFSS) que se basa en

partir de lo verdaderamente esencial, los requisitos del cliente, y llevar esos

requisitos hacia atrás, hasta la completa definición del producto, del proceso y

de sus respectivas especificaciones. Esto implica realizar el diseño conceptual

del producto y los estudios estadísticos de la información relevante que permita

determinar la capacidad de los procesos. La metodología DFSS es una forma

NUEVAS METODOLOGíAS 33

Page 42: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 1-5 DMAIC para seis sigma.

eficiente para asegurar la calidad en el producto final a través del diseño del

producto y del proceso.

Además el enfoque seis sigma se propone la aplicación de técnicas de Diseño

de Experimentos con el fin de identificar los factores clave y posteriormente

lograr mejoras sostenibles de rendimiento de la/s respuesta/s estudiada/s.

Hoy en día la filosofía Seis Sigma está siendo de gran aplicación en todo tipo

de organizaciones y se ha visto ampliado mediante las técnicas de optimización

basadas en eliminar lo innecesario, lo que se ha dado en llamar "Lean"(vocablo

que podría traducirse como .eliminar grasa"), surge así la metodología Lean Six

Sigma, que está siendo de gran apliación auspiciada por la gran crisis económica

mundial.

1.4.5. Lean y Just-In-Time

Lean Production (Womack et al., 1990; Womack y Jones, 1996) tiene su ori-

gen en la filosofía de conseguir mejoras en aspectos económicos haciendo espe-

cial hincapié en la reducción de desperdicios (grasa superflua=lean). Aunque su

primera aplicación fue realizada por Taiichi Ohno para la empresa automovilís-

tica Toyota a principios de 1950 (Dahlgaard-Park, 2000) será a principios de

este nuevo siglo XXI cuando la crisis económica vuelva a utilizar esta técnica

basada en la eliminación de todo aquello que encarezca el producto final sin

aportar beneficios claros. La idea que inspiró al japonés Ohno, a raíz de una

34 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 43: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

estancia en la empresa Ford de Detroit es que había demasiados residuos en

todas partes. Al regresar a Japón, creó pequeños equipos de trabajadores (cír-

culos de calidad) para animarles a trabajar juntos buscando el objetivo de la

reducción de desperdicios.

El sector del automovil fue y sigue siendo uno de los que mayor presión

existe para conseguir precios más competitivos y mejoras apreciables dada la

alta tecnología que emplea y la gran competencia existente entre las diferentes

marcas. Así el final de la década de 1980 se creo la asociación IMVP (Inter-

national Motor Vehicle Program) que utilizará la filosofía "lean production”

como filosofía de trabajo para un programa de mejora que realiza con el MIT

(Massachusetts Institute of Technology). En ese proyecto se recogieron datos

de los planes de montaje de automóviles en todo el mundo con el fin de com-

prender las diferencias en la calidad y la productividad. Los resultados de esta

evaluación comparativa fueron publicados en el conocido libro “La máquina

que Cambió el mundo” (Womack et al., 1990).

Hoy en día se ha puesto en valor este término ligado a la metodología

Seis Sigma, surgiendo asía la nueva técnica denominada "Lean Seis Sigma"que

persigue desde la perspectiva de la reducción de costes conseguir los objetivos

propios de reducción de defectos de Seis Sigma, utilizando ambas metologías

de forma conjunta para un mismo fin, la mejora de la calidad y el ahorro al

cliente.

Otro técnica para reducir el desperdicio (lean), también propuesta por el

japonés Ohno, es la llamada Just-In-Time (JIT) o modelo Kanban. Ohno se

inspiró en su visita a USA observando las cadenas de montaje de la empresa

Ford, que se perdía mucho tiempo con el problema de almacenamiento de

stoks, promoviendo la idea de almacenar sólo lo imprescindible de forma que

los desperdicios se podían reducir al no ser necesario un gran espacio para

mantener las piezas en stock.

Un ejemplo de aplicación de estas técnicas puede verse en la mayoría de las

empresas del automovil como Citroën. Pero debe mencionarse la apuesta que

en su momento tuvo Toyota cuando decide aplicar esta metodología Just-In-

Time que asociada a su propuesta de Control de la calidad total le permitieron

ser galardonada con el Premio Deming.

1.4.6. Desafíos actuales.

En los últimos años los desarrollos dentro del campo del control estadístico

de la calidad y la fiabilidad han estado centrados básicamente en dos ámbitos

fundamentales. En primer lugar, se pretende analizar detalladamente el efecto

del incumplimiento de las hipótesis estadísticas básicas sobre los gráficos de

control. En este campo, las direcciones presentes de investigación se centran

en:

1.- Análisis de la robustez de los modelos ante alteraciones en la hipótesis de

NUEVAS METODOLOGíAS 35

Page 44: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

normalidad, explorando el uso de contrastes distintos a los habituales cuando

no se cumpla esta hipótesis.

2.- Planteamiento no paramétrico del control estadístico de la calidad, de

reciente aparición en la bibliografía especializada, y que precisa tanto de la

especificación de nuevos gráficos de control como del estudio de su efectividad

frente a las técnicas paramétricas clásicas. Son de especial interés los trabajos

de Regina Liu sobre profundidad de datos aplicados a control de calidad.

3.- Desarrollo y análisis de técnicas de eliminación de la autocorrelación

muestral, que aborden el problema directamente desde un punto de vista mul-

tivariante y, por lo tanto, no haya que recurrir a la aplicación sucesiva de técni-

cas univariantes. Dentro de estas técnicas, cabe destacar la posible aplicación

de modelos de series temporales multivariantes para eliminar la correlación

existente entre las observaciones.

Un segundo campo de investigación está centrado en la construcción de

técnicas estadísticas que permitan la reducción eficiente de la dimensionalidad

y que exploten la estructura de correlación poblacional. Con este objetivo, se

abordan dos líneas fundamentales:

1.- La obtención de factores comunes dinámicos, generalización de la téc-

nica de correlación canónica de Akaike, que puede permitir la reducción de

la dimensionalidad sin pérdida excesiva de la cantidad de información mues-

tral. Concretamente, se está estudiando la distribución probabilística de los

mencionados factores comunes, que debe permitir la obtención de límites es-

tadísticos de control y el estudio de la potencia de los contrastes.

2.- Desarrollo de las técnicas de obtención de tendencias comunes, sobre

todo en espacio de estados, que permitan explotar la estructura de correlación

poblacional para obtener gráficos de control más eficientes que los clásicos en

la detección de observaciones fuera de control estadístico.

3.- El Control multivariante mediante imágenes, tanto estáticas como en

movimiento, es también un campo en el que las técnicas de control estadístico

como los modelos de clasificación (SVM) están resultando de gran aplicación.

Hoy en día las industrias enfrentan una competencia global intensa, un

mercado globalizado y complejo, una presión por ciclos de producción más

cortos, productividad basada en objetivos medibles (objetivo prioritario en la

industria alemana), restricciones de coste más severas, así como expectativas

de mejor calidad y fiabilidad por parte de los consumidores que hacen que las

técnicas estadísticas para el control sean más imprescindibles para la toma de

decisiones y la mejora.

1.5. Cuestiones y ejercicios

1.- Diferencias entre el control estadístico y el control ingenieril de procesos.

36 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 45: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

2.- En qué se diferencian las definiciones de calidad dadas por Taguchi y

por Juran.

3.- ¿Qué se entiende por retroalimentación o feedback en el contexto del

control de calidad?

4.- Compárese la metodología DMAIC con el conocido ciclo propuesto por

Shewhart denominado Plan-Do-Check-Act también llamado ciclo PDCA.

CUESTIONES Y EJERCICIOS 37

Page 46: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

38 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 47: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

HERRAMIENTASESTADíSTICASPARA

EL CONTROL DE CALIDAD

Contenido del tema: Introducción. Tipos de Control. Control Estadístico

de Procesos. Principales herramientas del control de calidad. Medidas carac-

terísticas. Gráficos de control.

1.6. Introducción.

El objeto de estos primeros capítulos es presentar los métodos estadísticos

de mayor aplicación en el campo del control de calidad y la fiabilidad, aunque

debe resaltarse que la mayoría de los métodos estadísticos aportan gran riqueza

para el estudio de la calidad y fiabilidad de los productos y servicios. Así,

propiciados por los avances en la informática han surgido nuevos conceptos,

algunos encuadrados dentro del campo del análisis exploratorio de datos y

otros dentro de lo que se ha llegado a denominar minería de datos, que son

también, sin duda, de gran utilidad para el control estadístico y que se irán

referenciando en capítulos posteriores.

Es evidente que para poder medir la calidad se necesita el empleo de méto-

dos de control. El papel que juega la estadística en todo este proceso de control

es crucial, una forma de expresarlo es la cita de William Hunter, profesor de

la Universidad de Wisconsin, quien afirmó: “Si se deben mejorar los niveles

actuales de calidad y productividad deben hacerse cambios en el modo en que

se hacen las cosas en la actualidad, debería disponerse de buenos datos que sir-

van como base racional sobre la cual hacer esos cambios. Una pregunta doble

aparece: ¿qué datos tomar? y, una vez recogidos, ¿cómo deben analizarse? La

Estadística es la ciencia que responde a esta doble pregunta”.

La importancia de la estadística para controlar la calidad es algo que nadie

pone en duda. Los juicios que no están respaldados por una buena elección y

estudio de datos no deberían de ser tenidos en cuenta. Bajo esta filosofía de

”hágalo con datos” cabe señalar la frase pronunciada por uno de los gurús de

la calidad, como fue el profesor Deming quien afirmaba: ”No hay conocimiento

que pueda contribuir tanto a la mejora de la calidad, productividad y compet-

itividad de las empresas como el de los métodos estadísticos”.

En este tema se hará una breve introducción a las herrmientas estadísticas

de mayor empleo para el control de calidad y fiabilidad, analizando aquellas

que se agruparían dentro de la estadística descriptiva o deductiva, enten-

dida esta como la parte de la estadística que trata de describir y analizar un

INTRODUCCIÓN. 39

Page 48: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

conjunto de datos sin sacar conclusiones o inferencias acerca de la población

que los ha generado. En un capítulo posterior se describirán otros métodos

estadísticos, que podrían agruparse dentro de la estadística inductiva o in-

ferencial (aquella parte de la estadística que trata de extraer conclusiones de

una muestra a la población) y que permitirán hacer estimaciones y modelizar

los datos obtenidos del proceso de control.

1.7. Análisis descriptivo de los datos

En esta sección se resaltarán algunos conceptos estadísticos básicos que

serán utilizados a lo largo del texto. Cabe mencionar que cualquier trabajo

sobre control de calidad o fiabilidad se basará en la recogida de información,

que habitualmente denominamos "datos", pero que podría llamarse con mayor

precisión ”individuos” (estos tendrán un sentido amplio, pudiento representar

tanto lámparas, como tornillos, motores, etc). Estos datos serán extraído de

cierto conjunto mayor, llamado desde la perspectiva estadística, población.

El proceso de toma de recogida de datos (individuos o datos de la población)

suele realizarse mediante la extracción de una parte de esa población teórica que

interesa estudiar a la que se llamará muestra , llamando tamaño muestral

al número de individuos de la muestra.

Es importante prefijar cuando se está hablando de muestra o de población,

en calidad y fiabilidad se trabajará siempre con muestras para estimar car-

acterísticas de interés de las poblaciones. Así se puede medir una muestra de

tornillos extraídos de un proceso de fabricación con objeto de analizar car-

acterísticas de toda la población de tornillos producidos en una determinada

fábrica. Como el estudio se llevará a cabo mediante la recogida de información

del proceso a partir de muestras, hará falta utilizar un determinado méto-

do de muestreo con la idea de posteriormente deducir (inferir) importantes

conclusiones acerca del proceso de estudio.

Una vez fijado el conjunto de datos, el interés se centrará en analizar car-

acterísticas de calidad o fiabilidad de un producto o servicio mediante la infor-

mación aportada por esos individuos. Estas carcaterísticas de interés, desde la

teoría estadística serán lo que se denominen variables estadísticas, que en el

caso en que sea utilizado un procedimiento de muestreo para su obtención, se

llamarán, con mayor precisión variables aleatorias , pues para el proceso de

muestreo serán usado un sistema de selección aleatoria de los datos que entren

a formar parte de la muestra.

Dependiendo de la característica de calidad analizada las variables suelen

dividirse en variables cualitativas y cuantitativas. Las variables cuantita-

tivas suelen además dividirse en discretas (toman un número finito o infinito

numerable de valores distintos) y continuas (pueden tomar cualquier valor en

un intervalo de valores real).

40 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 49: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Es importante precisar que la finalidad del análisis estadístico está en de-

scribir la variabilidad de los productos sometidos a control, partiendo de la

premisa de que no hay dos unidades de un mismo producto que puedan supon-

erse exactamente iguales, por ello el control y estimación de esta variabilidad

será uno de los objetivos de cualquier control.

Ejemplo 1.1 Con objeto de anlizar la calidad de las barras de acero laminado

utilizadas de forma habitual en la construcción de edificios, se seleccionaron 20

muestras de 5 de estas barras de la cadena de producción de la acería, en difer-

entes días, para analizar su calidad. Estas 100 barras de acero se sometieron a

una prueba de resistencia a la tracción y sus datos fueron recogidos en la tabla

(tabla **). En este ejemplo el interés es controlar una variable (de tipo con-

tínuo) como es la resistencia a la tracción del acero, para lo que se utiliza un

muestreo (muestra de tamaño 100) de la población total de barras fabricadas.

El proceso de muestreo consistió en seleccianar 20 días de forma aleatoria a lo

largo de todo un mes de producción, este proceso se realizó mediante la selec-

ción aleatoria de horas y días, eligiendo 5 de estas barras en cada uno de los

días seleccionados aleatoriamente. Puesto que cada día se realiza una proceso

de colada de acero distante el interés se fijó también en controlar las coladas

diarias, por lo que se buscará analizar también la variabilidad dentro de cada

colada y la diferencia entre coladas producidas en días distintos. Estas barras

se sometieron posteriormente a las pruebas de resistencia. Los resultados de la

resistencia a la tracción, medidos en Megapascales, se muestran en la siguiente

tabla.

Example 1 **tabla megapascales del acero.

1.8. Principales herramientas del control de cal-

idad

Históricamente se vienen empleando una serie de herramientas estadísticas

básicas en el control de la calidad y la fiabilidad que serán objeto de estudio

en detalle en esta sección. Entre ellas estarían las llamadas 7 herramientas

de Ishikawa, que por su frecuente uso en el pasado han sido denominadas

también las 7 magníficas (Guide to Quality Control (1972)). En su presentación

el profesor Ishikawa señalaba las siguientes: diagramas de flujo, tormenta de

ideas, diagramas causa-efecto (hoy también llamados de Ishikawa), diagramas

de barras, análisis de Pareto, histogramas y diagramas de dispersión

Además de estas 7 herramientas básicas, se han añadido a este grupo otra

serie de técnicas de gran implementación. Por ejemplo, posteriormente a la

presentación de estas 7 técnicas, el Instituto fundado por Joseph Juran, y que

lleva su nombre, propuso incluir entre las herramientas básicas las hojas de

PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 41

Page 50: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

recogida de datos, los mapas de procesos, los gráficos de cuartiles o Box Plot,

el análisis de estratificación y, por supuesto, los gráficos de control de Shewhart,

que serán tratados en capítulos posteriores. Aunque estas últimas técnicas son

de gran utilidad en la práctica habitual en el análisis descriptivo y exploratorio

de los datos, el motivo de que no fueran propuestas por Ishikawa, es porque

varias son posteriores en el tiempo, como es el caso de los diagramas de caja o

gráfico de cuartiles que fueron presentados por John Tukey en 1977.

A continuación se analizarán algunas de estas herramientas, buscando en

cada caso ejemplos de aplicación dentro del control de la calidad y la fiabilidad.

1.8.1. Hojas de datos

Las llamadas hojas de datos o de control son unos impresos adaptados

para la recogida organizada de datos de forma manual para su posterior es-

tudio estadístico. Requieren un cuidadoso diseño para que los datos recogidos

sirvan al propósito establecido por lo que su diseño dependerá de cada estudio

concreto. En algunos casos no son más que hojas para recopilar las frecuencias

de fallos o disconformidades, en otros pueden ser una representación gráfico del

objeto a controlar en el que se van anotando el lugar en el que se observan los

fallos, el interés es facilitar la recogida de información para su posterior análisis

estadístico y en algunos casos permiten la construcción en la misma hoja de

gráficos de Shewhart como el presentado en el siguiente gráfico (véase 1-6).

Ejemplo 1.2 Se muestra una tabla para la recogida de datos para el caso de

un control por atributos, con un gráfico de control en la misma hoja, lo que

facilita la visualización del proceso.

1.8.2. Diagrama de Pareto

Las tablas de distribuciones de frecuencias tienen la finalidad dar una

ordenada representación e interpretación de la información contenida en los

datos. Además de las tablas suele acompañarse el resumen de la información

mediante los correspondientes gráficos de barras de frecuencias. En el con-

texto del control de calidad es habitual representar estas frecuencias ordenadas,

unas veces por su valor absoluto y otras por el coste económico del producto

que se pretende controlar, ese tipo de gráfico con las frecuencias ordenadas es

el denominado gráfico o diagrama de Pareto .

El diagrama de Pareto es un gráfico que ordena una serie de aspectos

(problemas o causas de problemas) según su importancia relativa respecto a un

criterio determinado. Este tipo de representación de las frecuencias es de gran

42 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 51: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

 

12

34

56

78

91

01

11

21

314

151

61

71

81

92

02

12

223

242

52

62

72

829

303

13

23

33

43

53

63

738

39

40

11

-1

--

--

--

2-

-2

1-

1-

--

--

1-

-2

--

--

32

-1

--

-1

--

A B C D E F G H I J K L M N

2-

1-

-1

--

-1

11

-1

1-

--

--

--

-1

-1

1-

--

11

1-

--

--

-1

--

--

--

--

--

--

-1

--

--

-1

--

--

--

--

--

1-

--

--

--

--

--

-1

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

--

Ø d

el

vás

tag

o

Ø d

el

ext

rem

o

Ex

cen

tric

idad

Ro

sca

M-3

Re

bab

as

Pie

zas

def

ect

uo

sas

21

12

01

00

11

21

03

20

10

01

00

11

02

10

00

42

11

00

01

01

16

12 8 4 020

% d

efe

ctu

oso

10

0p

Defectos

Mu

est

ras

fuer

a

de

co

ntr

ol

31

31

Ø f

uer

a d

e t

ole

ran

cia

s

Cam

bio

de

va

rill

a

Mu

est

ra N

º

91

01

11

21

31

51

617

12.Ene.97

-

-

-

-

-

-

-

91

01

11

21

315

161

7

13.Ene.97

-

-

-

-

-

-

-

91

01

11

21

31

516

17

14.Ene.97

-

-

-

-

-

-

-

91

01

11

213

151

61

7

15.Ene.97

-

-

-

-

-

-

-

91

01

11

21

315

16

17

16.Ene.97

-

-

-

-

-

-

-

Ho

ra

Fe

ch

a

Pie

zaV

ást

ago

dig

oD

-06

07

34

quin

aT

orn

o a

uto

tic

o T

50

2O

per

ac

ión

To

rne

ar

y r

osc

arN

CA

2,5

Grá

fico

de

Atr

ibut

os

1º P

erío

do

% D

efe

ctu

oso

me

dio

Ob

ten

ido

3,8

LÍM

ITE

RE

CH

AZ

O

INT

ER

VA

LO

1

2º P

erío

do

% D

efe

ctu

oso

me

dio

Ob

ten

ido

2,3

LÍM

ITE

1

5,2

6

RE

CH

AZ

O

INT

ER

VA

LO

1

Esp

era

do

3,8

Esp

era

do

p10

0p10

0

Figura 1-6 Hoja de recogida de datos para un gráfico de control por atributos.

PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 43

Page 52: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

interés para un primer estudio cualitativo del proceso, cuando simplemente se

analizan disconformidades, pues permite agrupar, por orden de importancia,

aquellas causas que generan mayor frecuencia de disconformidades.

Es habitual que los procesos industriales, y muchos otros, sigan el determi-

nado ”Principio de Pareto” que afirma que un pequeño porcentaje de causas

(podría ser el 5%) es el que genera un gran porcentaje de problemas (que

podrían ser el 95%). Al visualizar en un gráfico de Pareto las distintas fre-

cuencias ordenadas con un orden de prioridad es posible analizar en qué parte

del proceso es más importante centrar el esfuerzo de mejora. Esta idea sería

posteriormente recogida por Juran, quien la traslada al contexto del control

acuñando la frase de ”pocos vitales y muchos triviales” y que viene a reflejar

que la mayoría de los defectos, y el coste que estos generan, provienen de un

pequeño número de causas.

Aunque el nombre del gráfico, que también se asocia con una determinada

distribución de probabilidad, proviene del economista italiano Wilfredo Pareto

(1848-1923), sería el economista americano Lorenz quien lo popularizaría al

representar el reparto de la riqueza mediante esta distribución. En el caso del

control de calidad, sería el propio Ishikawa quien dará importancia a este tipo

de representación al incluirlo como herramienta básica.

Para la construcción de este gráfico se parte de un sistema de ejes de coor-

denadas, representando en el eje de abscisas las modalidades de la variable y

en el eje de ordenadas las frecuencias. A continuación, sobre cada modalidad se

levanta un rectángulo de altura igual a la frecuencia (absoluta o relativa) rep-

resentada, siendo todos los rectángulos de igual base y ordenándose de mayor

a menor frecuencia.

Ejemplo 1.3 En el gráfico 1-7 puede verse un diagrama de Pareto donde se

representan los fallos anotados por el departamento de control de calidad de

un astillero en la construcción de un barco, se observa que cerca del 60% de

los fallos son debidos a problemas de soldadura, lo que aporta una interesante

información de cara a dónde centrar la mejora.

1.8.3. Diagrama causa-efecto o de Ishikawa

El llamado diagrama causa-efecto, que también se conoce como diagrama

de espina de pescado por su forma característica, permite analizar las causas

que influyen en un proceso al representar mediante un diagrama de forma visual

todas las causas.

Este gráfico suele utilizarse en un primer estudio de los efectos y suele ir lig-

ado al empleo de técnicas exploratorias como las conocidas como Brainstorming

(tormenta de ideas). El objetivo es simplemente visualizar de forma rápida y

ordenada el conjunto de causas que pueden originar un problema y sus posi-

bles relaciones, para facilitar, normalmente al grupo de personas conocedores

44 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 53: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

sold

adur

a

pint

ura

cald

erer

ía

otro

s

Pareto Chart for frecuencia.fallos.buque

Fre

quen

cy

020

4060

8010

0

0%25

%50

%75

%10

0%

Cum

ulat

ive

Per

cent

age

Figura 1-7 Gráfico de Pareto para fallos en construcción de barcos.

PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 45

Page 54: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

del proceso, una información resumida de todos los factores involucrados en el

estudio lo que permitirá proponer soluciones de mejora.

Históricamente, fue utilizado por vez primera por Kaoru Ishikawa en una

acería de Kawasaki para clasificar las diferentes causas que influían en la calidad

del acero, de ahí el nombre con el que también se conoce de diagrama de

Ishikawa. Luego sería adoptado como herramienta imprescindible por la JIS

(Japan Industrial Standard) que lo define como ”diagrama que muestra la

relación entre una característica de calidad y los factores de producción”

Puede verse un ejemplo del control de calidad de un acero en el gráfico ??.

Como puede verse permite analizar la estructura de las relaciones causa-efecto

que influyen en una característica de calidad de un producto.

**falta gráfico causa (espina de pescado)

1.8.4. Histograma.

Cuando se analizan características de una variable continua (e incluso en el

caso de variables discretas con muchos valores distintos resulta muy difícil apre-

ciar su distribución, para ello será necesario representar esos datos agrupándo-

los en intervalos y construir posteriormente un gráfico donde se represente las

frecuencias de datos por intervalo. A estos intervalos se denominan interval-

os de clase. Puede suponerse que cada intervalo es una modalidad, y elegir

como frecuencia de cada modalidad el número de observaciones agrupadas en

el intervalo correspondiente.

El histograma es la representación gráfica apropiada para la representación

de datos agrupados en intervalos de clase. Para su construcción se representa

en ejes de coordenadas. En el eje de abscisas se presentan los extremos de cada

clase, y, tomando como base de cada rectángulo la amplitud del intervalo de

clase correspondiente, se levanta sobre cada uno de los intervalos un rectángulo

cuya área es proporcional a la frecuencia de ese intervalo.

El histograma permite una visualización de la muestra analizada y pos-

teriormente también será una estimación de lo que se denomina función de

densidad de la variable aleatoria de interés, como se verá en el capítulo 4 de

este texto, posibilitando la modelización de la variable de estudio.

Aunque no existe un criterio unánime, para su construcción se recomienda

utilizar entre 4 y 20 rectángulos, a menudo suele elegirse un valor aproximado

a la raíz cuadrada del tamaño muestral. Aunque la amplitud de los intervalos

puede ser distinta, también es recomendable que estos tengan igual longitud

para proporcionar las alturas con las áreas de los rectángulos. Suele empezarse

con un valor ligeramente inferior al menor de los datos y terminar en un valor

ligeramente superior al mayor.

Ejemplo 1.4 En el gráfico de la figura ?? se representan distintas variables

de un estudio sobre la calidad del aire en la ciudad de New York. Pueden

46 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 55: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Histograma Ozono

Ozono

frec

uenc

ia0 50 100 150

010

2030

HistogramaRadiación Solar

RadiaciónSolar

frec

uenc

ia

0 50 100 200 300

05

1020

30

Histograma viento

Viento

frec

uenc

ia

0 5 10 15 20

010

2030

Histograma Temperatura

Temperatura

frec

uenc

ia60 70 80 90 100

05

1020

30

Figura 1-8 Diferentes histogramas de variables que analizan la calidad del aire.

observarse diferentes distribuciones de los datos para cada una de las variables

representadas. Mediante estos histogramas es posible un análisis visual de cómo

se distribuyen cada una de las variables de interés.

1.8.5. Diagrama de dispersión o correlación

Los diagramas de dispersión ponen de manifiesto la posible correlación entre

dos variables de estudio con la intención de observar posibles estructuras de

depencia funcional entre ellas (véase el gráfico 1-9). Para el estudio posterior

de la nube de puntos o diagrama de dispersión suelen emplearse modelos de

regresión que permiten encontrar cómo son estas depencias y se definenmedidas

estadísticas que permiten analizar como de fuerte son estas correlaciones.

Ejemplo 1.5 Se representa un diagrama de dispersión de la variable que anal-

iza la calidad del aire en Nueva York (1-9). La nube de puntos presenta la

relación del ozono con respecto al aumento de la temperatura.

PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 47

Page 56: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

60 70 80 90

050

100

150

Aire en NY

Temperatura

Ozo

no

Figura 1-9 Diagrama de dispersión que relaciona la temperatura con el nivel de

ozono.

48 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 57: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1.9. Medidas estadísticas

Para el estudio numérico de los datos será necesario definir una serie de me-

didas características. El objetivo de estas medidas estadísticas es medir alguna

característica de interés del proceso (variabilidad, simetría, etc.) aportada por

los propios datos con objeto de dar información cuantitativa del proceso. Estas

medidas suelen clasificarse en tres grandes grupos: de posición, de dispersión y

de forma.

Para su definición se supondrá que se parte de una muestra de tamaño

que se denotará por 1 2 de una variable de interés .

Las medidas de posición determinan una posición en el conjunto de los

datos. Normalmente suelen utilizarse medidas de posición central. La más im-

portante de estas medidas es la media aritmética. La media aritmética ()

y que se define como el valor numérico obtenido al sumar todos los datos de la

muestra y dividir por el tamaño de la muestra:

=1 + 2 + · · ·+

=1

X=1

Es interesante resaltar que la media conserva las transformaciones lineales

de los datos, es decir, si = + ( = 1 2 ) siendo y constantes

arbitrarias, entonces = +

Otra importante propiedad es que la media aritmética de las desviaciones

con respecto a es cero:

1

X=1

( − ) = 0

Además de la media aritmética también pueden definirse otro tipo de me-

dias, como la geométrica, la media armónica, la media cuadrática, etc. En este

contexto de control estadístico la media más utilizada es la aritmética por lo

que se denominará simplemente media a lo largo de este texto.

Además de la media es posible considerar otras medidas de posición como

el caso de lamediana (). Esta se define como la medida de posición central

que, supuestos los datos ordenados de menor a mayor, deja igual número de

valores a su izquierda que a su derecha. Una ventaja de la mediana con respecto

a la media es que es una medida robusta, es decir, menos sensible a la presencia

de observaciones atípicas en la muestra.

La moda (0) se define como el valor de mayor frecuencia de la muestra,

en el caso de tener los datos en intervalos de clase se introduce el concepto

de intervalo modal, que se define como aquel intervalo de clase al que le

corresponde mayor altura en el histograma de frecuencias y puede tomarse

como moda un representante de ese intervalo modal (por ejemplo, el valor

central de esa clase).

Los cuantiles son las medidas de posición que generalizan el concepto de

mediana. Supuestas ordenadas las observaciones de menor a mayor, se define

MEDIDAS ESTADíSTICAS 49

Page 58: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

el cuantil de orden p (0 1) como el valor que deja a lo sumo

observaciones a su izquierda y a lo sumo (1− ) observaciones a su derecha.

Además de los cuantiles, en ocasiones, si se utilizan porcentajes se pueden

definir de forma análoga los percentiles.

Por su gran interés en el análisis exploratorio de datos, suelen utilizarse

determinados cuantiles o percentiles, que se denominan cuartiles. El primer

cuartil 1 será el cuantil 0.25 (cuantil 1/4 o percentil 25) el segundo cuartil

2 corresponderá al cuantil 0.5 (cuantil 2/4 o percentil 50 que también será

igual a la mediana) y el cuartil de tercer orden o tercer cuartil 3 corresponde

al cuantil 0.75 ( cuantil 3/4 o percentil 75). Obsérvese que estas medidas de

posición dividen el conjunto de las observaciones en cuatro partes de igual

frecuencia.

Diagramas de caja

A partir de los cuartiles puede construirse el gráfico cuartil también llama-

do diagrama de caja. Estos son gráficos construidos para representar las carac-

terísticas principales de la muestra, permitiendo además identificar la posible

presencia de observaciones atípicas.

Para la construcción del diagrama o gráfico de cajas (box-plot en inglés),

se calculan previamente los 3 cuartiles (1 2 y 3) y unos valores extremos

y también denominados bigotes del gráfico, por lo que a este gráfico

también se conoce como gráfico de cajas y bigotes. Se define el bigote inferior,

denotado por como el valor de la menor observación mayor o igual que

1 − 105(3−1) y el extremo o bigote superior, corresponde a la mayor

observación menor o igual que 3 + 105(3 −1)

= mın { / ≥ 1 − 105(3 −1)} = max { / ≤ 3 + 1

05(3 −1)}

Las observaciones que caen fuera del intervalo ( ) se consideran datos

atípicos (outliers en inglés).

Ejemplo 1.6 Se observan los diagramas de cajas para el caso del ejemplo de

la calidad del aire en Nueva York (ver 1-10).

1.9.1. Medidas de dispersión

Las medidas de dispersión, como su propio nombre indican, tratan de medir

la dispersión o concentración de los datos. Las más populares son aquellas que

cuantifican la dispersión o variación con respecto a un valor central (en general

la media), pudiéndose interpretar como medidas de la representatividad de

dicho valor.

50 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 59: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

050

100

150

Box−plot Ozono

Ozo

no

050

150

250

Box−plotRadiación Solar

Rad

iaci

ón S

olar

510

1520

Box−plot Viento

Vie

nto

6070

8090

Box−plot Temperatura

Tem

pera

tura

Figura 1-10 Diagramas de caja para las 4 variables de la calidad del aire.

MEDIDAS ESTADíSTICAS 51

Page 60: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Suelen clasificarse en absolutas o relativas, según dependan o no de las

unidades de medida, debiendo utilizarse el último grupo para la comparación

de variables.

Se define la varianza como la media aritmética de los cuadrados de las

desviaciones con respecto a la media aritmética:

2 =1

X=1

( − )2

Se define la desviación típica como la raíz positiva de la varianza, esto

es, la media cuadrática de las desviaciones con respecto a la media aritmética:

=

vuut1

X=1

( − )2

Aunque tanto la varianza como la desviación típica son medidas de la

variación con respecto a la media aritmética y tienen un significado semejante,

el uso más frecuente en la práctica de la desviación típica se justifica porque

esta medida se expresa en las mismas unidades que los valores de la variable,

al contrario que la varianza, cuyos valores se expresan en unidades al cuadrado.

Es resaltable que tanto la varianza como la desviación típica toman siempre

valores no negativos. Además, si y son constantes cualesquiera e = +( = 1 2 ) se tiene que 2 = 22 y = ||Cuando se desea realizar comparaciones entre valores particulares de vari-

ables medidas en distinta escala, deberán utilizarse las variables tipificadas o

estandarizadas.

Se define la variable tipificada de una variable estadística como la vari-

able () que resulta de restarle su media aritmética y dividir por su desviación

típica:

= −

obteniéndose de esta manera una variable adimensional de media cero y desviación

típica unidad ( = 0 = 1)

En control de calidad es también utulizado el denominado recorrido o

rango de una muestra que no es más que la diferencia entre los valores ex-

tremos:

= max()−mın()Las medidas incluidas en este apartado se caracterizan por ser adimension-

ales (independientes de las unidades de medida) y, en consecuencia, serán las

apropiadas para establecer comparaciones entre variables que tomen valores

positivos. Así surge el interés de utilizar el coeficiente de variación. Este es

la medida de dispersión relativa más popular y, supuesto que 0 se define

como el cociente entre la desviación típica y la media

=

52 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 61: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Además de las medidas de posición y dispersión son útiles para conocer

la forma de una distribución las medidas de forma que permiten identificar

ciertas desviaciones en la forma de la distribución de frecuencias con respecto

a un modelo de referencia: la distribución normal, cuya funci–n de densidad

adopta una forma caracter’stica, conocida como campana de Gauss. Entre ellas

está el coeficiente de asimetría de Fisher. Esta medida relativa mide si las

observaciones están dispuestas simétricamente con respecto a la media y es

obtenible aunque la distribución no sea unimodal. Es la medida adimensional

definida por:

1 =1

P

=1( − )3

3

Si una distribución es simétrica o insesgada 1 ' 0 Si 1 0 diremos

que la distribución es sesgada a la derecha; diremos que la distribución es

sesgada a la izquierda si 1 0

1.10. Gráficos de control.

Dentro del control estadístico de procesos las herramientas clave son los

gráficos o cartas de control, en las que se representa la evolución en el valor de

un estadístico calculado sobre las mediciones de una característica de calidad

efectuadas sobre los elementos de muestras sucesivas.

Para construir un gráfico de control es necesario definir tres aspectos fun-

damentales:

1. Tamaño de la muestra

2. Intervalo de muestreo

3. Límites de control

La adopción del muestreo es crucial desde el punto de vista de la economía

del control. Antes del desarrollo del control estadístico, el control de la calidad

se basaba en la inspección del producto final y la separación (eliminación) de

aquellos productos considerados como defectuosos.

La inspección al 100% rigurosa, efectuada por un controlador experto que

utiliza métodos de medición absolutamente fiables, es la única que podrá darnos

la seguridad de que las piezas finales son aceptables.

Pero esta manera de proceder presenta una serie de problemas, por una

parte es demasiado costosa y por otra sirve únicamente para separar piezas

buenas de piezas malas.

Hay un consumo de recursos en la elaboración de las piezas que finalmente

son defectuosas, recursos que se pierden. Incluso aunque la pieza pueda ser

reparada o reprocesada, hay un nuevo consumo de recursos productivos y una

nueva inspección, aumentando el coste por unidad producida. La inspección

de 100% de los productos no implica que la inspección abarque el 100% de

GRÁFICOS DE CONTROL. 53

Page 62: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

los aspectos que deberían ser inspeccionados y provocará una sensación de

seguridad ficticia.

El control estadístico de procesos (CEP) representa una enorme ventaja

frente al enfoque clásico, pues mediante la determinación del tipo de muestreo

adecuado (procedimiento, tamaño de muestra e intervalo de muestreo) y la

medición del valor de una determinada variable usada para el control de calidad

y su representación en un tipo especial de gráfico (el gráfico de control) puede

tenerse un conocimiento preciso del comportamiento del proceso, permitiendo

a los analistas reaccionar adecuadamente frente a las variaciones.

Gracias a la metodología desarrollada por Shewhart el control de calidad

se desplazó desde la inspección del producto final a la etapa de fabricación

de los productos, de modo que lo que se intenta es minimizar la producción

de piezas defectuosas. Con el enfoque clásico de inspección a posteriori, no se

puede evitar el consumo de recursos que supone la producción de una unidad

defectuosa.

Se tiende a pensar que un gráfico de control no es más que la representación

gráfica de un contraste de hipótesis sobre la estabilidad de los parámetros

que rigen la distribución probabilística de una variable de calidad, usualmente

normal, pero detrás de ellos hay una metodología que se va a tratar de presentar

con mayor detalle en los temas posteriores.

Se definen cinco condiciones necesarias para definir una operación de control

de calidad:

1. Especificar, de forma general, cómo se examinará una secuencia de n

observaciones para indagar la existencia de causas asignables de variabilidad.

2. Especificar cómo se obtendrán los datos y cómo se organizarán de forma

que sea posible determinar si las condiciones bajo las que fueron obtenidos son

las mismas o no.

3. Especificar el criterio de control que se usará, indicando qué estadísticos

se emplearán y cómo intervendrán en la determinación de los límites de control.

4. Especificar qué acción se emprenderá cuando un estadístico observado

esté fuera de los límites de control.

5. Especificar de qué cantidad de datos que cumplan los criterios de control

debe disponerse para aceptar que el proceso ha alcanzado un estado de control

estadístico. Ya que las causas asignables de variación pueden estar presentes

desde el principio, es necesario que el proceso de control sea gradual.

Ejemplo 1.7 En la figura 1-11 pueden verse un gráfico de control que se

analizará con detalle en los temas siguientes.

54 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 63: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

xbar Chartfor diameter[1:40, ]

Group

Gro

up s

umm

ary

stat

istic

s

1 3 5 7 9 12 15 18 21 24 27 30 33 36 39

73.9

9074

.000

74.0

1074

.020

LCL

UCL

CL

Number of groups = 40Center = 74.0036StdDev = 0.01007094

LCL = 73.99009UCL = 74.01712

Number beyond limits = 2Number violating runs = 1

Figura 1-11 Gráfico de control tipo Shewhart para el diametro de 40 pistones.

S Chartfor x

Group

Gro

up s

umm

ary

stat

istic

s

1 3 5 7 9 11 14 17 20 23 26 29 32 35 38

0.00

00.

005

0.01

00.

015

0.02

0

LCL

UCL

CL

Number of groups = 40Center = 0.009435682StdDev = 0.01003811

LCL = 0UCL = 0.01971112

Number beyond limits = 0Number violating runs = 0

Figura 1-12 Gráfico de Shewhart para el peso de las latas de bonito.

GRÁFICOS DE CONTROL. 55

Page 64: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

56 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.

Page 65: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

2. CÓMO FUNCIONAN LOS GRÁFICOS

DE CONTROL

Contenido del tema: Introducción. Relación con los contrastes de hipótesis.

intervlaos de tolerancias. Tipos de gráficos de control. Calidad y coste. Inter-

pretación de los gráficos de control.

2.1. Introducción.

En este capítulo se introducirán los conceptos básicos sobre el funcionamien-

to de un gráfico de control, cómo y porqué resultan útiles para el control de la

calidad.

Como ya se ha comentado repetidas veces, la variabilidad es algo inherente

a cualquier proceso y su control será uno de los objetivos prioritarios de los

métodos estadísticos aplicados a la calidad. Para ello será necesario fijar unos

límites que delimiten hasta donde esta variabilidad puede suponerse debida a

çausas fortuitas". En el caso en el que en el proceso sólo se presentan este tipo

de causas se dirá que el proceso está bajo control estadístico. Existe otro tipo

de variabilidad que suele estar ligada a fallos en el proceso y que normalmente

se conoce como çausas atribuibles", cuanda estas causas están presentes se

dirá que el proceso está fuera de control. Un objetivo del control estadístico es

detectar la aparición de salidas de control o cambios importantes en el proceso,

es decir, visualizar cuando se presentan causas fortútas de cuando las causas

son atribuibles.

La forma más común para la construcción de un gráfico de control es dibu-

jando una línea central, que podrá ser una medida de posición (media, medi-

ana,...), una proporción o una medida de dispersión (rango, varianza, desviación

típica). En el gráfico suele presentarse otras dos lineas horizontales, llamadas

límites superior e inferior de control (LSC y LIC). Para la elección de estos

límites se buscará que cuando el proceso se encuentre bajo control estadísti-

co, çasi"la totalidad de los datos muestrales representados en el diagrama se

encuentren entre esos límites. Los puntos representados en el gráfico corre-

sponden a estimaciones de alguna característica de interés del proceso, medias

muestrales, proporciones, rangos, etc.

En el gráfico se van representando de forma correlativa los valores mues-

trales con objeto de poder monitorizar el proceso. Se acostumbra a unir los

valores representados mediante líneas poligonales para poder visualizar con

CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL 57

Page 66: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

mayor facilidad la salida de los límites de control, o la presencia anómala de

secuencias no aleatorias (rachas). Debe mencionarese que aún cuando todos los

valores muestrales se encuentren en los límites de control pueden presentarse

secuencias de valores por encima o por debajo de la línea central que indiquen

claramente una alteración en el proceso, para ello serán útiles realizar distintos

contrastes que permitan detectar estas salidas de control.

En la figuras 2-1 se representa un gráfico de control teórico. Como línea

central se dibuja la media del proceso, y como límites superior e inferior la

media más y menos 3 veces su desviación típica, sería pues un gráfico de control

de variables que se analizarán con detalle en el tema siguiente. La figura 2-2

muestra una salida de un gráfico de control para la media de una característica

de calidad.

Este tipo de gráficos se conocen también como gráficos tipo Shewhart en

honor a su creador, Walter Shewhart, que los empleó por vez primera en sus

trabajos en la Bell Telephone. La empresa americana Bell Telephone tenía

el objetivo de mejorar la fiabilidad de sus sistemas de transmisión. Debido a

que los amplificadores y otros equipos tenían que ser enterrados, había una

necesidad comercial de reducir la frecuencia de los fallos y reparaciones. Cuan-

do Shewhart se unió a la Western Electric Company Inspection Engineering

Department en 1918, la calidad industrial estaba limitada a la inspección de

productos terminados y la remoción de artículos defectuosos. Todo eso cambió

con las aportaciones de Shewhart. George Edwards, que era el jefe de calidad

de esta empresa recuerda: .El Dr. Shewhart preparó un pequeño memorandum

de sólo una página de longitud. Casi un tercio de la página lo ocupaba un

sencillo diagrama que todos reconocemos hoy día como un diagrama de con-

trol esquemático. Ese diagrama, y el corto texto que lo precedía y lo seguía,

establece todos los principios esenciales y consideraciones encerrados en lo que

hoy conocemos como Control Estadístico de Procesos."

Shewhart enmarcó el problema en términos de variacion por Causas Nor-

males o Aleatorias y Causas Especiales o Asignables e introdujo las gráficas

de control como una herramienta para distinguir entre las dos. Shewhart en-

fatizaba que traer proceso de producción a un estado de control estadístico,

donde solo hay variacion por Causas Normales o Aleatorias, y mantenerlo con-

trolado, es necesario para predecir el resultado futuro y administrar un proceso

económicamente.

En ocasiones resulta útil la representación de estos puntos muestrales con

sus correspondientes límites de tolerancias, es el denominado gráfico de toler-

ancias (véase la figura 2-3).

Hoy en día nadie discuta la bondad de los gráficos de control como una

potente herramienta que permite, entre otras coas, mejorar la productividad,

disminuir la variabilidad, evitar defectos, evitar ajustes innecesarios en las

máquinas y proporcionar información del proceso para su análisis y mejora.

58 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL

Page 67: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 2-1 Gráfico de control tipo Shewhart.

Figura 2-2 Gráfico de control de la media en el que se representan 20 subgrupos.

Figura 2-3 Gráfico de tolerancias en el que se representan todos los puntos

muestrales y sus límites de especificación.

INTRODUCCIÓN. 59

Page 68: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

2.2. Relación con el contraste de hipótesis

El funcionamienteo de un gráfico de control puede relacionarse con las ideas

que sustentan los contrastes de hipótesis. Como es conocido una hipótesis es-

tadística es una conjetura sobre una o varias características de interés.

Bajo esta teoría de los contrastes o test de hipótesis, se denomina hipótesis

nula, que habitualmente se denota por 0, a la hipótesis que se contrasta.

Esta hipótesis nula debe ser la hipótesis que el experimentador asume como

correcta. En el caso del control de calidad la hipótesis nula sería suponer que

el proceso está bajo control en cada una de las muestra selecciondas. Rechazar

la hipótesis nula implica asumir como correcta una hipótesis complementaria,

que en el contexto de los contrastes se denomina hipótesis alternativa y que

suele denotarse por 1. Un punto que esté fuera de los límites de control puede

interpretarse como un incumplimiento de la hipótesis nula y una aceptación de

la alternativa, es decir, dar por contrastado que el proceso ha salido de control.

2.2.1. Errores de tipo I y II o riesgos del vendedor y comprador

En un contraste de hipótesis, a la decisión de rechazar la hipótesis nula

cuando ésta es cierta se la denomina error de tipo I, en este contexto de con-

trol es más habitual denominarlo o riesgo del vendedor, mientras que al

error cometido al no rechazar la hipótesis nula cuando ésta es falsa se la de-

nomina riesgo del comprador (error de tipo II en el caso de los contrastes

estadísticos). Las cuatro posibles situaciones son:Situación real:

H0 es cierta H0 es falsa

No se Rechaza H0 DECISIÓN CORRECTA Error de tipo II o riesgo del c

Se Rechaza H0 Error de tipo I o Riesgo del vendedor DECISIÓN CORREC

En los contrastes de hipótesis se mide su potencia del test mediante la de-

nominada curva de potencia, sin embargo, en el caso de los gráficos de control

se utilizará la inversa de esta curva de potencia que se denomina curva carac-

terística de operación (curva OC de las siglas Operating Characteristics) y que

representa visualizar en una gráfico el error de tipo II (también llamado riesgo

) en función de distintos valores para la hipótesis alternativa. Es frecuente que

dicha curva se construya representando este error en función de la magnitud

del cambio que se pretende estudiar (normalmente expresado en unidades de

desviación estandar).

Ejemplo 2.1 En la figura ?? se represena la curva OC para un control por

variables, en el que se representa en el eje de ordenadas la probabilidad del

60 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL

Page 69: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

error de tipo II (error que se comete al aceptar que el proceso está bajo control

sin estarlo) mientras que el eje de abscisas muestra distintos valores para la

media del proceso.

Figura 2-4 Curva OC para la media de un proceso.

2.2.2. Subgrupos racionales. Tamaño de muestra y frecuencia de muestreo

En el diseño de gráficos de control una de las decisiones importantes es la es-

pecificar el tamaño muestral y la frecuencia de muestreo. En general, muestras

grandes facilitan detectar cambios pequeños pero cuando existe poca variabil-

idad en el proceso optar por muestras pequeñas puede ser un acierto. Para la

selección del tañano suele hacerse uso de las curvas OC. Si se representan para

distintos tamaño de muestra estas curvas puede ser un instrumento eficaz para

analizar el poder del gráfico.

Por otra parte la frecuencia de muestreo es otro factor importante a tener

en cuenta, lo habitual es considerar cuestiones económicas y del propio proceso

y encontrar un equilibrio entre el tamaño de las muestras y la frecuencia.

Cuando el gráfico de control se emplea para la monitorización en el tiem-

po de un proceso los subgrupos racionales deben de contemplar este factor y

pemitir analizar el proceso a lo largo del tiempo como se de una serie tempo-

ral se tratase. En el caso de controlar una variable con poca dispersión suelen

emplearse muestras pequeñas de tamaño 4 o 5 a intervalos cortos de tiem-

po. Cuando se estudia el control por atributos las muestras necesitarán ser

de mayor tamaño con objeto de poder aplicar las correspondientes aproxima-

ciones de las distribuciones discretas por una continua, como es el caso de usar

la distribución normal como límite de la binomial.

Para resolver el problema del tamaño y la frecuencia, Walter Shewhart pro-

puso elegir lo que denominó subgrupos racionales. La idea es la selección de

subgrupos o muestras de forma que si existen causas atribuibles la probabilidad

RELACIÓN CON EL CONTRASTE DE HIPÓTESIS 61

Page 70: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

de diferenciar entre estos subgrupos sea máxima, mientras que se haga mínima

esa probabilidad dentro del subgrupo.

Se emplean distintas formas para la construcción de los subgrupos racionales.

La más frecuente es cuando el objetivo del gráfico de control es detectar cam-

bios pequeños en el proceso. En este caso se buscará minimizar la variabilidad

dentro de cada muestra al tiempo que se maximiza entre muestras distintas.

Este primer enfoque proporcionará buenas estimaciones de la varibilidad en el

caso del control por variables.

Otro enfoque consiste en seleccionar muestras aleatorias en un determinado

intervalo de muestreo con objeto de tomar decisiones de la aceptación o no

del proceso estudiado. Este segundo método requiere de una interpretación

diferente de los gráficos de control. En procesos de la industria química es

frecuente que los datos no cambien en un período corto de tiempo por lo que

se construirán gráficos basados en datos individuales.

La selección adecuada del tamaño muestral y la secuencia de muestreo es

una tarea importante en la creación de los gráficos de control que deberá ser

estudiada con detalle, teniendo en cuenta el coste del proceso y determinadas

características del mismo que permitan maximizar la información que propor-

ciona este tipo de herramientas.

2.3. Tipo de gráficos de Control

Cuando la característica de calidad puede expresarse en términos de una

variable aleatoria continua (longitud, peso, resistencia,...) tendrá interés con-

trolar el valor medio y la variabilidad, para ello existe toda una teoría que

se engloba dentro del denominado control por variables. Estes gráficos serán

tratados con detalle en el tema siguiente.

En el caso en que lo que se tenga es sólo una propiedad como el producto

es defectuoso o no, se utilizarán gráficos de atributos. En este tipo de estudios

es habitual denominar conforme o no conforme y graficar bien el porcentaje de

conformes en función del tamaño de las muestras (gráficos p) o bien el número

de no conformidades por unidad muestreada (gráficos u).

En el caso de los gráficos de variables se buscará controlar una característica

medible,, cuyo objetivo o valor nominal, (en inglés Target: blanco u objetivo)

se representará por . Así, si representa a la variable aleatoria que mide la

longitud de una pieza, será la medida especificada por el diseño de la pieza

en cuestión. En este caso, supondremos que el proceso se ajusta de manera que

la media de la variable aleatoria es precisamente . El objetivo del control

de fabricación será mantener el proceso en estado de control: comprobando que

la media del proceso se mantiene en el valor nominal ( ) y que la dispersión se

mantiene entorno a unos límites. Cuando la media del proceso y su desviación

típica son conocidas, bajo la hipó tesis de normalidad, es posible calcular la

62 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL

Page 71: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

proporción de elementos producidos cuya característica estará comprendida

entre dos límites fijos.

2.4. Intervalos de tolerancia. Calidad y coste.

Una de las aportaciones del japonés Genichi Taguchi a la calidad ha sido la

incorporación de una función cuadrática para controlar el coste de producción

y tener en cuenta este a la hora de tomar decisiones. La idea será producir con

alta calidad pero sin aumentar el coste esto va permitir elegir unos intervalos de

especificación para los productos basados en el coste que supone su fabricación.

Se define intervalo de tolerancia para como el conjunto de valores que

se consideran admisibles, normalmente estarían marcados previamente al pro-

ceso de fabricación por el comprador del producto o por la siguiente línea de

producción.

Tradicionalmente, si una desviación mayor de hace que el producto sea

defectuoso, el intervalo de tolerancia se fijaba como [− +]. Este enfoquepresenta dos grandes inconvenientes. Uno de ellos es que, si el objetivo final es

fabricar componentes con característica nominal , no parece lógico considerar

igualmente buenas cualesquiera unidades incluidas en el intervalo [− +],sin tener en cuenta su cercanía a . Otro problema consiste en que, de esa

forma, no se está teniendo en cuenta el coste que tiene para el usuario la falta

de calidad (coste de la no calidad). Así, por ejemplo, no es igualmente grave el

fabricar una componente defectuosa que produce una avería final en un aparato

con un coste de reparación de 5000 euros que si el coste es de 500 euros.

Para tratar de resolver ambos problemas se introduce una función de coste

cuadrática también llamada función de Taguchi, que controle que las desvia-

ciones por exceso y por defecto del valor nominal presentan el mismo coste y

que las desviaciones pequeñas tengan un coste reducido, aumentando luego el

coste rápidamente. La expresión para el coste de una unidad con valor de la

característica medible es

() = · (− )2

donde la constante puede obtenerse haciendo uso del coste de reposición

de un elemento defectuoso. Así, si es el coste que para el usuario supone

reemplazar una unidad con 0 = ±, de la igualdad (0) = , se obtiene

que = 2 y, por tanto, la función de coste social o de Taguchi resulta

() =

µ−

¶2

Ejemplo 2.2 Considérese la fabricación de una pieza, con longitud nominal

de 625 mm y que es defectuosa si se desvía en más de 3 mm de este valor,

INTERVALOS DE TOLERANCIA. CALIDAD Y COSTE. 63

Page 72: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

siendo 300 euros el coste de reposición para el usuario de una pieza defectuosa.

En estas condiciones, la función de coste social es

() = 300

µ− 6253

¶2

El coste que para el usuario tiene una pieza de 626 mm es de 333 euros.

La determinación del intervalo de tolerancia, por parte del fabricante, debe

hacerse teniendo en cuenta el coste que para un usuario representa el que un

producto sea defectuoso. Denotando por el coste que tiene para el fabricante

la reposición de un producto defectuoso, puede calcularse f ácilmente el valor

que ha de tener la característica medible para que su coste social coincida con

este coste de reposición del fabricante, es decir, resolver () = , obteniendo

= ±

r

En base a estos razonamientos, el intervalo de tolerancia del fabricante debe

ser " −

r

+

r

#

ya que así el fabricante tendrá garantizado que si el usuario le repercutiese el

coste de cualquier producto dentro de dichas especificaciones, este sería menor

o igual que el de reposición.

Ejemplo 2.3 En el caso anterior, si se considera un coste de reposición para

el fabricante de 50 euros, su tolerancia de fabricación debe ser"625− 3

r50

300 625 + 3

r50

300

#= [623 78 626 22]

que es bastante más reducido que el intervalo de tolerancias técnicas [622 628].

En general, siempre que el coste de reposición para el usuario sea poco may-

or que el del fabricante, el intervalo de tolerancias de fabricación será sólo

ligeramente más pequeño que el de tolerancias técnicas. En caso contrario, el

intervalo puede reducirse considerablemente.

Dado que la característica medible se está suponiendo una variable aleatoria

con distribución normal de media y desviación típica , puede calcularse

fácilmente el coste social esperado (o medio) de la fabricación:

[()] =

[( − )2]

2=

2

2

Resulta claro, pues, que reducir la variabilidad de la fabricación equivale a

reducir los costes sociales por falta de calidad.

64 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL

Page 73: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

2.4.1. El concepto de capacidad

En todo proceso productivo se puede definir una medida de la capacidad

que el proceso tiene para cumplir para satisfacer sus especificaciones de calidad.

Para la determinación de la capacidad del proceso será necesario estimar ciertos

parámetros poblacionales a partir de sus correspondientes valores muestrales,

dependiendo de si se trata de control por variables o por atributos la capacidad

vendrá estimada por parámtros distinos.

Si la característica de calidad es continua y con distribución( ) cuando

el proceso se encuentra bajo control casi la totalidad de las unidades produci-

das (exáctamente el 9973% de las mismas) se encuentran en un intervalo de

amplitud 6, centrado en el valor nominal, . Matemáticamente,

( − 3 ≤ ≤ + 3) = (| − | ≤ 3) = Φ(3)−Φ(−3) =2Φ(3)− 1 = 2 · 0998650− 1 = 09973

Por ello, el intervalo [ − 3 + 3] se denomina de tolerancias naturaleso intrínsecas del proceso. Teniendo esto en cuenta se define la capacidad del

proceso como 6.

Para analizar la adecuación de un proceso a las especificaciones preestableci-

das es necesario conocer su capacidad. Supóngase que el intervalo de tolerancias

o especificaciones de fabricación de un proceso es (), centrado en .

Entonces, se define el índice de capacidad del proceso como el cociente entre

los límites de especificación y su capacidad.

= −

6

Para determinar este índice será preciso estimar el valor de la desviación

típica. Se verá en el tema siguiente como para esta estimación se podrán usar

distintas medidas de dispersión. Este es el índice más sencillo, que sin embargo,

se emplea con mayor frecuencia, aunque existen multitdo de índices, algunos de

ellos específicos para situaciones en los que fallan las hipótesis de normalidad

o simetría de la distribución de la variable analizada.

2.5. Interpretación de los gráficos de control

Para interpretar los patrones de un gráfico de control existen una serie de

pautas que pasamos a analizar.

Cambios bruscos en la media y/o en la variabilidad

Si existe un cambio brusco en la media, este se identificará por valores

extremos fuera de los límites de control en el gráfico de medias, pudiendo no

INTERPRETACIÓN DE LOS GRÁFICOS DE CONTROL 65

Page 74: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

verse afectado el de variabilidad. Si el cambio es la variabilidad del proceso

esto se verá reflejado en puntos extremos fuera de los límites de control tanto

en el gráfico de variabilidad como, posiblemente, en el de medias. Mientras que

en el de variabilidad los puntos extremos fuera de control serán de la misma

naturaleza, en el de medias podría salirse de control por extremos opuestos o

incluso algunos permanecer bajo control.

Tendencias o rachas

Si el desplazamiento de la media o de la variabilidad es paulatino a lo

largo del tiempo, esto se manifiesta en lo que habitualmente se denota por

racha, un alineamiento de valores consecutivos de un mismo lado respecto a la

línea central (bien todos por encima o por debajo de la misma). Una racha se

considera indicativa de anormalidad cuando está constituida por 7 u 8 valores.

Así, que aparezca una racha de 8 valores por encima de la media, por azar,

tiene una probabilidad aproximada de 0004.

Periodicidades

Son repeticiones cíclicas de alguna de las gráficas de control. Habitualmente

denotan diferencias entre turnos o estacionalidad en la calidad de la materia

prima, por ejemplo. También pueden ser indicativas de que alguna variable

ambiental (que fluctua con el día, o con la estación del año) tenga alguna

influencia en el proceso.

Inestabilidad

Consiste en la presencia de grandes fluctuaciones que, en ocasiones, pueden

provocar que algún valor caiga fuera de los límites de control. Suelen deberse a

un sobreajuste de la máquina, a la presencia de heterogeneidad en la materia

prima (mezclada a lo largo del tiempo, en almacen, por ejemplo) o a falta de

entrenamiento de un operario.

Sobreestabilidad

Es el fenómeno contrario y se da cuando la variabilidad es menor de la es-

perada. Resulta muy importante identificar esta situación y analizar las causas

que la producen, ya que así podrá reducirse la variabilidad del proceso y au-

mentar, por tanto, su capacidad.

Una forma práctica de identificar esta situación consiste en dibujar una

serie de líneas auxiliares en el gráfico de control, a una y dos desviaciones

típicas, tanto por encima como por debajo, de la l ínea central. Si el proceso

se encuentra bajo control, alrededor del 68 de los puntos se encuentran en la

franja comprendida entre las más cercanas de estas líneas (±). Una presenciasustancialmente mayor de valores en esta zona, indica sobreestabilidad.

66 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL

Page 75: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

En ocasiones resulta cómodo distribuir las zonas en función del número de

desviaciones, como zonas A, B y C, según se separen en 3, 2 o 1 veces de la

desviación y contar el número de rachas por encima o debajo de estas zonas,

así como las tendencias ascendentes y descentes o los puntos fuera de control

(véase el gráfico 2-5).

Entre los diferentes criterios que se siguen para analizar los gráficos de

control y tomar decisiones están la reglas de la Western Electric (que no es

más que uno de los muchos ejemplos que se pueden encontrar). Estas reglas

dicen que una salida de control estaría indicada si ocurre uno de los siguientes

casos:

Un punto cae fuera de los límites 3 sigma.

Dos de tres puntos caen fuera de los límites dos sigma.

Cuatro de cinco puntos consecutivos se encuentran a una distancia de un

sigma o más de la línea central.

Ocho puntos consecutivos se encuentran al mismo lado de la línea central.

Figura 2-5 Distintas situaciones de fuera de control en un gráfico Shewhart.

INTERPRETACIÓN DE LOS GRÁFICOS DE CONTROL 67

Page 76: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

68 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL

Page 77: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

3. EL CONTROL DE FABRICACIÓN

POR VARIABLES

Contenido del tema: Introducción. Gráficos de control de la media. Capaci-

dad del proceso. Curvas OC. El ARL en el control por variables. Ejercicios del

tema.

3.1. Introducción.

Cuando la característica de calidad puede expresarse en términos de una

variable aleatoria continua (longitud, peso, resistencia,...) normalmente el in-

terés se centrará en controlar el valor medio y la variabilidad de esa variable,

para ello existe toda una serie de métodos que se engloban dentro del denomi-

nado control por variables.

Se supondrá que la finalidad es controlar una característica medible, ,

cuyo objetivo o valor nominal, (en inglés Target) se representará por . Así,

si representa a la variable aleatoria que mide la longitud de una pieza,

será la medida especificada por el diseño de la pieza en cuestión. En este caso,

supondremos que el proceso se ajusta de manera que la media de la variable

aleatoria es precisamente . El objetivo del control por variables será doble:

controlar la media del proceso y controlar su variabilidad.

3.2. Gráficos de control para variables

El control de la media del proceso suele hacerse con el llamado gráfico de

control de medias. Dado que durante la propia recogida de información podría

ocurrir que el proceso pasase a una situación fuera de control, es aconsejable

tomar varias muestras de tamaño pequeño e igualmente espaciadas a lo largo

del intervalo de producción.

Lo habitual, como ya se mencionó en el capítulo anterior, es elegir un

número de muestras de un determinado tamaño. Se denotará por el -é

simo elemento de la -ésima muestra y siendo el número de muestras y el

tamaño de las mismas. De este modo un estimador de la media del proceso sería

la media muestral de las muestras, que se denotará por y que corresponde

EL CONTROL DE FABRICACIÓN POR VARIABLES 69

Page 78: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

con la media muestral conjunta de los datos:

=

P

=

P

P

con =

Para el caso de la estimación de la variabilidad, aunque podría proponerse

la cuasivarianza muestral conjunta, dada por:

2 =

P

=1

P

=1( − )

− 1

Esta no resulta ser una buena estimación debido a que no tiene en cuenta

el hecho de que los datos provienen de distintas submuestras y si estas difieren

mucho de unas a otras, el valor de 2 será demasiado grande, subestimando la

varianza del proceso. Es decir, con este método se combinaría la variabilidad

dentro de las muestras con la variabilidad entre las muestras, pero lo ideal será

que la variabilidad se base sólo en una medida que analice la situación dentro

de las muestras, para lo que se proponen estimaciones basadas en calcular la

varianza o recorrido de cada submuestra por separado para luego utilizar su

media.

No debe olvidarse que el estado de control no es algo espontáneo sinó un

logro en sí mismo, por ello es probable que no todas las muestras provengan

de la misma población. Por este motivo se utilizan los gráficos de control.

El objetivo del control de procesos es detectar, lo antes posible, que el proce-

so está fuera de control. Una vez detectada la salida de control del proceso debe

iniciarse una investigación con el objeto de encontrar cual es la causa asignable,

eliminarla del proceso y volver a la situación bajo control. Este método asegu-

ra que la variabilidad final que recibe el cliente sea mucho menor que si no se

realizara el control, independientemente de que todas las piezas puedan seguir

siendo correctas en cuanto a que pertenecen al intervalo de tolerancias.

Para el diseño de este tipo de gráficos es necesario especificar el tamaño de

la muestra, la amplitud de los límites de control y el intervalo de muestreo que

se va a utilizar. Para dar una solución exacta a este problema de estimación es

necesario contar con la ayuda de las personas involucradas en el proceso y tener

también en cuenta los factores económicos del muestreo. En un primer estu-

dio analizaremos la estimación de este tipo de gráficos dando unas directrices

genéricas sin valorar estos aspectos económicos.

Para determinar la capacidad del proceso se deben obtener datos de su

funcionamiento en condiciones normales, es decir, tratando de eliminar primero

todas las causas asignables de variación. En ese supuesto, estimar la capacidad

en el caso del control por variables equivale a estimar la desviación típica de la

caracter ística medible, .

Para la construcción de los gráficos de control supondremos que se toman

de muestras aleatorias de tamaño n de los objetos de interés que se suponen

homogéneas. A continuación se siguen los siguientes pasos que serán diferentes

según se estén utilizando las desviaciones típicas muestrales o los recorridos

70 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 79: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

3.2.1. Gráficos de control ()

Para el control de una característica medible y representada por una vari-

able aleatoria , existen dos tipos de gráficos, por una parte gráficos que nos

ayuden a controlar la posición (gráficos de la media o mediana) y por otra los

que controlan la dispersión (gráficos de desviaciones, varianzas o recorridos).

Por tradicción, uno de los más populares es el basado en los rangos, básicamente

por su gran facilidad de cálculo.

El rango o recorrido de la muestra −ésima no es más que la diferenciaentre la mayor y la menor de sus observaciones:

= max()−mın()Bajo la hipótesis de que la distribución es normal, puede calcularse la dis-

tribución del rango muestral. En particular, su media es 2, donde 2 es una

constante que depende del tamaño muestral, , y que suele darse tabulada.

En procesos bajo control, en los que se supone conocida, puede construirse

un gráfico de control para la dispersión, medida ésta mediante rangos. Tomando

como linea central el valor esperado del rango muestral (2) y como límites

de control los dados por las constantes tabuladas (1 y 2), se realiza una

gráfica en la que se representan los rangos muestrales. Cada vez que uno de ellos

se salga de los límites de control diremos que el proceso no está bajo control.

También están tabulados los coeficientes 1 y 2 que definen el intervalo en

el que se debe encontrar el rango muestral con una probabilidad del 99% para

una población normal de varianza 1.

Puesto que 2 es un estimador insesgado de y, por tanto, su media (a

lo largo de todas las muestras) también lo será. Definiendo

=

P

se tiene entonces que podemos estimar mediante 2 y construir los límites

de control de los gráficos de medias (llamados ahora gráficos ()) mediante:

± 3√2

En donde es la media global de todos los datos o, lo que es equivalente,

la media de las medias de cada submuetra:

=

P

=

P

P

con =

Si todas las muestras provienen de la misma distribución entonces se tiene

que √2( − )

GRÁFICOS DE CONTROL PARA VARIABLES 71

Page 80: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

tiene distribución aproximada (0 1). Con lo cual cada valor debe estar en

el intervalo ∙− 3√

2 +

3√2

¸=£−2 +2

¤con probabilidad aproximada del 9973% Utilizando intervalos de amplitud 3

sigma se tiene una probabilidad de cometer un falsa alarma o error de primera

especie igual al 27 por mil, ya que 1 − = 00027 Al igual que ocurría

con 2 1 y 2 las constantes 2 están también tabuladas para distintos

valores de , aunque hoy en día se emplean paquetes estadísticos que calculan

automáticamente y representan gráficamente estos límites.

Se obtienen los valores de los límites de control 3 para la media como:

= −2

=

= +2

Análogamente, como ya se comentó es importante calcular otros gráficos

para el control de la variabilidad. Así el gráfico de variabilidad mediante rangos

tiene una línea central con altura y líneas de control 3 y 4, estando

3 y 4 también tabuladas.

Para la determinación de 3 y 4 se debe de tener en cuenta que la idea es

construir límites de control inferior y superior para el recorrido medio (la línea

central en este caso será ). Si suponemos que = 3 un estimador para

será:

b = 3

2

por lo que podremos obtener como límites de control 3:

= − 3b = − 332= 3

=

= + 3b = + 33

2= 4

donde las constantes, antes mencionadas 3 y 4, que vienen dadas por:

3 = 1− 332

4 = 1 + 33

2

están tabuladas en función de los valores de .

72 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 81: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

3.2.2. Gráficos de control ( )

Como se comentó anteriormente para el caso de los recorridos, se partirá

de muestras de tamaño . En este caso la idea es utilizar las desviaciones

típicas de cada submuestre en lugar de los rangos, por lo que los pasos para la

construcción del gráfico ( ) serán los siguientes:

1. Calcular la media y la desviación típica de cada muestra, y , respec-

tivamente ( = 1 2 ).

2. Calcular la media y la desviación típica global. La media global no es más

que la media de las medias muestrales, que puede calcularse promediando

las medias de cada submuestra o bien promediando el total de los datos

()

=

P

=

P

P

con =

Esta media resulta ser un estimador insesgado de la media teórica,

(también denominda por en este contexto). Como, la desviación típica

muestral es un estimador sesgado (aunque asintóticamente insesgado) de

la desviación típica teórica. De hecho se tiene [] = 2, donde 2 es

una constante, dependiente de , que suele venir tabulada. De esta forma,

2 es un estimador insesgado de y ello motiva el utilizar

=

2=

P

2

como estimador (centrado) de la desviación típica teórica.

Si la varianza fuese la misma en todas las muestras, el estimador prop-

uesto es ligeramente peor que el basado en la media de las cuasivarianzas

2 =

P 2

=

P

P( − )

2

(− 1) =

X

2

que es insesgado para 2, pero cuya raíz cuadrada no lo es para . La

razón de usar = 2 es que es más robusto.

3. Contrastar si todas las medias son homogéneas. Si todas las muestras

provienen de la misma distribución entonces se tiene que√2( − )

tiene distribución aproximada (0 1). Con lo cual cada valor debe

estar en el intervalo ∙− 3√

2 +

3√2

¸con probabilidad aproximada del 9973 Utilizando intervalos de amplitud

3 sigma se tiene una probabilidad de cometer un falsa alarma o error de

primera especie igual al 27 por mil, ya que 1− = 00027

GRÁFICOS DE CONTROL PARA VARIABLES 73

Page 82: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

4. Podremos obtener los valores de los límites de control 3 para la media

como:

= −1

=

= +1

en donde 1 =3√2

Para ejecutar el contraste de que las muestras, lo que equivale a realizar

contrastes de hipótesis, se suele hacer uso de un gráfico en el que se representa

en abscisas el tiempo (el numero de muestras elegidas de forma temporal) y

en ordenadas la media de la muestra en cuestión. Dibujando dos líneas hori-

zontales, o límites de control, de altura igual a los extremos del intervalo ante-

riormente mencionado, se comprueba fácilmente cuando alguna de las medias

en cuestión cae fuera de los límites de control, siendo esto indicación de que el

proceso, en ese instante, está fuera de control.

3.2.3. Gráfico de desviaciones típicas

Este es un gráfico en el que se mide la variabilidad de cada muestra haciendo

uso de su desviación típica, . Puede demostrarse que un intervalo que contiene

a la desviación típica muestral con probabilidad aproximada de un 9973%

es el dado por (34) donde las constantes 3 y 4 (que dependen de )

están tabuladas.

Para construir este gráfico de control se procede de la siguiente forma:

1. Dado , encontrar los valores 3 y 4 y calcular . Con todo ello obtener

los límites inferior 3 y superior 4 de control.

2. Construir un gráfico que presente en abscisas el tiempo y en ordenadas

los valores . Trazar también las líneas central ( ) y los límites de control

(3 y 4).

3. Si alguna de las desviaciones típicas se sale de los límites de control, se

admite que el proceso no está bajo control en ese instante.

3.2.4. Gráficos de control ( b)Es frecuente, la mayaría de los programas de ordenador lo hacen, usar las

cuasidesviaciones típicas, , en lugar de las desviaciones típicas muestrales, en

74 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 83: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

este caso los valores de las constantes cambian. De hecho se tiene [] = 4,

donde 4 es una constante, dependiente de , que suele venir tabulada. De esta

forma, 4 es un estimador insesgado de y ello motiva usar:

=b4=

P

4

como estimador (centrado) de la desviación típica teórica.

El valor 4 viene dado por la expresión:

4 =

r2

− 1Γ¡2

¢Γ¡−12

¢Podremos obtener los valores de los límites de control 3 para la media

como:

= −3

=

= +3

en donde 3 =3√4

En este supuesto que 4 se utiliza para estimar la desviación típica, se

pueden obtener los siguientes límites para el gráfico de dispersión:

= 3

=

= 4

en donde 3 = 1− 34

p1− 24 y 4 = 1 +

34

p1− 24

3.3. Otros gráficos de control para variables

Aunque los gráficos vistos anteriormente son los más utilizados, existen

otras opciones.

3.3.1. Gráficos con valores poblacionales conocidos

Cuando se conocen la media o la desviación de la variable a estimar podría

utilizarse estos valores para la construcción de los diagramas de control:

OTROS GRÁFICOS DE CONTROL PARA VARIABLES 75

Page 84: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

= −

=

= +

en donde = 3√

Del mismo modo para la construcción de un gráfico tipo conociendo la

desviación teniendo en cuenta que = 2 y que = 3 quedaría:

= 2 − 3 = 1

= 2

= 2 + 3 = 2

en donde 1 = 2 − 33 y 2 = 2 + 33

Ejemplo 3.1 Ejemplo de un gráfico de control de medias para 20 muestras.

Figura 3-1 Gráfico para la media con 20 subgrupos utilizando las desviaciones

típicas.

76 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 85: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

3.3.2. Gráficos probabilísticos

También existe la opción de utilizar gráficos basados directamente en la

varianza muestral del proceso (o en la cuasivarianza) 2 :

=2

− 122−1

= 2

=2

− 121−2−1

en donde 22−1 y 21−2−1 denotan los cuantiles correspondientes de la

distribución Chi-cuadrado de Pearson con n-1 grados de libertad. En el caso

que se tuviese un valor conocido de también podría utilizarse en la expresión

anterior.

3.3.3. Gráficos para medidas individuales

En el supuesto que lassubmuestras utilizadas sean de un solo valor, es decir

el tamaño muestral es 1, este es un caso frecuente en control de calidad de

industrias químicas, en las que no tiene mucho sentido tomar muestras de varias

unidades de la misma mezcla (piensese en una cervezera). En este suelen usarse

medias móviles de distinto orden o la amplitud móvil entre dos observaciones

sucesivas para estimar la variabilidad del proceso, a partir de estas amplitudes

se estimaría la media de esos rangos. Así si se utilizasen sólo dos valores las

constantes utilizadas para el gráfico serían las equivalentes a las usadas de una

muestra de tamaño = 2 que resulta un valor de 2 = 1128

Si en alguno de los dos gráficos anteriormente citados hay alguna muestra

que se sale de los límites de control, la eliminaremos, pasando a representar

nuevamente los gráficos excluyendo los valores fuera de control. Si en ese mo-

mento todas las muestras se hallan bajo control, las consideraremos un grupo

homogéneo y en caso contrario procederemos como se acaba de indicar, elim-

inando las muestras fuera de control y repitiendo el proceso hasta obtener un

grupo homogéneo.

Ejemplo 3.2 Para controlar la calidad de un producto se toman = 25 mues-

tras de tamaño = 6 y se calculan la media y la desviación típica de cada una

de ellas. A continuación se adjuntan los resultados de las medias de cada mues-

tra, indicando entre paréntesis su desviación típica: 53 (93), 51 (31), 48 (25),

48 (13), 48 (67), 51 (79), 49 (38), 51 (82), 48 (26), 49 (54), 47 (44),

47 (51), 57 (29), 51 (41), 48 (14), 49 (42), 52 (53), 50 (66), 51 (67), 51

(81), 49 (60), 50 (79), 49 (98), 46 (42), 47 (35). En este caso los límites

OTROS GRÁFICOS DE CONTROL PARA VARIABLES 77

Page 86: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

para los gráficos de control. Para el gráfico de medias las líneas de control son

+ 3√2= 5634 y − 3√

2= 4286, con línea central en 496 Por su parte,

para el gráfico , las líneas de control son 4 = 1032 y 3 = 01597, con

línea central en 524. A partir del total de 25 muestras la estimación para la

media del proceso es 496 y para la desviación típica, 551.

Ejemplo 3.3 Mediante los gráficos de control ( ) y , resulta fácil ver que

la muestra número 13 (con una media de 57 y una desviación típica de 29) se

sale de control en el gráfico de medias. Si se procede a eliminarla y se calculan

nuevamente los límites de control (5616 y 4242, para el de medias, con línea

central en 4929 y 1051 y 01627, para el de desviaciones típicas, con l ínea

central en 534). Ahora ya no hay ninguna muestra que se salga de control y,

por tanto, finaliza el procediento para determinar la estimación de la media y

la varianza del proceso, siendo esos valores = 4929 y = 561. De hecho, el

intervalo de tolerancias naturales del proceso sería (32 46 66 12), de longitud

33 66.

Determinar el número de submuetras k, en un gráfico de control para la

media, en el que queremos elegir submuestras de tamaño 4, y pretendemos que

la diferencia entre el valor nominal y la media muestral no sea superior a 5

milésimas con un riesgo = 01 suponiendo una desviación tipica de 0.02

Utilizando la fórmula para un intervalo de confianza en el que el tamaño

muestral sería , se obtiene

=

µ · 2

¶2 =

1

4

µ002(2575)

0005

¶2 = 26523

Por tanto habría que tomar un total de 27 submuestras de tamaño 4.

3.4. Intervalos de tolerancia. Calidad y coste.

Una de las aportaciones del japonés Genichi Taguchi a la calidad ha sido la

incorporación de una función cuadrática para controlar el coste de producción

y tener en cuenta este a la hora de tomar decisiones. La idea será producir

con alta calidad pero sin aumentar el coste. Esto va a permitir elegir unos

intervalos de especificación para los productos basados en el coste que supone

su fabricación.

Se define intervalo de tolerancia para una variable continua como el con-

junto de valores que se consideran admisibles, normalmente estarían marcados

78 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 87: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

previamente al proceso de fabricación por el comprador del producto o por los

responsables de la siguiente línea de producción.

Tradicionalmente, si una desviación mayor de hace que el producto sea

defectuoso, el intervalo de tolerancia se fijaba como [− +]. Este enfoquepresenta dos grandes inconvenientes. Uno de ellos es que, si el objetivo final es

fabricar componentes con característica nominal , no parece lógico considerar

igualmente buenas cualesquiera unidades incluidas en el intervalo [− +],sin tener en cuenta su cercanía a . Otro problema consiste en que, de esa

forma, no se está teniendo en cuenta el coste que tiene para el usuario la falta

de calidad (llamado también coste de la no calidad). Así, por ejemplo, no es

igualmente grave el fabricar una componente defectuosa que produce una avería

final en un aparato con un coste de reparación de 5000 euros que si el coste es

de 50 euros.

Para tratar de resolver ambos problemas, se introduce una función de coste

cuadrática también llamada función de Taguchi, que controle que las desvia-

ciones por exceso y por defecto del valor nominal presentan el mismo coste

y que las desviaciones pequeñas tengan un coste reducido, aumentando luego

el coste rápidamente de forma cuadrática. La expresión para el coste de una

unidad con valor de la característica medible es:

() = · (− )2

donde la constante puede obtenerse haciendo uso del coste de reposición

de un elemento defectuoso. Así, si es el coste que para el cliente supone

reemplazar una unidad con 0 = ±, de la igualdad (0) = , se obtiene

que = 2 y, por tanto, la función de coste social o de Taguchi resulta

() =

µ−

¶2

Ejemplo 3.4 Considérese la fabricación de una pieza, con longitud nominal

de 625 mm y que es defectuosa si se desvía en más de 3 mm de ese valor,

siendo 300 euros el coste de reposición para el cliente de cada pieza defectuosa.

En estas condiciones, la función de coste social será:() = 300¡−6253

¢2 Por

ejemplo, el coste que para el cliente tiene una pieza fabricada con 626 mm es

de 333 euros.

(626) = 300

µ626− 625

3

¶2= 33 33

La determinación del intervalo de tolerancia, por parte del fabricante, debe

hacerse teniendo en cuenta el coste que para el cliente representa el que un

producto sea defectuoso. Denotando por el coste que tiene para el fabricante

la reposición de un producto defectuoso, puede calcularse fácilmente el valor

INTERVALOS DE TOLERANCIA. CALIDAD Y COSTE. 79

Page 88: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

que ha de tener la característica medible para que su coste social coincida con

este coste de reposición del fabricante, es decir, resolver () = , obteniendo:

= ±

r

En base a estos razonamientos, el intervalo de tolerancia del fabricante debe

ser " −

r

+

r

#

ya que así el fabricante tendrá garantizado que si al cliente le repercutiese el

coste de cualquier producto dentro de dichas especificaciones, este sería menor

o igual que el de reposición.

Ejemplo 3.5 En el ejemplo si se considera un coste de reposición para el

fabricante de 50 euros, su tolerancia de fabricación debe ser"625− 3

r50

300 625 + 3

r50

300

#= [623 78 626 22]

que es más reducido que el intervalo de tolerancias técnicas [ − + ] =

[622 628].

En general, siempre que el coste de reposición para el cliente sea un poco

mayor que el del fabricante, el intervalo de tolerancias de fabricación será sólo

ligeramente más pequeño que el de tolerancias técnicas. En caso contrario, el

intervalo puede reducirse considerablemente.

Desde la perspectiva estadística, si se supone que la característica medible se

ajusta a una variable aleatoria con distribución normal de media y desviación

típica , puede calcularse fácilmente el coste social esperado (o medio) de la

fabricación:

[()] =

[( − )2]

2=

2

2

Observando esta relación es evidente que reducir la variabilidad de la fabri-

cación equivale a reducir los costes sociales por falta de calidad.

3.5. El concepto de capacidad

En todo proceso productivo se puede definir una medida de la capacidad

que el proceso tiene para cumplir para satisfacer sus especificaciones de calidad.

Es el llamado índice de capacidad.

80 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 89: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Si la característica de calidad es continua y con distribución( ) cuando

el proceso se encuentra bajo control casi la totalidad de las unidades produci-

das (exáctamente el 9973% de las mismas) se encuentran en un intervalo de

amplitud 6, centrado en el valor nominal, . Matemáticamente,

( − 3 ≤ ≤ + 3) = (| − | ≤ 3) = Φ(3)−Φ(−3) =2Φ(3)− 1 = 2 · 0998650− 1 = 09973

Por ello, el intervalo [ − 3 + 3] se denomina de tolerancias naturaleso intrínsecas del proceso. Teniendo esto en cuenta se define la capacidad del

proceso como 6.

Para analizar la adecuación de un proceso a las especificaciones preestable-

cidas es absolutamente necesario conocer su capacidad. Supóngase que el in-

tervalo de tolerancias de fabricación de un proceso es (), centrado en .

Entonces, se define el índice de capacidad del proceso como

= −

6

Atendiendo al valor del índice de capacidad se presentan tres casos diferen-

ciados:

1. 1. El proceso no puede cumplir las especificaciones requeridas.

Además, cuanto más pequeño sea el índice de capacidad mayor será la

proporción de piezas defectuosas. La recomendación práctica será tratar

de reducir la variabilidad no asignable, lo cual requiere cambios en el pro-

ceso o en el producto. Si esto no es posible, el proceso ha de someterse a

una inspección muy frecuente para prevenir cualquier pequeño desajuste

que aumente, aún más, el número de defectuosos. Nunca deben modifi-

carse las tolerancias, que deben estar basadas en especificaciones técnicas

y razones económicas, pero no en la capacidad del proceso.

2. = 1. Según lo apuntado anteriormente, el proceso fabricará aproxi-

madamente un 03 de defectuosos. Tradicionalmente un tipo de proceso

que cumpliese esta característica se consideraba justamente apto para la

fabricación. No obstante, en la actualidad este porcentaje de defectuosos

puede ser inaceptable en muchos productos (cuyas proporciones de de-

fectuosos se cuentan en uno o dos por millón). Además también exije

un control muy estricto porque pequeños desplazamientos de la media

pueden provocar aumentos muy considerables de la proporción de defec-

tuosos.

3. 1. En este caso el porcentaje de defectuosos es realmente muy pe-

queño (aunque la palabra “pequeño” siempre es relativa ya que depende

del sector industrial concreto). Por este motivo tan sólo es necesario su-

pervisar el proceso por si se producen desviaciones acusadas del estado

de control.

EL CONCEPTO DE CAPACIDAD 81

Page 90: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

El índice de capacidad nos permite calcular el porcentaje de defectuosos,

pero además también ayuda a elegir entre procesos alternativos, a establecer

un sistema de control durante la fabricación mediante la toma de muestras

cada cierto tiempo (ver tabla adjunta) e indica un punto de partida para la

mejora del proceso. En la metodología Six Sigma este índice se busca que de

un número superior a 2.

Índice de capacidad Frecuencia de inspección

≤ 1 Todas las unidades

1 ≤ 14 Intensiva (cada 15 ó 30 minutos)

14 ≤ 17 Moderada (cada hora)

17 ≤ 2 Espaciada (cada 2 horas)

2 Depende de la frecuencia de anomalías

Figura 3-2 Concepto de capacidad según seis sigma.

La desviación típica de un proceso de fabricación de componentes electróni-

cos es 005 V. Se trata de fabricar dos componentes y que se consideran

defectuosos si su tensión varía más de 05 V. Calcular el índice de capacidad

del proceso si el coste de fabricación de ambos es el mismo, 50 euros. pero el

coste de fallo para el usuario es de 80 euros para y 250 para . Suponiendo

una función de coste cuadrática, los costes sociales en cada caso son

() =80

025(− )2 () =

250

025(− )2

luego, los intervalos de tolerancias son [ − 0395 − 0395], para el , y[ − 0224 +0224], para el . Como consecuencia, sus índices de capacidadson =

079

030= 2 63 y =

0448

030= 1 49. Así pues el proceso es muy

capaz y la inspección es poco frecuente, mientras que en el , la capacidad es

adecuada y la inpección debe ser moderada. Desde la perspectiva Six Sigma el

proceso B no sería capaz, mientras que el A si.

Una vez determinada la capacidad de un proceso, se compara con las tol-

erancias del producto, para hallar así el índice de capacidad y seleccionar la

frecuencia de muestreo. Así se da paso al llamado control de fabricación.

82 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 91: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

El objetivo del control estadístico de fabricación es comprobar continua-

mente si el proceso se encuentra bajo control. Es un error muy frecuente el

pensar que el control de fabricación se introduce para observar si el producto

se halla dentro de tolerancias (cambiando los lí mites de control por los de

tolerancia).

Construyendo gráficos de medias y de variabilidad puede observarse si, a

lo largo del tiempo, el proceso está bajo control, simplemente viendo que en

ninguno de los dos gráficos las observaciones se escapan de los l ímites de

control. Si, por el contrario, en alguno de estos grá ficos una muestra se sale

de control, dado que la probabilidad de error de tipo I (afirmar que la muestra

no está bajo control cuando realmente lo está) es muy pequeña (del orden del

1 ), rechazaremos el que el proceso se encuentre bajo control en ese instante e

investigaremos las causas de este hecho para evitarlas en el futuro.

3.6. Curva característica de operación (CurvaOC)

Con objeto de valorar la idoneidad de los gráficos de control para detectar

cambios en el proceso se puede recurrir a la teoría de los contrastes de hipótesis,

en donde la hipótesis nula sería considerar que el proceso está bajo control

frente a la alternativa que sería que el proceso no está bajo control, bajo estas

premisas surge los conceptos de error de tipo I que sería el error que se comete al

suponer el proceso fuera de control cuando realmente está bajo control, también

llamado en este contexto riesgo del vendedor o proveedor o riesgo (también

se puede llamar probabilidad de falsa alarma) y el error de tipo II; que es el

que se comete al considerar que el proceso si está bajo control no estándolo,

llamado riesgo o riesgo del comprador. Estos riesgos dependen del tamaño

de la muestra y de los intervalos de aceptación y rechazo de la hipótesis nula.

Cuando se grafican el riesgo en función de la magnitud del cambio que se

pretende estudiar (normalmente expresado en unidades de desviación estandar)

se obtiene una curva denominada Curva Característica de Operación o curva

OC (Operating Characteristics, que sería la equivalente a la curva de potencia

de un contraste, concretamente sería uno menos la potencia).

Ejemplo 3.6 En la figura 3-3 se muestra la curva OC para el control de la

media del proceso, mientras que la figura 3-4 muestra como varían estas curvas

en función del tamaño muestral de cada submuestra, gráficando la probabilidad

de aceptar en función de valores de la media en el primer caso y en función de

la desviación típica en el segundo caso.

En el caso de que estemos interesados en calcular el error de tipo II al pasar

de un valor nominal a un valor 1 = 0 + supuesto que la característica

de calidad medible se ajusta a una distribución ( ) con lo que la media

muestral ∈ ( √) si suponemos que = 0+ √

y = 0− √

CURVA CARACTERíSTICA DE OPERACIÓN (CURVA OC) 83

Page 92: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 3-3 Curva OC para la media del proceso.

Figura 3-4 Diferentes curvas OC en función del tamaño de las submuestras.

84 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 93: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

= ( ≤ ≤ = 1 = 0 + )

= Φ

"− (0 + )

#− Φ

"− (0 + )

#

= Φ

"0 + √

− (0 + )

#−Φ

"0 − √

− (0 + )

# = Φ

£−

√¤−Φ

£−− √¤

En el supuesto más clásico en que se usen límites 3 sigma ( = 3) tomando

por ejemplo = 5 y = 1, es decir 1 = 0 + tendríamos:

= Φh3− 1

√5i− Φ

h−3− 1

√5i

= Φ [0763 93]−Φ [−5 236 1]' 07764

En este supuesto el error de tipo II tiene una alta probabilidad, si lo que se

pretende es medir el riesgo cuando 1 = 0 + 2, realizando cálculos similares

se obtendría un valor de 007 para la probabilidad de error de tipo II.

Para la construcción de la curva para un gráfico de variables se puede

hacer una gráfica en la que en el eje Y se ponga la probabibilidad del error

de tipo II o riesgo y en el eje de abscisas distintos valores para , según la

expresión = Φ [− √] − Φ [−−

√] de esta forma es posible obtener

varias curvas OC para cada uno de los tamaños de las submuestras consideradas

.

Dados los puntos en la curva característica (0 ) y (1 ) teniendo en

cuenta la teoría de contraste de hipótesis, suponiendo una que los datos siguen

una distribución normal, el tamaño muestral vendría determinado por:

=

µ

2+

¶2siendo el descentrado relativo, es decir,

=|− 0|

0

En este contexto la probabilidad de rechazar 0( = 0) vs 0( 6= 0) :

2− £Φ ¡2− √¢+ Φ

¡

2+ √¢¤

La curva característica o probabilidad de aceptar H0 en función del descen-

trado , sería:

() = Φ¡

2− √¢+ Φ

¡

2+ √¢− 1

CURVA CARACTERíSTICA DE OPERACIÓN (CURVA OC) 85

Page 94: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

En el supuesto de que estemos interesados en contrastar hipóteis unilateral

del tipo 0( = 0) vs 0( 0) la expresión de la curva característica

sería:

() = Φ¡

2− √¢ ≥ 0

y el tamaño de la muestra en este supuesto unilateral de la hipótesis alter-

nativa se podría calcular fijando los puntos de la curva característica (0 ) y

( ) mediante:

≥µ +

¶2ya que

Φ¡

2− √¢ ≤ ⇒− ≥

2− √

Ejemplo 3.7 En la fabricación de botes de refrescos se quiere verificar que su

valor nominal está entorno a los 33 cl que marca el envase, para determinar

el valor de la curva característica para un valor del tamaño muestral de 5 se

queremos detectar un cambio cuando el contenio medio sea inferior a 32 cl,

suponiendo una desviación tipica poblacional de 0 = 123 obtendríamos:

=|− 0|

0=|33− 32|123

= 0813 01

Por tanto () = Φ¡1645− 0813 01√5¢ = Φ( −017) = 04325. Esto quiere

decir que si la media del proceso fuese realmente 32 cl en el 43.25% de las mues-

tras de tamaño 5 se llegaría a aceptar que la media real es de 33 cl (Hipótesis

nula), es decir cometeríamos un error de tipo II con probabilidad 0.4325, lo

que llevaría a buscar otro test distinto o bien a aumentar el tamaño muestral

con objeto de hacer este más potente (la potencia en este caso sería sólo del

56.75% (1− 04325) Si quisieramos una potencia del test del 95% ( = 005

= 1645) :

≥µ +

¶2=

µ1645 + 1645

0813 01

¶2= 1637

3.7. El ARL para gráficos de variables

El uso de las curvas características permite estimar el tamaño muestral

necesario para detectar cambios en el riesgo La probabilidad de que se detecte

un cambio en la -ésima muestra posterior, será 1− veces la probabilidad de

no descubrirlo en cada una de las − 1 muestras iniciales. Así la probabilidadde detectar el cambio en la primera muestra es 1 − en la segunda muestra

86 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 95: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

será (1− ) en general la probabilidad de conseguir detectar el cambio en la

-ésima muestra será: −1 (1− ) Teniendo esto en cuenta podemos estimar

el número de submuestras que habría que analizar antes de detectar el cambio

(se trataría de una distribución geométrica):

∞X=1

−1 (1− ) =1

1−

A este valor del número de muestras necesarias para detectar la primera

muestra defectuosa o fuera de control se denomina (Average Run Length).

=1

1−

El ARL o longitud media de racha es el promedio de puntos que hacen falta

representar en el gráfico (muestras a tomar) hasta que el primer punto muestre

señal de fuera de control. El valor del ARL puede calcularse analíticamente o

por medio de simulación (véase la figura 6-4).

Si por ejemplo se tuviese un valor para de 0.05 el número esperado de

submuestras que habría que analizar para detectar el cambio sería de 1053,

mientras que si el riesgo fuese grande, por ejemplo 0.75, harían falta sólo 4

muestras. Es precisamente a raíz del estudio de este tipo de curvas OC cuando

surgen las recomendaciones de tomar 20 o 25 submuestras para establecer los

límites de control. En el caso en que se si verifica la hipótesis nula, es decir,

cuando si está el proceso bajo control, se tiene:

=0 =1

donde es la probabilidad del error de primera especie. Si por ejemplo

estamos utilizando gráficos de control 3 sigma, saldría un ARL de 100027 =

37037

Para los gráfico de Shehart se pueden graficar distintos valores para el

en función de y .

El conocimiento de los valores de ARL para proceso bajo control y fuera

de control es fundamental en el diseño de los gráficos de control de calidad.

Pues debemos asegurarnos de tener una baja tasa de falsas alarmas (ARL bajo

control alto) y, al mismo tiempo, rapidez suficiente para detectar los cambio

(ARL fuera de control bajo).

También se puede utilizar el ATS (Average Time to Signal) o tiempo prome-

dio hasta la señal, como el tiempo promedio que tardará el gráfico hasta que

éste indique una señal de falta de control. Resulta sencillo obtener una fórmula

aproximada para el valor de ATS si conocemos el tiempo entre muestras, :

=

EL ARL PARA GRÁFICOS DE VARIABLES 87

Page 96: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 3-5 Curva ARL.

3.8. Ejercicios del tema

3.8.1. Ejercicio 1:

En un control de calidad la responsable del empaquetado está interesada en

controlar el contenido de humedad de dichos paquetes, para ello seleccionada

32 submuestras de tamaño 5, como medida toma el contenido de humedad en

los paquetes de sal, como porcentaje del peso total. Resultando una media de

las 32 submuestras de 2.6502, una media de las desviaciones típicas de 0.2425

y una media de los recorridos de 0.6066

a) Calcular los límites de control utilizando las desviaciones al nivel 3

b) Calcular los límites de control utilizando los recorridos al nivel 3.

c) A la vista de los resultados, ¿qué diagrama de los anteriores considera

mejor?

3.8.2. Ejercicio 2

Para realizar un control de calidad sobre el porcentaje de materia grasa

de una determinada marca de mantequilla, se seleccionaron 100 embases de

mantequilla, elegidos en submuestras de tamaño 5. Se determinó el contenido

de de materia grasa total de cada embase, resultando los datos de la tabal

adjunta.

a) Calcula los límites de los gráficos de control 3 de medias para el

contenido medio de materia grasa.

b) Calcula los límites de los gráficos de control de desviaciones típicas

88 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 97: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

c) Considerando como intervalo de tolerancias de materia grasa [65,95],

¿cuál sería la capacidad del proceso según una metodología 3?

Subgrupo Tamaño X-bar S

––––––––––––––––––––––

1 5 85,4626 8,21722

2 5 78,1281 3,66889

3 5 78,9408 3,2049

4 5 78,9221 5,43189

5 5 82,544 5,77852

6 5 79,9901 5,08758

7 5 78,8692 4,22067

8 5 78,8248 7,59128

9 5 79,5877 1,63957

10 5 78,5338 3,64375

11 5 78,8945 4,54403

12 5 80,7316 3,18696

13 5 76,208 3,83605

14 5 79,589 6,29734

15 5 83,5223 5,30842

16 5 80,1668 5,11653

17 5 77,278 3,28091

18 5 81,6929 1,22231

19 5 76,6554 5,13308

20 5 76,1949 3,79899

Pueden ser de interés los siguientes datos (calculados a partir de la tabla

anterior):

Media del Proceso = 79,5368

Sigma del Proceso = 4,79847

Sigma Media = 4,51044

3.8.3. Ejercicio 3

Para controlar la calidad de un acero, se toman 10 muestras de tamaño 6

y se calculan la media y la cuasidesviación típica muestral de la dureza (en

Rocwell C) de cada una de ellas. A continuación se adjuntan los resultados de

las medias de cada muestra, indicando entre paréntesis la desviación típica: 53

(9.3), 51 (3.1), 48 (2.5), 59 (1.3), 48 (6.7), 51 (7.9), 49 (3.8), 51 (8.2), 48 (2.6),

57 (5.4).

a) Calcular un intervalo de confianza, al 99.7%, para la dureza media

del acero, puede utilizarse como desviación típica muestral 5.51.

b) Deducir los límites de los gráficos de control 3 de Medias y de

desviaciones típicas. ¿Qué conclusiones se sacarían de cara a controlar la cali-

dad? ¿Estaría el proceso bajo control?

EJERCICIOS DEL TEMA 89

Page 98: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

c) Considerando como amplitud del intervalo de tolerancia 30, ¿Cuál

sería la capacidad del proceso según una metodología 3?

3.8.4. Ejercicio 4

Se está investigando la consistencia de un proceso de fabricación. Los sigu-

ientes datos se tomaron en cuatro momentos distintos de un día. Cada vez,

se extrajeron cinco artículos acabados y se obtu-vieron las siguientes medidas

para cada uno:

M 1 M 2 M 3 M 4

1.025 1.036 1.011 1.022

1.042 1.016 1.029 1.027

1.013 1.028 1.031 1.046

1.027 1.023 1.021 1.033

1.018 1.025 1.019 1.034

a) Determinar los gráficos de control de la media (a partir de la desviación

típica y del recorrido), la desviación típica y el recorrido para un nivel de

confianza del 95%. Dibujar las cuatro muestras en estos gráficos.

b) Discutir si se debe hacer algún cambio a los gráficos de control obtenidos.

c) Estimar la proporción de artículos que tendrán una medida menor o igual

que 1.000 cuando el proceso está bajo control.

90 EL CONTROL DE FABRICACIÓN POR VARIABLES

Page 99: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

4. EL CONTROL DE FABRICACIÓN

POR ATRIBUTOS.

Contenido del tema: Introducción. Gráficos de atributos tipo p y np. Curvas

OC y ARL en el control por atributos. Ejercicios del tema.

4.1. Introducción.

En ocasiones una característica de calidad no puede o no interesa medirse

numéricamente y tan sólo se observa si presenta o no determinada propiedad

(un producto es defectuoso o no, una pieza encaja o no en otra, un mecanismo

funciona o no funciona, etc) que en control de caliad suele emplearse el término

“conformidad” o “no conformidad” en lugar de éxito o fracaso (defecto). Es

este tipo de ejemplos los que se estudiarán en el presente tema bajo el contexto

del denominado çontrol por atributos".

Existen normativas específicas que definen estos conceptos sin lugar a equívo-

cos, así, por ejemplo, en las normas UNE se define “defecto” como discon-

formidad de un elemento respecto a las prescripciones impuestas para una

característica. Además, aunque no es preciso su clasificación para el estudio

que se hará en este tema, los defectos suelen agruparse en críticos, principales

y secundarios, en función de su importancia.

Debe mencionarse que aún siendo posible realizar un control por variables,

en muchas ocasiones se lleva a cabo primero uno por atributos. Las razones

suelen ser de tipo económico (el control por atributos es mucho menos costoso)

o de cualificación de los operarios (puede ser complicado para un operario no

cualificado realizar ciertas operaciones, pero es muy sencillo el comprobar con

un calibre si una pieza pasa o no de determinada medida). En estos casos, la

información obtenida mediante un control por atributos es mucho menor. Por

ello es necesario utilizar un tamaño muestral mayor que en el caso del control

por variables.

Normalmente cuando se habla de proporción de defectos o disconformidades

se entiende que es el total de artículos de una determinada población que no

cumplen las especificaciones de calidad, siendo esta proporción estimada medi-

ante la toma de muestras aleatorias de la población, mediante la proporción o

fracción de disconformidades muestral, que no es más que el cociente entre los

artículos disconformes de la muestra y el número total de artículos analizados

o tamaño de la muestra elegida.

El estudio de las disconformidades puede analizarse desde varias perspec-

EL CONTROL DE FABRICACIÓN POR ATRIBUTOS. 91

Page 100: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

tivas dando lugar al empleo de diferentes distribuciones de probabilidad. Si lo

que se busca es anotar si el artículo es correcto o defectuoso se recurrirá a la

distribución binomial, pero en los supuestos que se anotan el número de dis-

conformidades por artículo o por unidad, la distribución que explica el proceso

será la distribución de Poisson, en ocasiones suele ser cómodo el empleo de

las aproximaciones de estas distribuciones por la Normal. En el supuesto que

se analizase la fracción de conformidades (lo equivalente al número de éxitos

en una distribución binomial) obtendríamos una estimación del denominado

“rendimiento del proceso”.

En este tema se presentarán los conceptos básicos del control por atributos,

analizando los gráficos más habituales como el de fracción de disconformes o

gráfico , el llamado gráfico que analiza el número de disconformidades y el

gráfico , que se aplica en los estudios en donde interesa estimar el número de

defectos o disconformes por unidad.

4.2. Gráficos de atributos tipo p y np

4.2.1. Gráfico tipo p

El objetivo del gráfico es controlar la proporción de disconformidades

y en la medida de lo posible conseguir que esta proporción disminuya. Así se

estudiarán muestras de elementos, cuyos individuos (artículos) se clasificarán

en conformes (correctos) y no conformes (defectuosos).

Si denominamos por a la proporción de defectusos del proceso, bajo el

supuesto de que esta proporción permanzca estable a lo largo del tiempo y

además, dada la hipótesis de independencia, es decir el supuesto de que el hecho

de que un artículo sea defectuoso es independiente de que lo hayan sido o no las

anteriores a él, se podrá enfocar el problema de la estimación de la proporción

de defectuosos como un proceso de Bernoulli, siendo la distribución del número

de defectuosos en una muestra de tamaño un distribución binomial, que

denotaremos como ( ).

Hay que recordar que la función de masa de probabilidad para una variable

binomial es:

( = ) =

µ

¶(1− )− = 0 1 2

Esta variable tiene como media () = , siendo su varianza () =

.

Para la estimación de la proporción poblacional se eligirá el número de

piezas o artículos defectuosos por lote de tamaño , que denotaremos por , ésta

oscilará de una muestra a otra, con media y desviación típicap(1− ).

92 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.

Page 101: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

En el caso en que el tamaño de las muestras sea suficientemente grande

(mayor de 25, aunque es habitual elegir muestras de tamaño 100 o superior) se

podría aplicar los resultados que garantizan la aproximación de la distribución

binomial por la Normal (teorema central del límite). Utilizando esta última

distribución para analizar el proceso.

En el caso del control por atributos se denomina capacidad del proceso

al valor 1−, es decir, la proporción de elementos no defectuosos fabricados (sesupone en condiciones de control). Para estimar la capacidad podemos seguir

pasos análogos al caso de control por variables. Es decir, estimar el valor de la

capacidad una vez que el proceso esté bajo control. En general, diremos que el

proceso no está bajo control si la proporción de elementos defectuosos se sale

de ciertos límites admisibles (normalmente por haber aumentado notablemente

dicha proporción). Por tanto será necesario estimar los límites de control de

gráficos para este caso y verificar que las proporciones de las submuestras

elegidas se encuentran entre los límites de control superior e inferior de estos

gráficos.

Los pasos a seguir para la construcción del gráfico de control por atributos

o gráfico serán los siguientes:

1. Tomar muestras (al menos 25) de elementos ( 50) y contar el

número de defectuosos, , en cada muestra -ésima.

2. Estimar la proporción de elementos defectuosos total de las muestras

mediante

=

P

=1

3. Comprobar que las muestras son homogéneas respecto de la fracción de

elementos defectuosos. Es decir, comprobar si la fracción de defectuosos

en cada muestra ( = ) está dentro de los límites de control"max

(− 3

r(1− )

0

) + 3

r(1− )

#

Para ello se construye un gráfico de control, similar al gráfico de medias

del control por variables, con los límites de control anteriormente citados

(llamados límites de control de prueba), con línea central de altura y

dibujando los puntos correspondientes a las fracciones de defectuosos de

cada muestra. De esta forma es inmediato reconocer las muestras que

no se hallan bajo control. Eliminado del estudio las muestras que están

fuera de control y repitiendo los pasos anteriores el número necesario de

veces para llegar a un grupo homogéneo puede estimarse fiablemente la

capacidad.

4. Una vez que todas las muestras se encuentren dentro de los límites, eje-

cutando los pasos anteriores las veces necesarias, se eligirán eses valores

GRÁFICOS DE ATRIBUTOS TIPO P Y NP 93

Page 102: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

finales que contengan a todas las proporciones muestrales, como límites

de control, es decir:

Obsérvese que en el caso de que la muestras no sean del mismo tamaño,

los límites de los gráficos de control habría que corregirlos por esos tamaños,

lo que lleva a que las líneas de los límites de control de los gráficos presenten

saltos relacionados con el tamaño de la muestra. Así si llamamos al tamaño

de la -ésima muestra su correspondiente estimación sería

1.

=

4.2.2. Gráficos de control np

En algunas ocasiones interesa analizar el número medio de disconfirmidades

en lugar de su propoción, en este caso, se utilizarán los llamados gráficos .

En esencia son similares a los gráficos tipo y en la elección para su empleo

suele influir más el gusto o la costumbre. Para la construcción de este tipo de

gráficas se estimarán las proporciones de la misma forma que en los gráficos

pero se construirán los gráficos basados en la media del proceso del siguiente

modo:

= + 3p(1− )

=

= − 3p(1− )

La interpretación del gráfico de control de proporciones (gráfico ) o la

del gráfico de número de defectos (gráfico ) es totalmente análoga a la de

los gráficos de medias o de dispersión ya tratados en el tema anterior. De los

dos gráficos mencionados aquí es el gráfico el más habitual, usándose más

el gráfico cuando los tamaños muestrales sean siempre iguales. Obsérvese

que para la construcción del gráfico no se requiere esta necesidad pudiendo

tomarse muestras de distintos tamaños

Siempre que un valor se salga de los límites de control y una vez descartados

posibles errores de cálculo o cambios en los criterios de medición, tendremos

evidencias de que el proceso ha variado, aumentando o disminuyendo el por-

centaje de defectuosos.

4.2.3. Curva característica de operación (OC) y curva ARL

Un instrumento interesante para representar la eficacia de un plan de control

por atributos consite en dibujar su curva característica (Curva ). Hay que

94 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.

Page 103: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

recordar que esta función podría tratarse desde el punto de vista del contraste

de hipótesis como la curva que grafica la probabilidad de aceptar incorrecta-

mente la hipótesis nula de que el proceso está bajo control sin estarlo.

Se suele representar la probabilidad de aceptar que el proceso está bajo

control para los distintos valores de la proporción verdadera de defectuosos, .

Es decir, la curva representa la probabilidad de cometer un error de tipo

en el supuesto de analizar la fracción de disconformes mediante un gráfico

esta curva podría obtenerse mediante la expresión:

() = ( ) = ( )− ( ≤ )

Si en lugar de utilizar la distribución binomial se usa su aproximación me-

diante la correspondiente distribución normal, se obtendría una curva aproxi-

mada. Así, por ejemplo, para obtener la curva OC en el caso del gráfico se

procedería represtando para diferentes proporciones el valor:

() = ( ) =

µ − √

¶−

µ − √

¶En el supuesto de la curva OC para el gráfico suponiendo que los tamaños

muestrales difieren para cada muestra , que denotamos por , se obtendría

mediante la representación de:

() = ( ) =

µ − √

¶−

µ − √

=

⎛⎝ − q

⎞⎠−

⎛⎝ − q

⎞⎠La curva característica puede ser usada para determinar el tamaño muestral

a utilizar, para ello pueden fijarse dos puntos de esta curva, uno correspondiente

al proceso bajo control y otro un punto cuya proporción de defectuosas se

quiera detectar con una alta probabilidad. Si llamamos 0 a la proporción

de defectuosas cuando el proceso está bajo control (es decir en el caso que

solo se comente el error de tipo I cuya probabilidad denotamos por ) y a la proporción que interesa detectar con probabilidad , el tamaño muestral

se obtendría mediante las fórmulas similares a las empleadas al caso de un

contraste de hipótesis:

≥Ã2

p0(1− 0) +

p(1− )

− 0

!2Ejemplo. Para estimar la proporción, de disconformes en un estudio

de control de calidad por atributos de una determinada marca de lámparas,

GRÁFICOS DE ATRIBUTOS TIPO P Y NP 95

Page 104: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico p

Número de muestra

p

CTR = 0,02

UCL = 0,05

LCL = 0,00

0 4 8 12 16 200

0,02

0,04

0,06

0,08

0,1

Figura 4-1 Primer gráfico de control tipo p para la proporción de disconformes.

en el que se pretende analizar la proporción de lámaparas que no funcionan

corrrectamente por lote suministrado, se toman 20 muestras de 100 unidades,

verificando si las lámparas funcinan o no, obteniendo los resultados de la tabla

adjunta

Muestra 1 2 3 4 5 6 7 8 9 10

Defectos 0 2 0 1 0 4 0 1 2 10

Muestra 11 12 13 14 15 16 17 18 19 20

Defectos 0 1 1 3 1 0 1 2 0 1

Con estos datos construir el gráfico de control por atributos de tipo y tipo

.

Los valores de estimados de los límites de control resultan:

La línea central resulta

=

P

=1

= 0015

mientras que los valores para los límites inferior y superior serán:

max

½− 3

q(1−)

0

¾= 0 y + 3

q(1−)

= 005146

Con estas estimaciones se dibuja un primer gráfico tipo (ver 4-1) y se

observa que la muestra número 10 se sale claramente de los límites de control.

Entre los motivos que indican esta salida de control está la posibilidad de

que el dato apuntado fuese erróneo, y se quisiera apuntar como proporción

de disconformes 0.01 (más acorde con un proceso estable) y no el valor 0.1

realmente anotado.

96 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.

Page 105: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico p

Número de muestra

p

CTR = 0,01

UCL = 0,04

LCL = 0,00

0 4 8 12 16 200

0,02

0,04

0,06

0,08

0,1

Figura 4-2 Segundo gráfico de control excluyendo la muestra número 10.

Excluyendo del análisis la citada muestra se obtiene un nuevo gráfico de

control en el cual se aprecia que no hay ya ninguna muestra fuera de control.

La nueva estimación de la proporción de defectos es ahora = 00105 y los

límites de control del nuevo gráfico resultarán:

max

½− 3

q(1−)

0

¾= 0 y + 3

q(1−)

= 00411

Para este caso la curva característica, que muestra la probabilidad de acep-

tar que el proceso está bajo control según los distintos posibles valores de

puede verse en la figura 4-3.

En este ejemplo, si se quisiera calcular el tamaño muestral para el caso de

que la eficacia del gráfico detectase que cuando la proporción de defectuosos

fuera del 10% la probabilidad de detectar que el proceso está bajo control sea

del 95% (suponiendo que estamos utilizando que cuando el proceso está bajo

control es equivalente a que = 001, y que estamos con 2 = 3) se tendría:

≥Ã3p001(1− 001) + 1645

p01(1− 01)

01− 001

!2= 77 439

Es decir, se necesitarían elegir muestras de tamaño mayor de 77.

También se podría hacer el gráfico de la correspondiente curva del ARL al

igual que en el caso del control por variables, como puede verse en la figura

Este mismo ejemplo podría analizarse utilizando gráficos tipo np, las esti-

maciones en este caso resultan las siguientes (eliminando también la muestra

GRÁFICOS DE ATRIBUTOS TIPO P Y NP 97

Page 106: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Curva OC para p

0 0,02 0,04 0,06 0,08

Proporción del proceso

0

0,2

0,4

0,6

0,8

1

Pr(

acep

tar)

Figura 4-3 Curva característica para la proporción de disconformes.

Curva ARL para p

0 0,01 0,02 0,03 0,04

Proporción del proceso

0

100

200

300

400

500

Dur

ació

n de

eje

cuci

ón m

edia

Figura 4-4 Curva ARL para los datos del ejemplo.

98 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.

Page 107: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

número 10):

= + 3p(1− ) = 41143

= = 10526

= − 3p(1− ) = 0

4.3. El control de fabricación por número de de-

fectos.

La información que aporta el control por atributos es si el producto pre-

senta o no defectos pero no el número de defectos que tiene. El control por

atributos no es adecuado cuando los defectos aparecen en un flujo continuo (no

van asociados a unidades). Ejemplos de esta situación son las burbujas en un

cristal, los defectos de tinte en una tela, las rugosidades en papel, las soldaduras

defectuosas en una plancha de acero, etc. En estos casos puede ser más ade-

cuado, debido a la naturaleza continua del producto, considerar directamente

el número de defectos por unidad de medida (longitud, área, superficie, peso,

etc.).

El control por número de defectos también se aplica en el caso de los ele-

mentos de fabricación estén bien diferenciados (no sean continuos) pero puedan

presentar varios defectos independientes que mermen aún más su calidad. Un

procedimiento que clasifique estos elementos simplemente en defectuosos y no

defectuosos perdería bastante información.

Se analizará la construcción de gráficos de control para el número de de-

fectos por unidad (gráficos ) y también gráficos para el promedio de defectos

por unidad (gráficos ). La hipótesis que se usará es la de suponer que la

distribución del número de disconformidades por unidad se distribuye según

una distribuciónd e Poisson. Para ello será preciso que el número de discon-

formidades sea grande pero que la probabilidad de obetenerla en la unidad

de muestreo sea pequeña y constante. Mientras estas hipótesis se mantegan el

modelo de Poisson será válido, pero en ciertas ocasiones estos supuestos son

difíciles de verificar, por lo que habrá que ser prudentes en la aplicación de este

tipo de gráficos. En todo caso debe recordarse que una variable de Poisson no

es más que el límite de una variable binomial, ( ), en la que el tiende a

infinito y a cero, manteniendo constante la media .

EL CONTROL DE FABRICACIÓN POR NÚMERO DE DEFECTOS. 99

Page 108: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

4.3.1. Gráficos de control tipo c

En este contexto del control de fabricación por número de defectos, se dirá

que el proceso está bajo control cuando el proceso es estable (es decir, fabrica un

número de defectos por unidad de medida, , constante a lo largo del tiempo) y

los defectos aparecen independientemente los unos de los otros. La capacidad

del proceso se definirá como el número medio de defectos por unidad de

medida, es decir el valor .

Suponiendo que el número de defectos por unidad de medida sigue una

distribución de Poisson de parámetro , su función de masa de probabilidad

vendrá dada por:

( = ) =−

! = 0 1 2

Para estimar y determinar, por tanto, la capacidad del proceso y los

gráficos de control, se realizará el siguiente proceso iterativo análogo al descrito

en apartados anteriores:

1. Se eligen muestras de tamaño y se determina el número de defectos

de cada una, 1 2 .

2. Se estima mediante el número medio de defectos por unidad de medida

en el total de las muestras:

=1 + 2 + · · ·+

3. Se construye un gráfico de control (gráfico ) del número de defectos

observados en cada muestra, tomando como línea central y líneas de

control maxn− 3

√ 0oy + 3

√.

= + 3√

=

= maxn− 3

√ 0o

4. Se repiten los pasos anteriores el número de veces necesarias, eliminando

las muestras que hayan salido de los límites de control.

4.3.2. Gráficos de control tipo u

En ocasiones puede ser interesante analizar el número medio de disconformi-

dades por unidad de inspección, sin necesidad de que estas unidades contengan

100 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.

Page 109: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

el mismo tamaño de piezas analizadas. En este caso se pueden elegir mues-

tras, suponiendo que no sean del mismo tamaño, y se utilizará la estimación

siguiente:

=

P P

donde es el tamaño muestral de la -ésima muestra, dibujando un nuevo

gráfico de control, denominado gráfico , para el número de defectos por unidad

de medida, con línea central en y límites de control para la muestra fijados en

maxn− 3

p 0

oy + 3

p y rechazando toda muestra cuyo número

de defectos por unidad de medida, , se salga de los citados límites.

= + 3p

=

= maxn− 3

p 0

o

4.3.3. Sistemas de demérito

En determinados estudios de disconformidades es frecuente que no todos

los defectos tengan la misma importancia, en estos casos se suelen clasificar las

disconformidades de acuerdo a su importancia, que se denominará esquema de

demérito.

Una posible clasificación puede ser la siguiente: defectos muy graves (clase

A), graves (clase B), moderadamente importantes (clase C) y poco importantes

(Clase D). En la que emplearamos las ponderaciones 100, 50, 10 y 1, respec-

tivamnte para cadad una de las clases de disconformidades, A, B, C y D. En

este caso el número medio de deméritos por unidad de inspección sería

= 100 + 50 + 10 +

Siendo el número medio de deméritos por unidad de muestras de tamaño

,

=

Puesto que es una combinación lineal de distribuciones de Poisson, se

podrían construir gráficos de control basados en los deméritos:

= + 3

=

= max {− 3 0}

EL CONTROL DE FABRICACIÓN POR NÚMERO DE DEFECTOS. 101

Page 110: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

siendo

=

µ1002 + 50

2 + 102 +

¶12donde y representan el número medio de defectos de clase A,

B, C y D, respectivamente.

Existen otras formas de clasificación de los defectos, como por ejemplo

en defectos funcionales o de aspecto, posibilitando la construcción de nuevos

gráficos de control.

También se pueden obtener gráficos con otro tipo de distribuciones que no

se ajusten a la Poisson, pues no siempre esta será la distribución que mejor

modelo los datos, ejemplos de estos gráficos probabilísticos alternativos a los

tratados en los apartados anteriores, pueden verse en los trabajos de Johson

y Kotz (1969) o un interesante artículo de Jackson (1972). En el trabajo de

Benneyan (2006) se discute sobre el empleo de distintos gráficos de control

para aplicaciones médicas, proponiendo nuevos gráficos, llamados gráficos ,

basados en la distribución geométrica.

4.4. Ejercicios:

1. Cálculese la curva característica del ejemplo de las lámparas, dando tan-

to la función con la distribución binomial como su aproximada mediante la

distribución normal.

2. Se seleccionan, de manera aleatoria, 15 unidades de un proceso de man-

ufactura con el propósito de verificar el porcentaje de unidades defectuosas en

la producción. Con base en información pasada, la probabilidad de tener una

unidad defectuosa es = 005. Si la gerencia ha decidido detener la producción

cada vez que una muestra de 15 unidades tenga dos o más de\-fec\-tuo\-sas.¿Cuál es la probabilidad de que, un día determinado, el proceso se detenga,

supuesto que funciona correctamente? ¿Cuál es la probabilidad de que no se

detenga si = 01?

102 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.

Page 111: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

5. ESTIMACIÓN DE LA CAPACIDAD

MEDIANTE íNDICES

Contenido del tema: Introducción. Concepto probabilístico de capacidad.

Índices de capacidad. Índices enmetrología dimensional. Intervalos de confianza

y contrastes para la estimación de los índices. Ejercicio.

5.1. Introducción.

Un número índice es una medida estadística diseñada para poner de mani-

fiesto los cambios de una variable o grupo de variables con respecto a una

determinada característica. El empleo de índices es muy habitual en todas

las ciencias, y su función principal es la de comparar entre sí individuos o

variables. Así en el ámbito económico son empleados índices de morosidad, o

los índices conocidos de Gini que permite medir la concentración da riqueza de

una población, y que se suele acompañar con la denominada curva de Lorenz.

Otro índice ampliamente usado es el conocido como índice de Laspeyres que

permite valorar el consumo del año en base a precios del mismo año de estudio,

siendo el índice que utiliza institutos nacionales de Estadística como el caso

español del INE para la elaboración del IPC.

Algunos de los índices fueron introducidos hace tiempo y con el uso han

pasado a ser del manejo diario en muchos ambientes. Un ejemplo podría ser

el denominado índice de masa corporal (conocido también como índice de

Quetelet en honor a su descubridor) y que se obtiene como el cociente en-

tre la masa (en kg) entre el cuadrado da altura (en metros) de un paciente.

Otros índices asociados a sus descubridores son los de Paasche, de Fisher, de

Drovisch-Bowley, de Edgeworth-Marshall, de Drovisch-Bowley o el de Wlach.

En el caso del control de calidad los índices permiten medir si un proceso es

o no capaz, relacionando la variabilidad con las especificaciones (normalmente

fijadas por el cliente). En principio la variabilidad puede ser inherente a la

observación, lo que se podría denominar variabilidad “instantánea o natural” o

puede estar dada por la diferencia entre las observaciones a lo largo del tiempo.

El objeto de los índices de capacidad es estimar valores numéricos que permitan

analizar lo “capaz” que puede ser un determinado proceso. N

El uso de índices es habitual en cualquier contexto, pero sin duda donde

tiene una gran importancia es dentro del control estadístico de proceso: son los

conocidos como índices de capacidad. Un índice de la capacidad de un proceso

es un valor numérico que permite tomar decisiones sobre si un proceso es o

ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES 103

Page 112: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

no capaz. El modo de interpretarlos suele asociar que valores grandes de estos

índices darían un proceso como capaz de producir artículos que cumplen con

los requerimientos del cliente.

Por desgracia, las hipótesis tradicionales sobre los datos como la normalidad

o la independencia son frecuentemente violadas en muchas situaciones reales no

siendo, en estas situaciones, válidos los índices tradicionales. Así, en escenario

en la que los supuestos de normalidad o independencia no se verifican, como

por ejemplo cuando los datos están correlacionados o cuando pertenecen a

las distribuciones no centradas y sesgadas serán necesarios índices específicos.

En particular, si la hipótesis de normalidad es violada, es difícil, o incluso

imposible, obtener expresiones cerradas para la distribución de probabilidad

del estimador del correspondiente índice teórico. Esto significa que en muchos

casos, aunque si se podría dar un valor del índice, no sería posible obtener

estimaciones con sus correspondientes intervalos de confianza para la capacidad

del proceso. Como consecuencia, las estimaciones de capacidad puede estar lejos

de los verdaderos parámetros de interés y los fabricantes podrían llevarse a cabo

a tomar decisiones equivocadas sobre la calidad del producto.

Muchos autores han estudiado diferentes estimadores de la capacidad del

proceso en diversos marcos de distribución. Los recientes avances en el análi-

sis inferencial aplicada a las técnicas de control de calidad han motivado obra

teórica sobre la teoría de la distribución de las estimaciones de índices de ca-

pacidad (véase, por ejemplo las obras de Chou y Owen, Clements, Pern y Cols

y Kotz y Johnson). Este último dio lugar a un debate exhaustivo sobre una

serie de índices de capacidad de toma de muestras y sus propiedades. Además,

en el caso particular de tratar con datos no normales y los procesos con es-

pecificaciones unilaterales, se pueden consultar los trabajos de Somerville y

Montgomery, Chen y Pern, Kotz y Lovelace, Shore, Palmer y Tsui, Tang y

Than, Chang et al., Pearn y Chen y Kotz y Johnson.

5.2. Concepto probabilístico de capacidad

La capacidad de un proceso puede ser medida conociendo la distribución

de probabilidad de la variable a controlar. Así, si la característica de calidad

es continua y con distribución ( ) cuando el proceso se encuentra bajo

control (como se supondrá a lo largo de toda esta sección) casi la totalidad de

las unidades producidas (exactamente el 9973% de las mismas) se encuentran

en un intervalo de amplitud 6, centrado en el valor nominal, . Por ello, el

intervalo [−3 +3] se denomina de tolerancias naturales o intrínsecasdel proceso. Teniendo esto en cuenta se define la capacidad del proceso

como 6. Matemáticamente, equivale a realizar el cálculo de la probabilidad

de que la variable aleatoria tome valores en este intervalo, en el caso en que

104 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES

Page 113: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

esta variable sea normal, esta probabilidad viene dada por:

(− 3 ≤ ≤ + 3) = (| − | ≤ 3) = Φ(3)−Φ(−3) =2Φ(3)− 1 = 2 · 0998650− 1 = 09973

En este supuesto, los límites de tolerancia natural incluyen el 9973% de

la variabilidad, o lo que es equivalente sólo el 027% de las observaciones es-

tarían fuera de estos límites de tolerancia natural. Aunque esta puede ser una

cantidad pequeña no lo es tanto si se compara con el tanto por millón, pues en

un proceso con estas características de calidad se estaría permitiendo la fabri-

cación de 2700 piezas defectuosas por millón de piezas fabricadas, lo que para

los mercados actuales es una cantidad desmesurada. Bajo la metodología Seis

Sigma se utiliza como medida alternativa a los índices de capacidad su equiva-

lente en piezas o defectos por millón, más comúnmente, DPMO (Defectos por

millón de Oportunidades)

=n total de defectos

n unidades x n oportunidades

En la tabla siguiente puede verse como va cambiando la cantidad de defectos

por millón (DPM) y la probabilidad en función de que se trate de un contexto de

distribución normal centrada o se permita un desplazamiento de 15 respecto

al valor de la media, que es la capacidad con la que se trabaja en la metodología

Seis Sigma. Analizando el valor de los DPM puede informarse al productor en

qué nivel se encuentra, si a un nivel de fabricación 3, 4 etc.Nivel Sigma Centrada Desplazada 15 Centrada Desplazada 15

DPM DPM Probabilidad Probabilidad

3 269393 6681063 099730007 093318937

4 6337 62097 099993663 099379030

5 0574 23267 099999943 099976733

6 0002 34 1 099999660

5.3. Índices de capacidad

Para las definiciones de distintos índices de capacidad, se buscará comparar

la variabilidad del proceso con unas especificaciones dadas, bien por el fabri-

cante o bien por el cliente. Se supondrá que el intervalo de especificaciones del

proceso es (). La mayor parte de la literatura dedicada al estudio de

análisis de capacidad de procesos, con frecuencia, considera cuatro índices, ,

, , , cuyas definiciones son las siguientes.

= −

6=

3

ÍNDICES DE CAPACIDAD 105

Page 114: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

donde = ( − )2

Además del índice se suele usar su valor porcentual:

=

µ1

¶100

También son muy empleados los correspondientes índices de capacidad in-

ferior () y superior () y el valor que los minimiza ():

= −

3

=−

3

= mın { } = − |− |3

Siendo = ( + )2 Generalmente, si = indica que el

proceso estaría centrado en torno a la media, mientras que diferencias entre

y indican descentralización. Este primer índice aparece ya propuesto

por Juran en 1974, mientras que el índice lo propone Kane (1986).

El índice no tiene en cuenta lo descentrado que se encuentra la media

con respecto al valor nominal o Target , por lo que se suelen utilizar también

los llamados índices de segunda generación como el propuestos por

Hsiang y Taguchi (1985) y, también de forma independientemente, por Chan,

Cheng, y Spiring (1988):

= −

6

q£( − )

2¤ = −

6√

= £( − )

2¤= 2 + (− )

2

Este índice puede expresarse como:

= −

6

q2 + (− )

2=

p1 + 2

=−

Una forma de estimar el valor :

b =b√1 + 2

=−

106 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES

Page 115: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Pearn, Kotz y Johnson (1992) definen los llamados índices de tercera

generación como el ,

=mın( − −

3

q2 + (− )

2=

− |− |3

q2 + (− )

2

Obsérvese que estos índices coincidirán en el caso de que = = . Las

propiedades de este tipo de índices pueden estudiarse en la monografía de Kotz

y Johnson (1993).

En el caso de que los datos no sigan una distribución normal, Luceño en

1996 propone el siguiente índice:

= −

6p

2 [ − ]

Nota: Algunos autores, como el caso de Montmgomery (2009), incluyen

también al índice como de segunda generación, pues se obtiene con otros

índices primarios.

5.3.1. Índices generalizados o de cuarta generación

En 1995 Kerstin Vannman propone una reformulación de los índices ante-

riores mediante una expresión que permite obtenerlos para distintos valores de

dos nuevo parámetros no negativos y :

( ) =− |− |

3

q2 + (− )

2

Obsérvese que en esta nueva expresión generaliza algunos de los índices

anteriores, sin más que considerar valores de 0 y 1 para y : (0 0) = ;

(1; 0) = ; (0 1) = ; (1 1) =

Este tipo de índices siguen siendo sólo válidos para el caso de distribución de

los datos normal, por lo que Pearn y Chen (1997) consideraron su generalización

para el caso de distribuciones arbitrarias de los datos, lo que llamaron como

índice ( ), definido del modo siguiente:

( ) =− |− |

3

r³P99865-P0135

6

´2+ ( − )

2

Siendo la mediana del proceso, y siendo el correspondiente percentil

(100)% de la distribución. En el caso en que el proceso siga una distribución

Normal los índices ( ) y ( ) proporcionan el mismo resultado.

ÍNDICES DE CAPACIDAD 107

Page 116: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Finalmente, comentar la aportación de Pearn et al. (2005) que generalizan

estos índices para el caso de distribuciones no normales y asimétricas con el

denominado índice ”(; ):

”(; ) =∗ − ∗

3

r³P99865-P0135

6

´2+ 2

donde = maxn(− )

(−)

oy ∗ = max

n∗(− )

∗(−)

osiendo

= − = - y ∗ = mın( ). Este índice generaliza los

anteriores para diferentes valores de (0 o 1) y (0 o 1). En el caso en que

= , el índice ”(; ) se reduce al ( ).

5.3.2. Índices y capacidad del proceso

Para analizar la adecuación de un proceso a las especificaciones preestable-

cidas es necesario conocer su capacidad. En un principio los valores válidos

para suponer que un proceso era capaz se marcaban cuando la variabilidad del

proceso coincida con el valor de su capacidad estimada, es decir cuando los

índices de capacidad sean 1 o superiores. Sin embargo, en la industria actual, y

también en otros contextos, cada vez se exigen requerimientos “más capaces”,

por ejemplo en la metodología Seix Sigma, la capacidad sería cuando estos

índices dan como resultado el valor 2, siendo empleado su utilización para ver-

ificar en qué estado de control se encuentra el proceso, comparándolo con los

distintos niveles 3 4 o 6

Si el valor que interesa para comparar el número índice se denomina 0 se

presentan tres casos diferenciados:

1. 0. El proceso no es capaz, es decir, no puede cumplir las especi-

ficaciones requeridas. Además, cuanto más pequeño sea el índice de ca-

pacidad mayor será la proporción de piezas defectuosas.

2. = 0. El proceso es potencialmente capaz.

3. 0. El proceso es muy capaz. En este caso el porcentaje de defec-

tuosos es realmente muy pequeño (aunque la palabra “pequeño” siempre

es relativa ya que depende del sector industrial concreto).

El índice de capacidad nos permite calcular el porcentaje de defectuosos,

pero además también ayuda a elegir entre procesos alternativos, a establecer un

sistema de control durante la fabricación mediante la toma de muestras cada

cierto tiempo (ver tabla adjunta) e indica un punto de partida para la mejora

del proceso.

108 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES

Page 117: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Por otra parte en algunos casos puede ser de interés establecer distintos

costes asociados a la capacidad de los procesos, pudiendo calcular índices de

capacidad relacionados con el coste de fabricación del producto y con el coste

que repercuta en el cliente o usuario del producto, pudiendo determinar difer-

entes valores de capacidad en función de los costes establecidos. Esto puede

verse en el siguiente ejemplo.

Ejemplo de capacidad y coste: La desviación típica de un proceso de

fabricación de componentes electrónicos es 005 V. Se trata de fabricar dos

componentes y que se consideran defectuosos si su tensión varía más de

05 V. Calcular el índice de capacidad del proceso si el coste de fabricación de

ambos es el mismo, 50 euros. pero el coste de fallo para el usuario es de 80 para y 250 para .Suponiendo una función de coste cuadrática, los costes sociales en cada caso

son

() =80

025(− )2 () =

250

025(− )2

luego, los intervalos de tolerancias son [ − 0395 − 0395], para el , y[− 0224 +0224], para el . Como consecuencia, sus índices de capacidadson =

079

030= 2 63 y =

0448

030= 1 49. Así pues el proceso es muy

capaz y la inspección es poco frecuente, mientras que en el , la capacidad es

adecuada y la inspección debe ser moderada.

5.4. Índices en metrología dimensional

Cuando se pretende controlar el proceso de medir surge de forma lógica la

necesidad de utilizar las herramientas propias de la ciencia encargada de las

mediciones: la metrología, o más concretamente la metrología dimensional

como suele denominarse cuando se abordan problemas similares al del control

estadístico de procesos.

Son numerosos los aspectos que dependen de la metrología, por ejemplo, en

la industria debe llevarse un control riguroso de la precisión que deben tener

las distintas máquinas y la metrología se hace indispensable en estos procesos.

En general será una herramienta imprescindible en cualquier proceso en el que

se presente incertidumbre en la medida. En metrología interesa que la

incertidumbre de la medida sea muy pequeña y en control de procesos lo que

se busca son procesos con índices de capacidad altos. Pues bien, la pregunta

lógica es ¿qué impacto tiene la incertidumbre de medición (error de medición)

con la capacidad del proceso? Dar respuesta a esta pregunta es el objetivo de

esta sección.

Desde el punto de vista estadístico lo más resaltable en el contexto de la

Metrología es analizar laRepetitibilidad y la Reproducibilidad de la medi-

da, los denominados estudios RyR. La principal diferencia del enfoque desde

ÍNDICES EN METROLOGíA DIMENSIONAL 109

Page 118: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

el punto de vista de la metrología está en que en este contexto lo que prevale

es estimar la repetividad y reproducibilidad de los instrumentos de medida, así

los factores estudiados son las fuentes de variación y la importancia relativa

de estas fuentes. El enfoque por tanto, debe de ir hacia el estudio de compo-

nentes de la varianza para lo que los diseños “anidados” y “jerarquizados” son

una solución acertada. Estos diseños se basan en modelos de efectos aleatorios

para las observaciones. El análisis de estos diseños aparece en la mayoría de los

textos sobre diseño de experimentos (véase, por ejemplo Montgomery (2005))

y en la mayoría de los paquetes estadísticos (por ejemplo el programa R).

La repetibilidad se estima mediante la varianza del instrumento de medición

(b2), mientras que la reproducibilidad será la variabilidad producida por eloperador (b2). La suma de estas dos variabilidades nos dará una estimacióndel sistema de medición, es la denominada variabilidad RyR (b2).

b2 = b2 + b2Una vez se tiene unas determinadas tolerancias o especificaciones de las

mediciones, para verificar la calidad del instrumento de medición se utilizan

índices como el cociente entre la variabilidad RyR y los límites de tolerancia,

llamado índice Precisión-Tolerancia (P/T):

=b

Es posible establecer una relación entre los índices utilizados en metrología

y algunos de los índices de capacidad estudiados en la sección anterior. Así, en

el caso de que se considere = 6 (en el contexto de metrología suele emplearse

el valor 515 valor que tiene que ver con las colas de una distribución normal

que encierre un 99% de probabilidad) y se estime la variabilidad RyR mediante

el mismo estimador usado en la variabilidad del proceso (por ejemplo, 2),

el índice coincide con el inverso del .

5.5. Intervalos de confianza y contrastes para la

estimación de los índices

Cuando se obtienen los índices para un determinado proceso, en la práctica

se estiman en base a datos seleccionados mediante algún método de muestreo.

Como toda estimación, la de los índices de capacidad está sometida a errores

que pueden ser controlados mediante una estimación más precisa que la pun-

tual, como el caso de la estimación mediante intervalos de confianza o la real-

ización de contraste de hipótesis.

En el caso de los índices de primera generación, se podría calcular el interva-

lo de confianza para utilizando el resultado que proporciona la distribución

110 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES

Page 119: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

de la varianza muestral (2), conocido como teorema de Fisher, y que garantiza

la distribución de la varianza mediante una distribución Chi-cuadrado con n-1

grados de libertad (2−1), por lo que se tendría:

6

s21−2−1− 1 ≤ ≤ −

6

s22−1− 1

De donde se obtiene como intervalo de confianza para Cp al (1 − )% de

confianza: ⎛⎝ b

s21−2−1− 1 b

s22−1− 1

⎞⎠Siendo 21−2−1 y

22−1 los valores correspondientes de la distribución

Chi-cuadrado de Pearson que dejan colas de probabilidad de 2 a su derecha

e izquierda respectivamente. Este tipo de estimación suelen proporcionar inter-

valos de confianza excesivamente amplios debido al pequeño tamaño muestral

utilizado.

Para la estimación de intervalos para otros índices se han propuesto uti-

lizar aproximaciones mediante la distribución Normal, puede verse el artículo

de Kotz y Lovelace (1998) donde los autores proponen estimaciones para los

intervalos de confianza para los distintos índices.

En el caso de distribuciones no normales, también el propio Luceño (1996)

propone utilizar el siguiente intervalo para un nivel de confianza del 100(1 −)% para su índice :Ã b

1 + 2−1 √

b

1− 2−1 √

!Siendo 2−1 el valor de la de Student con − 1 grados de libertad que

deja una cola de probabilidad de 2

=1

X=1

| − |

2 =1

− 1X=1

(| − |− )2

Otra alternativa a los intervalos de confianza es usar la filosofía de los

contrastes de hipótesis, en este caso se contrastaría la siguiente hipótesis (nula

y alternativa):

0 = 0

1 : ≥ 0

INTERVALOS DE CONFIANZA Y CONTRASTES PARA LA ESTIMACIÓN DE LOS

íNDICES 111

Page 120: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

En este caso la hipótesis nula supone que el proceso es no capaz y se con-

trasta contra la alternativa de que el proceso es capaz, fijado un valor crítico

de consenso 0. En el artículo de Kane (1986) se realiza un amplio estudio

de este tipo de contrastes proponiendo una tabla de valores para la toma de

decisiones.

5.6. Ejercicio

Ejemplo: Con los datos de la dureza del acero de un ejercicio anterior,

que trataba de 20 muestras de tamaño 5 con una media de 519.29 MPa y

una media de las desviaciones de 9.45 MPa. Tomando como especificaciones

= 520 = 480 y = 560. Calcular los índices de calidad del proceso

y un intervalo de confianza para .

Valor del estadístico chi-cuadrado es 239993 con 5 grados de libertad,

resultando un p-valor de 0.791484. Podemos dar por válida la distribución

normal de los datos analizados, por lo que se utilizarán los índices para este

caso, como el y el :

Como 4 = 09400⇒ b = 4= 9494

094= 101

= −

6=560− 4806 (101)

= 132

Índices de capacidad inferior y superior

= −

3=560− 519293 (101)

= 134

=−

3=51929− 4803 (101)

= 13

= mın { } = 13Como el valor = 13, quiere decir que tenemos 96 piezas defectuosas por

millón.

En este caso, supuesto que la desviación típica estimada del proceso es

10.1 y puesto que las muestras eran de tamaño 5, buscando en la tabla de la

distribución Chi-cuadrado, resultan 209754 = 048 y 200254 = 1114⎛⎝ b

s21−2−1− 1 b

s22−1− 1

⎞⎠Ã132

r048

4 132

r1114

4

!(0457 26 2 202 9)

112 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES

Page 121: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 5-1 Análisis de la capacidad con el paquete qcc de R.

Obsérvese que el intervalo contiene al 1 (e incluso al valor 2), por lo que con

un 95% de confianza podría considerarse el proceso capaz.

EJERCICIO 113

Page 122: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

114 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES

Page 123: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

6. OTROS GRÁFICOS DE CONTROL

UNIVARIANTES.

Contenido del tema: Introducción. Gráficos de Medias individuales. Gráficos

CUSUM. Gráficos de control de Medias ponderadas (EWMA).

6.1. Introducción

En este tema se analizarán otras alternativas a los clásicos gráficos de con-

trol de Shewhart. Aunque este tipo de gráficos son los más ampliamente uti-

lizados, y siguen a ser de gran utilidad, en los últimos años, auspiciados en

gran medida por el avanza en la informática, han aparecido otros gráficos que

presentan alternativas de mejora.

Entre los inconvenientes de los gráficos propuestos por Walter Shewhart

para el control de procesos está el que usan sólo la información contenida en

la última muestra para la toma de decisiones e ignaran toda la información

de los puntos anteriores. Esta información acumulada es de gran importancia

en lo que podríamos denominar la segunda fase de un proceso de control: la

monotorización. Así en este caso deben de utilizarse toda la información posible

proporcionada por los datos o incluso otros criterios de alarma como considerar

límites de aviso a distancias menores al 3 clásico.

La idea de los gráficos de control que se presentan en este tema es que la

representación gráfica no se basa en las observaciones individuales, o promedios

de una muestra de ellas, sino en la acumulación de la información. Por esta

razón se les denomina también gráficos con memoria.

Entre las alternativas a los gráficos de medias y atributos analizados en

temas anteriores se presentará en este, los gráficos para medias individuales,

los gráficos de sumas acumuladas o gráficos CUSUM y los gráficos con medias

ponderadas exponencialmente o gráficos EWMA. Finalmente se abordará el

problema de cómo monotorizar el proceso de control, para detectar señales de

alarma cuando ya están construídos los límites correspondientes.

OTROS GRÁFICOS DE CONTROL UNIVARIANTES. 115

Page 124: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

6.2. Gráficos de control para medias individuales

Cuando se tiene que el tamaño muestral es uno, no se puede calcular los

gráficos de medias vistos anteriormente. Este tipo de situaciones suele darse en

la industria química en la que no tiene sentido tomar muestras de una misma

mezcla ya que la variabilidad encontrada será producto del mecanismo usado

para la medida y no de la característica analizada. Por ejemplo, en el caso

de analizar muestras de licores de un mismo tanque de producción no tiene

sentido seleccionar más una muestra de cada recipiente. El problema en este

tipo de estudio estriba en estimar la varianza, para ello pueden emplearse dos

métodos: el de rangos móviles o la agrupación por bloques.

El método de rangos móviles consiste en agrupar medias individuales

consecutivas con intención de formar una submuestras que permita estimar los

rangos. Una vez creado el primer grupo, se irán agrupando sucesivamente la

muestras incorporando la nueva observación y eliminando la primera de cada

muestra.

Por otra parte, cuando exista alguna razón que pueda justifiacar la agru-

pación de los datos en bloques puede recurrirse a formar los grupos con estos

datos. Por ejemplo, en una fábrica de cerveza en la que se tienen dos tanques

podría agruparse la produción diaria en 2 bloques formados por la produción

diaria en cada tanque.

Para estimar los límites de control en este caso se procede como con el

gráfico de la media pero tomando el tamaño de submuestras igual a 1. Sigue

utilizándose la misma nomenclatura para el cálculo del estimador de la media,

, en el caso de utilizar gráficos probabilísticos quedarían los límites de control

± 2

La estimación de puede hacerse utilizando la media de las desviaciones

típicas la media de los rangos , o la media de las cuasidesviaciones −1 :

± 2

2

± 2

2

± 2

−14

En el supuesto más clásico de usar criterios 3 suele utilizarse unas con-

stantes (1 2 y 3), resultando las fórmulas para gráficos individuales:

±1

±2

±3−1

116 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 125: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Al igual que ocurría en los gráficos de variables también en el caso de

medidas individuales debe hacerse el gráfico para las desviaciones o recorridos,

con objeto de controlar la variabilidad de los datos y no sólo el valor nominal.

Ejemplo: Una destilería envasa diariamente el aguardiente producido en

dos tanques. Se está interesado en controlar el grado de alcohol del aguardiente

elaborado para lo que se recogen los resultados de los análisis durante 10 días

consecutivos resultando los datos de la siguiente tabla:

día tanque 1 tanque 2 Rango (orden 2)

1 44,497 43,982 0,515

2 44,354 44,032 0,322

3 44,523 44,127 0,396

4 44,12 44,089 0,031

5 43,576 43,767 0,191

6 44,546 43,451 1,095

7 43,221 44,448 1,227

8 44,549 43,546 1,003

9 43,337 43,539 0,202

10 43,486 43,9 0,414

44,0209 43,8881 0,5396

43,9545

En este caso la media de todos los datos resulta = 439545 se ha utilizado

la agrupación por bloques, producción de un mismo día, el estimador de la

desviación típica utilizando el rango medio resulta:

b =

22=05396

1128= 0478 37

Los límites de control para este gráfico quedan:

±22 = 439545± 266 (05396) = 439545− 266 (05396) = 42 519 = 439545 + 266 (05396) = 45 390

El correspondiente gráfico para los recorridos se calcularía:

= 05396

= 32 = 0 (05396) = 0

= 42 = 3267 (05396) = 1 762 9

Si en vez de usar el método de agrupación por bloques utilizaramos medias

móviles de orden 3, se agruparán los datos en grupos de forma que el primero

esté constituído por las 3 primeras mediciones, el segundo se forma añadiendo

la cuarta medición y eliminando la primera, procediendo de este modo hasta

completar todas las posibilidades, como aparece en la siguiente tabla:

GRÁFICOS DE CONTROL PARA MEDIAS INDIVIDUALES 117

Page 126: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

x1 x2 x3 Rango (orden 3)

44,497 43,982 44,354 0,515

43,982 44,354 44,032 0,372

44,354 44,032 44,523 0,491

44,032 44,523 44,127 0,491

44,523 44,127 44,12 0,403

44,127 44,12 44,089 0,038

44,12 44,089 43,576 0,544

44,089 43,576 43,767 0,513

43,576 43,767 44,546 0,97

43,767 44,546 43,451 1,095

44,546 43,451 43,221 1,325

43,451 43,221 44,448 1,227

43,221 44,448 44,549 1,328

44,448 44,549 43,546 1,003

44,549 43,546 43,337 1,212

43,546 43,337 43,539 0,209

43,337 43,539 43,486 0,202

43,539 43,486 43,9 0,414

El rango medio en este caso (media de los rangos de orden 3) resulta =

06862 el estimador de la desviación típica utilizando el rango medio resulta:

b =

23=06862

1693= 0405 32

Los límites de control para este gráfico quedan:

±23 = 439545± 1772 (06862) = 439545− 1772 (06862) = 42 739 = 439545 + 1772 (06862) = 45 17

El correspondiente gráfico para los recorridos se calcularía:

= 06862

= 33 = 0 (06862) = 0

= 43 = 2575 (06862) = 1 767 0

Si en lugar de usar medias móviles de orden 3 se utilizan médias de orden

2, para lo que se agruparían los datos en submuestras de tamaño 2, primera y

segunda observación, segunda y tercera, y así sucesivamente, los nuevos gráficos

resultarían las siguientes estimaciones:

b =

22=0517211

1128= 0458 52

118 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 127: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico X para alcohol

X

CTR = 43,9

UCL = 45,3

LCL = 42,58

1.01.0

1,01,0

1,01,0

1,01,0

1,01,0

2,02,0

2,02,0

2,02,0

2,02,0

2,02,0

42

43

44

45

46

Figura 6-1 Gráfico de medias individuales de orden 2 para el contenido medio de

alcohol.

Los límites de control para este gráfico quedan:

±22 = 439545± 266 (051721) = 439545− 266 (051721) = 42 579 = 439545 + 266 (051721) = 45 33

El correspondiente gráfico para los recorridos se calcularía:

= 051721

= 32 = 0 (051721) = 0

= 42 = 3267 (051721) = 1 689 7

En este caso los gráficos, utilizando el programa Statgraphics, resultan val-

ores similares que pueden verse en las figuras siguientes:

6.3. Gráficos CUSUM

Los gráficos para la media de Shewhart permiten tomar decisiones sobre

si el proceso se encuentra en control o no basándose en los datos de cada

GRÁFICOS CUSUM 119

Page 128: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico MR(2) para alcohol

MR

(2)

CTR = 0,52

UCL = 1,69

LCL = 0,00

1.01.0

1,01,0

1,01,0

1,01,0

1,02,0

2,02,0

2,02,0

2,02,0

2,02,0

2,0

0

0,3

0,6

0,9

1,2

1,5

1,8

Figura 6-2 Grafico para los rangos de orden 2.

Curva OC para X

41 42 43 44 45 46 47

Media del Proceso

0

0,2

0,4

0,6

0,8

1

Pr(

acep

tar)

Figura 6-3 Curva característica de operación (OC).

120 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 129: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Curva ARL para X

43 43,4 43,8 44,2 44,6 45

Media del Proceso

0

100

200

300

400

500

Dur

ació

n de

eje

cuci

ón m

edia

Figura 6-4 Curva ARL para el ejemplo del alcohol del aguardiente.

submuestra, no aprovechando toda la información anteroior a una determinada

muestra para la decisión. Como alternativa Page (1954) propuso el denominado

gráfico de sumas acumulativas o gráficos CUSUM (Cumulative Sum) que basan

la decisión de comprobar si el proceso está bajo control o no analizando toda

o la mayor parte de la muestra. Para este fin se usará el estadístico :

=

X=1

( − 0)

Este estadístico tiene en cuenta las primeras submuestras para tomar

la decisión sobre la muestra −ésima. Considerando todos las diferencias decada media muestral () con la media del proceso (0). Si se llama a estas

diferencias = −0 Los gráficos tipo Shewart podrían verse como gráficos

basados en la evolución de estas diferencias . Si ocurriese un desajuste muy

pequeño, la evolución de estas diferencias sería poco eficaz para detectarla.

La idea del gráfico CUSUM es representar las sumas acumuladas de estas

diferencias, es decir los valores: 1 = 1, 2 = 1 + 2, 3 = 1 + 2 +3, ...

De esta fomra en en cada instante se considera también la información

histórica de los valores anteriores. Un desajuste pequeño se irá así acumulando

haciendo más fácil su detección.

El gráfico CUSUM es la representación de las sumas acumuladas de las

desviaciones entre cada dato, en este caso la media muestral (), y un valor de

referencia (0). Bajo supuestos de normalidad es evidente deducir la distribu-

ción del estadístico :

GRÁFICOS CUSUM 121

Page 130: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

µ (− 0)

20

¶Cuando sea cierta la hipótesis nula = 0 las sumas acumuladas tendrán

media 0, con lo que es de esperar que oscilen alrededor de la recta = 0. En

cl caso en que la hipótesis no sea cierta los valores graficados de las sumas serán crecientes o decrecientes dependiento del signo de −0 lo que permitirádetectar salidas de control eligiendo convenientemente los límites.

Suelen ser efectivos cuando en un proceso se produce un desajuste muy pe-

queño (entre 05 y 25). Son pues gráficos que se proponen para la detección

de desajustes pequeños y que se basan en la acumulación de la información,

por lo que también se los conoce como gráficos de control con memoria.

Es resaltable que después de la primera propuesta de Page (1954) habría

muchas otras mejoras como las de utilizar una máscarilla en forma de V para

la toma de decisiones propuesta por Barnhard (1959), o las mejoras propuestas

por Evan (1963), Jhonson y Leone (1962) o Goel y Wu (1971).

6.3.1. Construcción del gráfico CUSUM tabular

Los gráficos CUSUM pueden construirse tanto para medidas como para

otros estadísticos, como la proporción de una binomial, la media de una Poisson,

para las varianzas. En este tema supongamos que se desea controlar la evolución

de una variable ˜( ), donde es conocida o se posee una estimación.

El CUSUM algorítmico (o tabular) calcula las desviaciones de cada valor

respecto del valor objetivo o nominal . Se distinguirá entre desviaciones pos-

itivas y negativas, puesto que en muchas situaciones ambas desviaciones no

tienen la misma repercusión.

Es necesario definir un valor a partir del cual se condera que la desviación

acumulada es significativa. Este valor determinara la sensisibilidad del gráfico

de control. Si la suma acumulada hasta la observación −ésima es menor quecierto umbral , se considera que la desviación acumulada es cero. Si el grá-

fico es insensible a desviaciones no significativas, será más fácil visualizar las

desviaciones que sean significativas. La representación grafica será más limpia.

Uniendo esta idea de desviación significativa con las de separación de desvia-

ciones positivas y negativas se tendrán dos tipos de sumas significativas acu-

muladas: + para las desviaciones positivas y − para las negativas. Estas

sumas acumuladas se definen de la siguiente forma:

• + =acumulación de desviaciones positivas significativas:

+ = max{0 +

−1 + ( − )−}De esta forma, si el proceso está bajo control, la variable tomara valores

cercanos al nominal y el termino + tendera a tomar valores nulos.

122 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 131: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

• − =acumulación de desviaciones negativas significativas:

− = mın{0 +−1 − ( − )−}

El valor de se suele elegir en función de la desviación que se quiera

detectar. Supongamos que el valor nominal de la variable de interés es .

Los valores de las sumas acumuladas se han de comparar con el valor max-

imo admisible. Este valor, denominado valor de decision suele ser = ,

donde se recomienda que = 5 y por tanto = 5 (algunos autores también

recomiendan valores de = 4). Los valores ± son los limites de control de

este grafico.

Tras una señal de alarma en el grafico CUSUM se debe buscar la causa

asignable que la originó. Puede suceder que dicha causa exista pero no se

encuentre o que existan varias causas concurrentes y sólo parte de ellas sean

corregidas.

Ejemplo: Con los datos de la resistencia del acero calcular el correspondiente

gráfico cusum tabular.

Mediante el paquete Statgraphics resultará la siguiente construcción para

este gráfico.

Gráfico CuSum para la media

––––-

UCL: +22,5845

Línea central: 0,0

LCL: -22,5845

0 fuera de límites

Gráfico cusum para los Rangos

–––––-

UCL: +49,6723

Línea central: 23,4929

LCL: 0,0

0 fuera de límites

Estimaciones

––––

Media del Proceso = 519,295

Sigma del Proceso = 10,1001

Rango Medio = 23,4929

6.3.2. Construcción del gráfico CUSUM con máscara V

Otra alternativa es la de utilizar una máscarilla en forma de V para la

toma de decisiones (véase Barnhard (1959)). El procedimiento de la máscara

V es el procedimiento más popular de gráfico CUSUM, estando implementado

GRÁFICOS CUSUM 123

Page 132: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico de Estado CuSum para Resistencia_MPa

0 4 8 12 16 20

Subgrupo

-23

-13

-3

7

17

27

CuS

um

AIM=0,00

H=22,58

K=2,26

K=-2,26

H=-22,58

Figura 6-5 Cusum tabular para la muestra del acero.

en muchos paquetes estadísticos. La máscara V se basa en la representación

grafica del estadístico CUSUM:

=

X=1

( − 0)

Aunque algunos programas informáticos utilizan la estandarización de la

variable de interés:

=

X=1

µ − 0

¶donde 0 es el valor nominal de referencia y la desviación típica (conocida

o estimada) de la variable de interés.

Esta máscara V, se construye mediante el cálculo de un ángulo de amplitud

junto con una línea horizontal. El extremo izquierdo de la línea horizontal

(punto 0) se coloca en una de las observaciones (la que se quiere contrastar),

y en el extremo derecho de dicho segmento horizontal (punto V) se coloca el

vértice del ángulo. En estas plantillas, la distancia OP y el ángulo determinan

la sensibilidad del gráfico de control.

Usualmente la máscara se sitúa sobre el último punto dibujado. Si alguno

de los puntos previamente dibujados es recubierto por la máscara, es que ha

ocurrido un cambio. Los puntos cubiertos por la parte superior de la máscara

indican un decrecimiento en la media del proceso, en tanto que los cubiertos por

la parte inferior de la máscara indican un incremento en la media del proceso.

El primer punto recubierto por la máscara indica, aproximadamente, el tiempo

en el que ocurrió el cambio. Cuando no hay puntos anteriores cubiertos por la

máscara, es que el proceso está en control.

124 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 133: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 6-6 Construcción de una máscara V.

Muchos paquetes informáticos utilizan el procedimiento de Johnson y Leone

para determinar el ángulo y la distancia (distancia del segmento OP). Estos

parámetros se fijan de la siguiente forma:

=

=2

22

ln

µ1−

2

= arctan

µ

2

¶donde:

depende de la escala del gráfico. Es la distancia horizontal entre puntos

sucesivos del eje de abscisas medida en las unidades del eje de ordenadas.

Si el grafico se realiza con un programa estadístico este parámetro viene ya

predeterminado y no necesita calcularlo el analista.

es la sensibilidad del análisis y es el grado de desajuste que queremos

detectar, en número de desviaciones típicas. Si queremos detectar que la media

aumente de 0 a 1 se tiene que 1 = 0 +

es la probabilidad de una falsa alarma cuando el proceso está bajo control.

es la probabilidad de NO detectar una desviación .

es el promedio de los tamaños muestrales. Si el grafico es de observaciones

individuales = 1

En el Manual de calidad de Juran se presenta una versión simplificada de

este procedimiento, elaborado a partir de una serie de simplificaciones y valores

de parámetros de aplicación frecuente, y cuyos pasos son los siguientes:

1. Obtener una estimación del error estándar del estadístico que se dibuja;

por ejemplo, puede ser obtenido de un grafico de recorridos de otro estimador

apropiado. Si se utiliza un gráfico de recorridos, el estimador es 2√.

GRÁFICOS CUSUM 125

Page 134: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

2. Determinar la mínima variación en la media D que se desea poder detec-

tar. Calcular:

=

3. Determinar el nivel de significación al que se desea tomar las decisiones.

Para limites equivalentes a 3, el nivel de significación es = 0 00135.

4. Determinar el factor de escala . Es el factor entre las escalas del eje

vertical (estadístico considerado) respecto al eje horizontal (numeración de las

muestras). Ewan (1963) recomendaba que era conveniente que fuese un valor

comprendido entre y 2 , preferentemente cercano a 2 .

5. Obtener la distancia principal d de la tabla siguiente utilizando el valor

de obtenido en la etapa .

0,2 50’43’ 330,4

0,4 11’19’ 82,6

0,5 14◦00’ 52,9

0,6 16’42’ 36,7

0,8 21’48’ 20,6

1,0 26◦34’ 13,2

1,2 30◦58’ 9,2

1,3 32◦59’ 7,8

1,4 35◦00’ 6,7

1,6 38’40’ 5,2

1,8 41’59’ 4,1

2,0 45◦00’ 3,3

2,2 47◦44’ 2,7

2,4 50’12’ 2,3

2,6 52’26’ 2,0

2,8 54◦28’ 1,7

3,0 56’19’ 1,5

6. Obtener el ángulo de la máscara de la tabla anterior hallando ,

igualando a en la tabla y leyendo . Se debe utilizar interpolación lineal si

fuese necesario.

Utilizar y para construir la máscara en V.

El tamaño de las muestras para el gráfico CUSUM de medias es el mis-

mo que para un gráfico . Sin embargo, Ewan (1963) sugiere, para obtener los

mejores resultados, que se debe utilizar = 2 252 donde es una esti-

mación de la desviación típica del proceso.

En algunos procesos no es conveniente utilizar la máscara V. Se puede

utilizar un método alternativo de tabulación que está muy bien adaptado a

las aplicaciones con ordenador. Es equivalente al método de recorrido con la

máscara.

También suele utilizarse otros procedimientos como el Nomograma de Kemp

para la construcción de la máscara, en este caso se fija el ARL correspondiente

126 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 135: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

a la situación bajo control (es decir para 0) y el ARL que se desea obtener

cuando el proceso está fuera de control y la media es 1 = 0 +

Ewan (1963) compara los gráficos CUSUM y los para distintos cambios en la

media del proceso. Para cambios entre y , el grafico CUSUM detecta el cambio

con menos muestras de las que son necesarias en un grafico de medias . Para

cambios mayores, no presentan ventaja los graficos CUSUM. La conclusion de

Ewan supone que el gráfico sólo utiliza la regla de un punto fuera de los límites

de control.

Si se utilizan otros criterios de existencia de situación de fuera de control

(investigación de tendencias), entonces disminuye la ventaja de los gráficos

CUSUM.

Autores como Montgomery desaconsejan esta forma de implementar el grá-

fico cusum (con máscara V) y prefieren el gráfico asociado al Cusum algorítmi-

co o tabular analizado en la sección anterior. Entre los motivos aluden, entre

otros, a que no está claro cuánto debemos extender hacia atrás los brazos de

la máscara, dificultando la interpretación por partes del usuario.

Ejemplo: Realizar la construcción del gráfico cusum con máscara para el

caso de los datos del acero.

Mediante el uso del paquete Statgraphics resulta:

Gráfico CuSum

––––-

Detectar cambio de 1,0 sigma = 10,1001

alpha = 0,01

beta = 0,01

V-máscara en la muestra 20

Gráfico de Rango

–––––-

UCL: +3,0 sigma = 49,6723

Línea central = 23,4929

LCL: -3,0 sigma = 0,0

0 fuera de límites

Estimaciones

––––

Media del Proceso = 519,295

Sigma del Proceso = 10,1001

Rango Medio = 23,4929

GRÁFICOS CUSUM 127

Page 136: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico CuSum para Resistencia_MPa

0 4 8 12 16 20 24

Subgrupo

-14

-9

-4

1

6

11

16

CuS

um

Figura 6-7 Gráfico Cusum para con máscara para los datos del acero.

6.4. Gráficos de control de medias móviles pon-

deradas exponencialmente (EWMA)

La salida de un proceso bajo supervisión puede analizarse también medi-

ante la filosofía de las series temporales, pues en el fondo cuando se hacen las

correspondientes gráficas de las submuestras en distintos períodos de tiem-

po, estas constituyen una serie temporal. En este sentido es donde se podría

englobar los gráficos presentados en esta sección.

El gráfico de medias móviles con ponderación exponencial o gráfico EW-

MA (Exponentially Weighted Moving Average), fue introducido primeramente

por Roberts (1959) y luego por Wortham y Ringer (1971), que lo propusieron

para aplicarlo en procesos industriales, en sistemas de control en finanzas y

en dirección, para las que los subgrupos formados por varios elementos no son

aplicables.

Al igual que los gráficos CUSUM, son útiles para detectar pequeños cambios

en la media.

Para este tipo de gráficos se toman normalmente datos individuales. Las

observaciones individuales pueden ser medias (cuando las observaciones indi-

viduales de las que provienen las medias no están disponibles), lecturas indi-

viduales, cocientes, proporciones, o medidas similares.

128 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 137: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

6.4.1. Construcción del gráfico

El estadístico dibujado es la media ponderada de la observación actual y

todas las observaciones precedentes, donde la media previa recibe más peso, es

decir,

= 1 + (1− )−1 0 1

Donde:

0 =

= media móvil ponderada exponencialmente en el tiempo actual .

−1 = media móvil ponderada exponencialmente en el tiempo inmedi-

atamente precedente − 1. = la observación presente.

es el factor de ponderación para la observación actual, 0 ≤ ≤ 1.

Si se cumplen las hipótesis de independencia y estabilidad sobre los xt, se

tiene que:

() =

Y

() = 2(1− )2

2−

Cuando aumenta, el último termino entre paréntesis en la parte derecha

converge rápidamente hacia uno, y la correspondiente expresión para la vari-

anza se transforma en () = 2[(2− )]

Eligiendo = 2( + 1), la expresión aproximada de la varianza se trans-

forma en () ≈ 2 (varianza de medias de muestras de elementos).

Bajo estas condiciones, los límites de control se transforman en b±3q2. Para

otros valores de , los límites de control son:

= b+ 3br

2−

= b− 3br

2−

Para las primeras observaciones, se debe utilizar la primera ecuación para

la varianza. Si no se tiene una buena estimación para , se debe utilizar un

grafico de recorridos y estimar por 2√. En el caso de valores individuales,

GRÁFICOS DE CONTROL DE MEDIAS MÓVILES PONDERADAS EXPONENCIAL-

MENTE (EWMA) 129

Page 138: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

el recorrido móvil medio se puede utilizar en la forma en que se hizo para los

gráficos de control de valores individuales.

El gráfico EWMA puede expresarse de la forma general:

=

X=1

(-i+1) +

En donde es el instante actual, es el número de medias consideradas en

cada punto y que se llama orden del gráfico, son los pesos considerados

y es una constante que puede ser nula. Con esta expresión general pueden

obtenerse distintos gráficos:

Si = 1, = 1 y = 0 obtendríamos el gráfico de Shewart para la

media

Si = 1 y = −0 se obtiene el gráfico CUSUM en donde:

=

X=1

(-i+1 − 0) =

X=1

-i+1 − 0

Si =1y = 0 se obtiene el denominado gráfico de Medias Móviles

=1

X=1

-i+1

Si = (1 − )−1 y = (1 − )0 es el gráfico EWMA donde el

estadístico está expresado como:

=

X=1

(1− )−1-i+1 + (1− )0

Al igual que el grafico CUSUM, el grafico EWMA es más efectivo que el

grafico de medias para detectar pequeños cambios en la media; sin embargo,

ambos gráficos funcionan peor que el grafico de medias para grandes cambios.

Para superar esta dificultad, algunos autores han propuesto representar los

limites de Shewhart y los límites EWMA en el mismo gráfico.

Ejemplo: Construir el gráfico EWMA para los datos de resistencia del acero

con = 2.

Gráfico EWMA - Lambda = 0,2

––––

UCL: +3,0 sigma = 523,812

Línea central = 519,295

LCL: -3,0 sigma = 514,778

0 fuera de límites

130 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 139: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico EWMA para Resistencia_MPa

0 4 8 12 16 20

Subgrupo

514

516

518

520

522

524

EW

MA

CTR = 519,

UCL = 523,

LCL = 514,7

Figura 6-8 Gráfico EWMA para la resistencia del acero.

Gráfico de Rango

–––––-

UCL: +3,0 sigma = 49,6723

Línea central = 23,4929

LCL: -3,0 sigma = 0,0

0 fuera de límites

Estimaciones

––––

Media del Proceso = 519,295

Sigma del Proceso = 10,1001

Rango Medio = 23,4929

Como se comentó al principio de esta sección se puede realizar el estudio

del proceso mediante la aplicación de la metología de series temporales. Bajo

esta perspectiva puede buscarse encontrarse el mejor modelo para los datos

mediante el uso de la metodología Box-Jenkins de modelos ARIMA, siendo

aplicables la mayoría de estas técnicas en este contexto.

Ejemplo: Analizar mediante un modelo ARIMA los datos del acero.

Gráfico ARIMA

––––-

UCL: +3,0 sigma = 533,628

Línea central = 519,338

LCL: -3,0 sigma = 505,048

0 fuera de límites

Gráfico de Rango

–––––-

UCL: +3,0 sigma = 49,6723

GRÁFICOS DE CONTROL DE MEDIAS MÓVILES PONDERADAS EXPONENCIAL-

MENTE (EWMA) 131

Page 140: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Gráfico ARIMA para Resistencia_MPa

0 4 8 12 16 20

Subgrupo

500

510

520

530

540

X-b

ar

CTR = 519,

UCL = 533,

LCL = 505,0

Figura 6-9 Gráfico ARIMA para los datos de resistencia del acero.

Línea central = 23,4929

LCL: -3,0 sigma = 0,0

0 fuera de límites

Estimaciones

––––

Media del Proceso = 519,338

Sigma del Proceso = 10,651

Rango Medio = 23,4929

Resumen del Modelo ARIMA

Parámetro Estimado Error Estd. t P-Valor

–––––––––––––––––––––––-

AR(1) -0,00091808 0,232564 -0,00394765 0,9969

AR(2) -0,317454 0,232903 -1,36303 0,1907

Media 519,338 0,804927 645,2 0,0000

Constante 684,681

–––––––––––––––––––––––-

Pronóstico hacia atrás: si

Varianza del ruido blanco estimado = 21,0982 con 17 grados de libertad

Desviación típica del Ruido blanco estimado = 4,59327

132 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.

Page 141: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

7. GRÁFICOS DE CONTROL MULTI-

VARIANTES.

Contenido del tema: El enfoque multivariante. Control independiente de

las variables. Distribuciones multivariantes. Gráficos T2 de Hotelling. Gráficos

Multivariantes de Sumas acumuladas (MCUSUM). Gráficos Multivariantes de

Medias ponderadas (MEWMA). Anexo.

7.1. Introducción: el enfoque multivariante

En los procesos productivos que se desarrollan en el mundo real, para rea-

lizar un control de la calidad, es muy frecuente que se precise estudiar más

de una variable de manera simultánea. Así, en la fabricación de un automóvil

pueden llegar a medirse y controlarse más de 200000 variables de calidad, en el

caso de un buque o de un avión el número pude pasar fácilmente del millón de

variables. Esta parte del control de la calidad, que tiene por objeto el estudio

conjunto de datos multidimensionales, se conoce como control multivariante.

La mayor parte de las técnicas del control multivariante de procesos han

sido desarrollados a lo largo del siglo XX. Desde los trabajos pineros Harol

Hotelling que estudió las miras de los aviones de combate que intervinieron

en las batallas aéreas de la segunda guerra mundial (1947), hasta las aporta-

ciones de matemáticos como el hindú Mahalanobis entre otros, la mayoría de

las aportaciones tuvieron como hilo conductor crear extensiones de gráficos y

métodos de control del caso univariante al caso multidimensional.

Aunque las aportaciones al control multivariante han ido casi siempre en-

focadas a resolver problemas ligados a la industria, este avance ha sido a la

aparición de nuevos métodos de estadística multivariante, como el análisis de

componentes principales, el análisis discriminante, el análisis factorial o el análi-

sis clúster conjuntamente con la mejora en la potencia de cálculo de los orde-

nadores.

Hoy en día la investigación sobre técnicas de control multivariante está

experimentando cierto cambio al dirigirse, cada vez más, a procedimientos grá-

ficos, que permitan resumir, de forma visual, grandes cantidades de datos,

así como hacia el estudio de modelos multivariantes no paramétricos o semi-

paramétricos, en los que muchas de las hipótesis sobre las distribuciones, im-

puestas por los modelos clásicos del control multivariante, se pueden relajar

notablemente. En este sentido se analizarán las aportaciones de Regina Liu

de los denominados gráficos DDChart, que son gráficos de control de tipo no

GRÁFICOS DE CONTROL MULTIVARIANTES. 133

Page 142: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

paramétrico, basados en el concepto de profundidad de datos.

7.2. Control independiente de las variables

En principio, la idea que puede surgir, partiendo de la teoría desarrollada

en los temas anteriores, es el desarrollo de gráficas de control univariantes para

controlar el estado de cada una de las características de calidad observadas

de forma independiente. Es decir, si queremos controlar variables realizar

controles individuales. Esta idea resulta engañosa, pues normalmente las vari-

ables de un proceso complejo suelen estar muy relacionadas entre si y con este

procedimiento se perdería el estudio de las correlaciones latentes del proceso.

Desde el punto de vista probabilístico es evidente que si observamos vari-

ables, podemos construir y gráficas de control. De este modo se estaría

ignorando el efecto de las interacciones entre las diferentes variables. Esto es,

se estaría obviando la información aportada a través de las covarianzas.

En el caso más simple de controlar dos variables de un proceso, por ejemplo

podría interesar controlar la resistencia y la elasticidad de un material, si estas

variables las denotamos por (1 2) podrían construirse los correspondientes

límites para cada una de estas variables y de forma natural obtener un límite

conjunto dado por el rectángulo de intersección de ambos límites de control.

Esta forma de proceder llevaría a una acumulación del error de tipo I muy

considerable. Si se supone que la probabilidad de que ambas variables excedan

los límites de control es de 00027, la probabilidad conjunta de que ambas

variables excedan los límites de control será de (00027) (00027) = 000000729

mucho menor que 00027

Este fenómeno es más apreciable analizando el suceso contrario de que am-

bas variables estén entre los límites de control pues se pasaría, por la misma

razón, de 09973 a 09946, y esto sólo en el caso de tener una variable bidimen-

sional. Esta probabilidad irá disminuyendo en función del número de variables

a controlar. Así, si se tiene 10 características de un mismo producto, la prob-

abilidad de que las 10 se encuentren bajo control sería de 0997310 = 0973 33

lo que supone una pésima calidad del producto final. En general, si se tiene

un vector de características con una de ellas independiente de las otras y se

supone una probabilidad de error de tipo I La probabilidad resultante del

error de tipo I para las p características será: 1−(1−) Siendo la probabilidadde que las p características estén simultáneamente entre los límites de control

de (1− ) Por otra parte, en el caso de que las variables no fuesen indepen-

dientes, situación bastante frecuente en la realidad, no existe una fórmula tan

sencilla para medir la probabilidad conjunta.

Una primera alternativa a los límites de control independientes es realizar

una corrección en el nivel de significación con objeto de disminuir las falsas

alarmas puede resolverse mediante el uso de gráficos univariantes con límites

134 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 143: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

LCI x1

LCI x2 LCS x1

LCS x1

X1

X2

Figura 7-1 Zona de control utilizando límites de control independientes.

de control tipo Bonferroni, propuesta por Alt (1985).

La propuesta consiste en corregir las probabilidades de error de tipo I en

función del número de variables independientes, dividiendo el valor entre el

número de variables, quedando los límites de la siguiente forma:

= − 2

=

= + 2

Existen otras alternativas en la línea de hacer correcciones como la de Bon-

ferroni, pero serán los métodos basados en utilizar la estructura de correlación

de los datos los que aporten soluciones al estudio multivariante. Para su estudio

se analizará someramente conceptos básicos de las variables multidimension-

ales.

7.3. Variable aleatoria p-dimensional

Como se comentó supondremos que estamos interesados en controlar un

vector de p componentes, que desde el punto de vista estadístico se denomi-

VARIABLE ALEATORIA P-DIMENSIONAL 135

Page 144: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

naría variable aleatoria -dimensional, o vector aleatorio, y se podría denotar

por = (12 ), y sería un conjunto de variables aleatorias unidi-

mensionales definidas sobre el mismo espacio de probabilidad. Estas variables

podrán medir datos de tipo discreto o de tipo continuo, e incluso con frecuencia

tener unas componentes discretas y otras continuas.

De forma natural se extiende los conceptos da esperanza del vector aleatorio, también llamada vector de medias o centro de gravedad de la distribución,

como el vector formado por las medias individuales

³´=

⎛⎜⎝ (1)...

()

⎞⎟⎠ =

⎛⎜⎝ 1...

⎞⎟⎠ =

La extensión del concepto de varianza de una variable aleatoria real al caso

multidimensional se lleva a cabo mediante la llamada matriz de varianzas-

covarianzas, definida por

Cov³´= Σ = () =

⎛⎜⎜⎜⎝11 12 · · · 121 22 · · · 2...

.... . .

...

1 2 · · ·

⎞⎟⎟⎟⎠ =

µ³ −

´³ −

´¶

o, lo que es lo mismo,

= Cov () = ¡( − )

¡ −

¢¢

En particular, la matriz Σ es simétrica, en su diagonal aparecen las varianzas

de las variables y fuera de ella las covarianzas entre cada par de variables. Tam-

bién puede comprobarse que la matriz de varianzas-covarianzas es semidefinida

positiva. El determinante de Σ (que, por lo visto en la sección anterior, coin-

cide con el producto de todos sus autovalores, que son positivos) es la llamada

varianza generalizada de la variable multidimensional, pues conserva algunas

de las propiedades de la varianza de una sola variable y mide la dispersión

conjunta del vector de variables aleatorias.

Puede obtenerse fácilmente la siguiente fórmula para el cálculo abreviado

de la matriz de varianzas-covarianzas:

Cov³´=

³

´− .

Con el objeto de hacer de la matriz de varianzas-covarianzas una medida

adimensional de la relación entre las variables componentes del vector aleato-

rio surge la matriz de correlaciones, que es la formada por los coeficientes de

correlación lineal,

=

siendo 2 = . Esto da lugar a una matriz × =¡¢, con unos en la

diagonal y elementos comprendidos entre−1 y 1 fuera de ella (los coeficientes de

136 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 145: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

correlación de unas variables con otras). La matriz de correlaciones de un vector

aleatorio coincide con la matriz de covarianzas de un vector transformado

de , dado por = ·³ −

´, con

=

⎛⎜⎜⎜⎝−11 0 · · · 0

0 −12 · · · 0...

.... . .

...

0 0 · · · −1

⎞⎟⎟⎟⎠

es decir, del vector de variables estandarizadas,

=

⎛⎜⎜⎜⎝12...

⎞⎟⎟⎟⎠ , dado por = −

.

De hecho, como consecuencia de esto, la matriz de correlaciones también es

simétrica y semidefinida positiva.

Si las componentes de un vector de variables aleatorias son independientes

sus covarianzas son cero (y por lo tanto sus correlaciones también). Lo con-

trario, en general, no es cierto. Así, dos variables aleatorias pueden tener co-

varianza cero sin ser independientes.

7.3.1. Estimación del vector de medias y de la matriz de varianzas-covarianzas

A la hora de estimar cantidades como las anteriormente mencionadas (el

vector de medias, la matriz de varianzas-covarianzas o la de correlaciones, por

ejemplo) se puede proceder de forma análoga a lo ya conocido para variables

aleatorias unidimensionales. Supongamos que se dispone de una muestra de

datos correspondientes a la observación -ésima ( = 1 2 ) de la

−ésima característica de calidad ( = 1 2 ) en la k-ésima muestra ( =1 2 ), que pueden estructurarse mediante la matriz. El vector de medias

poblacional, , puede estimarse mediante el llamado vector de medias muestral

dado por

=1

X=1

2 =1

− 1X=1

( − ) ,

La matriz de varianzas-covarianzas poblacional puede estimarse también

mediante su análoga muestral al igual que el vector de medias. Así dadas las

VARIABLE ALEATORIA P-DIMENSIONAL 137

Page 146: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

covarianzas entre la característica de calidad −ésima y la característica decalidad −ésima para la −ésima muestra podrá estimarse mediante la expre-sión:

=1

− 1X=1

( − ) ( − ) , = 1 2 ; 6=

se podrán definir los siguientes estimadores:

=1

X=1

= 1 2

2 =1

X=1

2 = 1 2

=1

X=1

6=

Estos cálculos pueden reescribirse en forma matricial:

x =

⎛⎜⎝ 1...

⎞⎟⎠

S =

⎛⎜⎜⎜⎝21 12 13 · · · 1

22 23 · · · 2

23. . .

...

2

⎞⎟⎟⎟⎠

Estas estimaciones del vector de medias y de las matrices de varianzas-covarianzas

son el punto de partida de muchas de las técnicas del control estadístico mul-

tivariante.

7.3.2. La distribución normal multidimensional

Sin duda la distribución multivariante más utilizada (como ya ocurría tam-

bién en el caso univariante) es la normal multidimensional. Se trata de una

distribución continua, que se denota por (Σ) , cuya densidad viene dada

por

() = (2)−2

det (Σ)−12

exp

∙−12(− )

Σ−1 (− )

¸

siendo un vector de componentes y Σ una matriz de dimensión × ,

simétrica y definida positiva. Puede probarse que resulta ser el vector medias

de esta distribución y que Σ es la matriz de varianzas-covarianzas de la misma.

138 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 147: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

7.4. La T2 de Hotelling

Hotelling desarrolló el estadístico denominado 2 y su extensión a los grá-

ficos de control, como se comentó en la introducción esta distribución permite

analizar variables multidimensionales en las que exista dependencia entre ellas.

Aunque la distribución fue presentada en un artículo en 1947 y empleada en

el problema de calibrar las miras de los aviones de combate en esa época de

guerra mundial, este procedimiento permaneció en un segundo plano hasta que

en los años sesenta, los avances en el mundo de la informática hicieron que se

recuperara el interés por el control estadístico multivariante.

Al igual que en el caso univariante habrá que separar el caso de subgrupos

racionales del caso de muestras de un solo elemento. En primer lugar se analiza

el caso de subgrupos.

7.4.1. Caso bidimensional

En el caso más simple, aunque bastante frecuente, de suponer una variable

bidimensional = (12) con medias, varianzas y covarianzas como las

denotadas en el apartado anterior, la distribución del estadístico:

2 =2

2122 − 212

∙22

³1 −1

´2+ 21

³2 −2

´2− 212

³1 −1

´³2 −2

´¸(7.1)

se distirbuye siguiendo una 2 con 2 y − 1 grados de libertad. Parala toma de decisiones se estimarán los valores del estadístico mediante los

correspondientes valores muestrales (denotaremos el valor estimado para una

muestra como³c 2´ y se buscará el correspondiente -valor en la tabla 22−1

disponible en tablas que aparecen en la mayoría de los textos sobre control de

calidad e incluidas en los paquetes informáticos necesarios para estos cálculos.

En el caso de un nivel de significación (o probabilidad de error de tipo I) se

rechazará el test de que no está bajo control, es decir en el caso bidimensional

equivale a que al menos una de las dos características de calidad está fuera de

control, siempre que

c 2 22−1

Es posible representar el estadístico de Hotelling mediante un gráfico, de-

nominado gráfico de control 2 En el supuesto de independencia entre las

variables (12 = 0) el estadístico definirá una elipse en el plano, cuyo centro

será el vector de medias,³1 2

´, y cuyos ejes serán paralelos a los ejes de-

terminados por 1 y 2 Esta región elíptica hará el papel a los ejes de control

LA T2 DE HOTELLING 139

Page 148: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

de Shewhart, es decir, cuando la representación de los pares de valores de la

variable estén dentro de la elipse el proceso se puede considerar bajo control,

mientras que la aparición de un par fuera de la elipse denota un punto fuera

de control estadístico, lo que Shewhart denominó una causa atribuible. En el

supuesto de dependencia entre las variables la representación del estadístico

tendrá también forma elíptica aunque los ejes de esta elipse no serán paralelos

a las correspondientes rectas definidas por las medias de cada variable como

en el caso de independencia.

Este gráfico o elipse de control permite el control simultáneo de una serie de

características, pero presenta sin embargo una serie de limitaciones. La primera

limitación es que aunque se puede reflejar con fiabilidad una situación de no

control, no tiene la capacidad de detectar cuál es la característica responsable

de tal situación, ya que se pierde la secuencia en el tiempo que se tiene en otros

gráficos como los univariantes de Shewhart.

Otro inconveniente de la elipse de control es no es posible representar la

elipse en el caso de disponer de un vector con más de dos variables, para

el caso de tres variables sería posible representar un elipsoide, aunque poco

aclaratorio para la toma de decisiones, pero en el caso de dimensiones mayores

estas representaciones gráficas ya no podrían hacerse.

Como solución a los problemas que presenta el control mediante el gráfico

elíptico, Hotelling propone hacer un gráfico similar a los gráficos univariantes,

en el que se represente como límite de control superior el valor correspondiente

22−1 y se vayan graficando los valores muestrales con la misma secuenciade tiempo de las muestras elegidas, de forma que también permitirá detectar

patrones no aleatorios. Este gráfico, denominado diagrama de control 2 de

Hotelling tiene además la ventaja de que para detectar un valor de fuera de

control se precisa un sólo número (el valor 22−1) lo que facilitará su extensióna variables con más de dos dimensiones como se analizará seguidamente.

7.4.2. Caso multidimensional

Consideremos un proceso de control en el que se observan variables

que se distribuyen según una Normal −variante con un vector de medias0 = (01 02 0) y una matriz Σ0 de varianzas-covarianzas según una

distribución normal multidimensional (0Σ0).

Podemos construir el estadístico:

2 = ¡ − 0

¢Σ−10

¡ − 0

¢que representa la distancia de Mahalanobis entre el vector que representa

la media muestral y el vector que representa la media poblacional.

En el caso univariante se calculaban dos límites de control, pero en el caso

multivariante se calcula un único límite de control superior dado por LCS=2

140 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 149: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Al igual que en el caso univariante también si puede medir la eficacia del

gráfico de Hotelling mediante el ARL (Average Run Length: número esperado

de muestras tomadas antes de que se produzca una señal de alarma).

El valor del estadístico 2 se estimará mediante los correspondientes valores

muestrales:

2 = ³ −

´−1

³ −

´La distribución que sigue en este caso es la de una de Snedecor con y

(−− + 1) grados de libertad, para un nivel de significación del %.

Al igual que antes, y dado que tanto la distribución 2 y la son asimétricas

con sesgo a la derecha, se va a considerar únicamente la expresión del límite

de control superior, que viene dada por:

=(− 1)(− 1)−− + 1

−−+1

= 0

Alt (1985) recomienda usar estos límites en una primera fase, lo que de-

nomina análisis retrospectivo, para una vez estimado el límite de control por

este medio, calcular un segundo límite para la segunda fase, la de monotor-

ización del proceso, para ello propone un cambio consistente en multiplicar por

la expresión (+1)(−1) obteniendo así una nueva expresión para el límitede control superior .

En el caso de observaciones individuales, es decir = 1, suponiendo que

se tienen un total de m muestras, para evaluar p variables de control, el corre-

spondiente gráfico de control se construirá mediante:

=(+ 1)(− 1)

2 −−

= 0

Además, para procesos en los que el es suficientemente grande, 100,

se puede aproximar estos límites por = 2

Jackson (1991) recomienda que cualquier procedimiento de control de cali-

dad multivariante debe cumplir cuatro condiciones:

Responder de manera inequívoca a la pregunta: ¿el proceso está bajo con-

trol?

Debe establecer una probabilidad para la ocurrencia de una falsa alarma.

Debe tener en cuenta la relación entre las variables.

Debe ser capaz de responder a la pregunta: si el proceso está fuera de

control, ¿qué es lo que pasa?

LA T2 DE HOTELLING 141

Page 150: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

El último de los aspectos ha sido una cuestión crucial en la investigación en

los últimos años, aunque como dice Montgomery (2009) es necesario todavía

mucho esfuerzo, tanto en las técnicas gráficas como en las de reducción de

datos.

En el caso de que en un gráfico de control univariante se obtenga una señal

de alarma, el técnico encargado de su interpretación puede encontrar fácilmente

el problema, ya que el gráfico se refiere a una única variable.

En el caso multivariante, la solución no es tan sencilla, puesto que cada

gráfico implica el control de un número ( 1) de variables.

Uso de gráficos de control univariantes

Gráficos de control univariantes con límites de control estándares

El uso de gráficos de control (uno por cada variable estudiada) es una

primera aproximación para intentar saber cuál es la responsable de la

señal de alarma.

Como propuestas alternativas a los gráficos de Hotelling, Hayter y Tsui

(1994) extendieron la idea del uso de los límites tipo Bonferroni, proponiendo

un procedimiento para hallar límites de control simultáneos para cada una de

las medias de las variables.

Mason, Tracy y Young (1995, 1997) proponen descomponer el estadístico 2

en partes independientes, donde cada una de las cuales refleja la contribución

de cada variable individual. El método se ha desarrollado para el caso de obser-

vaciones individuales, pero según los propios autores y haciendo las oportunas

modificaciones, puede aplicarse al caso de datos agrupados. Este método es el

más aceptado para resolver el problema de la identificación de la(s) variable(s)

responsable(s) de la señal de alarma.

Por otra parte, Murphy (1987) utiliza el valor del estadístico 2 para com-

pararlo con otro valor basado en un subconjunto de variables. El punto de

partida para el diagnóstico es la señal de alarma en un gráfico 2.

Otra propuesta es el gráfico de control minimax. Este gráfico fue presentado

por Sepulveda y Nachlas (1997). Recibe este nombre por que controla la máx-

ima media muestral estandarizada y la mínima media muestral estandarizada

de las muestras tomadas de un proceso multivariante. La principal idea que

encierra este gráfico minimax es la estandarización de las medias () y el

control del máximo y del mínimo .

Para ello se tiene que:

= mın() = 1 2 3

= max() = 1 2 3

Los autores hacen también una argumentación sobre las propiedades es-

tadísticas, así como del funcionamiento del ARL.

142 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 151: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

7.5. Componentes principales

Este método fue propuesto por Jackson (1991) y posteriormente revisado

por Pignatello y Runger, Kourti y MacGregor. Una matriz simétrica de orden

p x p, singular, como la matriz de varianzas - covarianzas Σ, puede reducirse

a una forma diagonal L mediante la pre y postmultiplicación por una matriz

ortogonal de modo que Σ = .

Los elementos diagonales de : 1 2 son las raíces características o

autovalores de Σ. Las columnas de son los autovectores de Σ.

La idea del método de componentes principales es transformar variables

correladas () en otras incorreladas (). La mayor ventaja de este método es

la reducción de la dimensionalidad. Como generalmente las dos o tres primeras

variables explican la variabilidad de un proceso, pueden usarse para la inter-

pretación de las señales de alarma, en vez de todo el conjunto de variables.

1 = 111 + 122 + · · ·+ 1

2 = 211 + 222 + · · ·+ 2...

= 11 + 22 + · · ·+

Existen varias variantes de este método, así la denominada .aproximación

de Jackson"propone que esas k primeras componentes principales pueden ser

interpretados físicamente. Esta manera de proceder transforma y considera las

variables como un conjunto de atributos, y por tanto el descubrimiento de la

causa que origina la alarma necesita de un profundo conocimiento del proceso

por parte del analista.

Otra alternativa es la .aproximación de Kourti y MacGregor.estos autores

proponen que el estadístico 2 se representa mediante las puntuaciones es-

tandarizadas de los componentes principales. Cuando se produce una alarma,

se detectan las puntuaciones normalizadas con los valores más altos, y usan

los gráficos de contribución para detectar cuáles son las variables responsables

de la señal. Los gráficos de contribución indican el modo en que cada vari-

able usada para el cálculo de la puntuación contribuye a ella. Los gráficos de

contribución han sido estudiados en detalle por Wasterhuis et al. (2000).

7.6. Gráficos MCUSUM

Los gráficos CUSUM pueden extenderse también al caso multivariante,

aunque no hay una única forma de hacerlo.

COMPONENTES PRINCIPALES 143

Page 152: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Los primeros en realizar estudios en la materia fueron Woodall y Ncube

(1985), usando un esquema basado en múltiples () CUSUM univariantes.

Healy (1987) desarrolló un modelo de gráfico CUSUM multivariante medi-

ante:

= max©¡−1 + ( − 0)− 051

¢ 0ª

Donde:

0: Vector de medias cuando el proceso está bajo control

Σ0: Matriz de varianzas-covarianzas bajo control

1: Vector de medias cuando el proceso no está bajo control

1: Raíz cuadrada del parámetro de descentrado

= 1 = (1 − 0)Σ−10

Para interpretar el gráfico se considera que se produce una señal de alarma

cuando supera un cierto valor de referencia , convenientemente elegido y

que se encuentra tabulado.

Hawkins (1991) desarrolla un modelo para variables ajustadas mediante

regresión multivariante, en base a la suposición de que cuando se produce un

cambio en la media, se produce de una determinada manera. Concretamente

se asume que el cambio se debe a una variación de magnitud en la media de

una de las variables.

Otras propuesta de gráficos MCUSUM son los de Croisier (1988) o los de

Pignatiello y Runger (1990). En cualquier caso este tipo de gráficos están imple-

mentados en paquetes como el R y se recomienta su empleo por la complejidad

de los cálculos.

7.7. Gráficos MEWMA

El gráfico de medias móviles ponderadas exponencialmente para el caso

multivariante (MEWMA) es una extensión a esta nueva situación del corre-

spondiente gráfico univariante.

La extensión multivariante, propuesta por Lowry (1992), adopta la forma:

= Λ + ( − Λ)−1

donde:

: Vector de medias muestrales.

Λ: Matriz diagonal formada por los valores para las distintas variables.

: Matriz identidad.

Como valor inicial se toma 0 = 0.

La información que proporcionan los se recoge en el estadístico:

2 = Σ−1

144 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 153: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Muestra Resistencia a la tensión (X1) Diámetro (X2)

1 76 78 73 72 73 4,4 4,2 4,2 4,4 4,3 2 69 69 80 78 73 4,6 4,6 3,6 3,6 3,7 3 71 72 76 76 70 4,6 4,5 4,2 5 4,8 4 76 78 80 83 79 4,1 3,1 2,9 3,9 3,8 5 83 76 78 71 74 4,0 3,2 3,4 4,4 5,0 6 72 69 77 78 71 3,7 4,2 4,9 3,9 4,4 7 78 77 76 81 76 4,9 4,1 4,4 3,8 5,1 8 78 82 85 83 77 4,8 4,9 5,2 4,3 4,5 9 80 80 77 82 80 4,2 4,6 5,0 4,7 4,3 10 82 93 82 90 84 4,4 3,8 4,0 4,8 4,6 11 90 79 79 80 83 3,8 4,2 4,0 4,1 4,4 12 81 80 80 83 80 4,1 3,9 4,0 4,2 4,1 13 78 78 78 85 82 3,8 4,6 4,2 3,8 4,2 14 80 81 80 78 85 4,2 3,7 4,0 4,9 3,6 15 81 83 86 82 76 3,4 4,0 4,6 4,3 4,3 16 78 78 78 73 77 4,2 4,2 4,2 4,1 4,1 17 74 79 79 80 69 4,2 4,3 4,2 4,4 5,1 18 73 72 78 83 79 5,4 5,0 5,2 4,1 4,3 19 78 82 81 80 82 4,1 3,8 4,5 5,6 4,1 20 90 82 82 81 93 4,2 4,8 4,4 5,1 5,0

Figura 7-2 Datos de Duncan.

Donde Σ−1 es la inversa matriz de varianzas-covarianzas de los . Esta

matriz puede obtenerse a partir de los elementos de la matriz de varianzas-

covarianzas correspondiente a las variables analizadas mediante la expresión:

Σ =

2−

h1− (1− )

2iΣ

donde Σ es la matriz de varianzas-covarianzas original.

En lo que respecta al límite de control (superior) empleado, Runger y Prab-

hu (1996) sugieren una aproximación mediante cadenas de Markov, que permite

estudiar el funcionamiento del gráfico referente al ARL. Proporcionan además

una serie de recomendaciones para la selección de los parámetros del gráfico.

Ejemplo: Para ilustrar la construcción y uso de las técnicas de control es-

tadístico multivariante que se han expuesto, se van a utilizar datos procedentes

del libro de Ducan “Control de calidad y estadística industrial”, página 799,

referidos a la resistencia a la tensión de una serie de fibras de algodón, junto

con el diámetro de las mismas. Este tipo de ejemplos son clásicos en los man-

uales de control estadístico de la calidad, ya que ilustran bien los problemas

que pueden surgir en la interpretación de este tipo de gráficos de control y que,

como ya se ha expuesto, motivan en parte su falta de aplicación generalizada

en procesos industriales.

Se dispone de los valores de cien observaciones organizados en muestras de

tamaño cinco, que se exponen en la tabla siguiente:

El primer gráfico que se construye es el gráfico de control 2 de Hotelling.

Para su construcción se calculan dentro de cada muestra, las dos medias (1

y 2), las dos cuasi-varianzas (21 y

22) y la cuasi-covarianza (

212), tal como se

recoge en la tabla siguiente, y a partir de ellos, se calculan las medias para las

20 muestras, expresadas en la última fila de la tabla.

GRÁFICOS MEWMA 145

Page 154: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Muestra ??Ħ?? ??Ħ?? ?????? ????

?? ?????? T2

1 74,40 4,30 6,30 0,01 -0,08 8,29

2 73,80 4,02 25,70 0,28 -2,42 15,89

3 73,00 4,62 8,00 0,09 -0,12 13,39

4 79,20 3,56 6,70 0,28 -0,12 14,73

5 76,40 4,00 20,30 0,54 -1,30 6,49

6 73,40 4,22 15,30 0,22 0,34 13,57

7 77,60 4,46 4,30 0,29 -0,69 1,01

8 81,00 4,74 11,50 0,12 0,48 9,97

9 79,80 4,56 3,20 0,10 -0,26 3,07

10 86,20 4,32 25,20 0,17 -0,33 23,71

11 82,20 4,10 21,70 0,05 -0,53 4,47

12 80,80 4,06 1,70 0,01 0,12 2,17

13 80,20 4,12 10,20 0,11 -0,48 1,12

14 80,80 4,08 6,70 0,27 -1,10 2,01

15 81,60 4,12 13,30 0,21 0,36 3,06

16 76,80 4,16 4,70 0,00 0,09 2,83

17 76,20 4,44 21,70 0,14 -1,36 2,73

18 77,00 4,80 20,50 0,33 -2,05 6,82

19 80,60 4,42 2,80 0,50 -0,29 2,33

20 85,60 4,70 30,30 0,15 -0,27 30,52

Promedio 78,83 4,29 13,01 0,19 -0,50

Figura 7-3 Cálculos para el gráfico de Hotelling.

Con estos datos y aplicando en cada muestra la expresión:

2 =2

2122 − 212

∙22

³1 −1

´2+ 21

³2 −2

´2− 212

³1 −1

´³2 −2

´¸se obtienen los correspondientes valores del estadístico 2 de Hotelling, que

se recogen en la última columna de la siguiente tabla:

Para la construcción del límite de control se considera un valor de = 0005,

y aplicando la fórmula correspondiente se tiene:

=2(20− 1)(5− 1)20(5)− 20− 2 + 10005220(5)−20−2+1 = 109095

Una vez que se dispone de los valores para el límite de control y del estadís-

tico 2 para cada muestra, el gráfico de control es el siguiente:

Puede verse que hay un número importante (seis) de muestras que están

fuera del límite de control (2, 3, 4, 6, 10, 20), así que se procede a su inter-

pretación, y que es el apartado que suele plantear mayores problemas a la hora

de usar este tipo de gráficos.

La primera idea que puede surgir, y dado que el estudio está limitado a dos

variables, es la de construir el gráfico de control para las medias para cada una

de ellas.

Así, los parámetros característicos son para la variable 1:

= 836551

= 788300

= 740049

146 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 155: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-4 Gráfico de Hotteling para los datos de Duncan.

Y para la otra variable X2:

= 48629

= 42900

= 37170

Figura 5.3: Gráfico de control para la variable X2

Puede verse que hay cinco puntos (2, 3, 6, 10 y 20) fuera de los límites en

el gráfico para 1 y uno (4) en el caso de 2.

Esto también podría haberse hecho, aprovechando el hecho de que las vari-

ables involucradas son dos, representando simultáneamente las observaciones

junto con los límites en un mismo gráfico:

En principio puede decirse que las alarmas en las observaciones 2, 3, 6, 10

y 20 se deben a variaciones en la variable 1 y la alarma en la observación 4

se debe a un cambio en la variable 2.

Pero dado que este tipo de gráficos no tienen en cuenta las correlaciones

entre variable, se emplean los gráficos para cada variable, pero con límites de

control tipo Bonferroni, cuyas expresiones han sido presentadas con anteriori-

dad.

En este caso el intervalo de control es más amplio, lo que hace que la

observación 2 no constituya una alarma, quedando las observaciones 3 y 6 muy

cerca del límite de control inferior, lo que podría hacer pensar que se tratara

en realidad de falsas alarmas.

En el caso de la variable 2 la situación no cambia y la observación 4 sigue

siendo muna clara señal de alarma.

GRÁFICOS MEWMA 147

Page 156: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-5 Gráfico de control de Shewhart para la variable 1

Figura 7-6 Gráfico de control de Shewhart para la variable 2

148 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 157: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-7 Gráfico conjunto de las dos variables.

Figura 7-8 Gráfico de control para la variable 1 con límites tipo Bonferroni.

GRÁFICOS MEWMA 149

Page 158: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-9 Gráfico de control para la variable 2 con límites tipo Bonferroni.

Si lo que se quiere es detectar pequeñas variaciones en la media hay que re-

currir a la versión multivariante del gráfico EWMA, conocido como MEWMA.

Aplicando a cada muestra las expresiones expuestas anteriormente se ob-

tienen los valores de Estadístico T2 correspondiente.

En lo que se refiere al parámetro , Montgomery (1991) recomienda que

su valor está comprendido entre 0.05 y 0.25. Cuanto mayor sea el valor del

parámetro, menor importancia se le estará dando a los valores más alejados en

el tiempo. En la tabla el parámetro se elige 0.1, que es utilizado frecuente-

mente en aplicaciones prácticas.

En lo que respecta al límite de control, teniendo en cuenta que = 2, se

obtiene = 864.

En la correspondiente representación puede verse que el gráfico lanza una

señal de alarma en la observación 6, lo que corresponde con una de las señales

obtenidas del gráfico 2, pero que en los estudios previos planteaba ciertas

dudas.

La conclusión anterior también puede confirmarse desarrollando los gráficos

univariantes para cada una de las variables X1 y X2, que a continuación se

presentan y en los que puede verse que el proceso está bajo control para ambas.

Una recomendación para la mejora del comportamiento de los gráficos EW-

MA ante desviaciones muy pequeñas (hasta 1), es la utilización de un valor del

parámetro en la expresión de los límites de control. En el gráfico se presenta

la situación con = 26

El gráfico sigue mostrando que el proceso está bajo control, pero las obser-

vaciones 3 y 6 se acercan al límite inferior, mereciendo especial atención.

Por último se aplica el gráfico CUSUM a los valores del estadístico T2

obtenidos para la construcción del gráfico T2.

150 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 159: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Muestra ??Ħ???? ??Ħ???? ?????? ?????? T2

1 74,40 4,30 -0,4430 0,0010 1,65708

2 73,80 4,02 -0,9017 -0,0261 4,62638

3 73,00 4,62 -1,3945 0,0095 6,51837

4 79,20 3,56 -1,2181 -0,0644 6,17769

5 76,40 4,00 -1,3393 -0,0870 7,23486

6 73,40 4,22 -1,7483 -0,0853 9,76018

7 77,60 4,46 -1,6965 -0,0598 7,66323

8 81,00 4,74 -1,3099 -0,0088 3,54628

9 79,80 4,56 -1,0819 0,0191 2,07746

10 86,20 4,32 -0,2367 0,0202 0,10832

11 82,20 4,10 0,1240 -0,0008 0,02679

12 80,80 4,06 0,3086 -0,0238 0,16782

13 80,20 4,12 0,4147 -0,0384 0,32701

14 80,80 4,08 0,5703 -0,0555 0,63073

15 81,60 4,12 0,7902 -0,0670 1,10441

16 76,80 4,16 0,5082 -0,0733 0,71585

17 76,20 4,44 0,1944 -0,0510 0,26836

18 77,00 4,80 -0,0081 0,0051 0,00269

19 80,60 4,42 0,1698 0,0176 0,10764

20 85,60 4,70 0,8298 0,0569 1,89317

Figura 7-10 Datos para el gráfico MEWMA.

Figura 7-11 Gráfico de control MEWMA.

GRÁFICOS MEWMA 151

Page 160: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-12 Gráfico EWMA para la variable 1

Figura 7-13 Gráfico EWMA para la variable 2

152 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 161: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-14 Gráfico EWMA para la variable 1 con límites modificados.

En la tabla anterior se representan los datos de las acumulaciones de desvia-

ciones significativas tanto positivas como negativas.

Se elige un valor = 1 (pequeñas variaciones en la media) y en consecuencia

el umbral de significación = 2.

Como valor de se elige 4, aunque generalmente se recomienda = 5,

pero dado el número de alarmas que se han producido en el gráfico 2, se opta

por intervalo de control más estrecho. En relación con este tema cabe hacer

mención al trabajo desarrollado por Hawkins y Olwell (1998).

De este modo los límites se sitúan ± 4. La representación es la que sepresenta a continuación.

En ella puede verse que desde el punto de vista de este análisis el proceso

está bajo control, no presentándose ninguna señal de alarma.

7.8. Control-charts de procesosmultivariantes basa-

dos en el concepto de profundidad de datos

Entre los problemas analizados de los gráficos de control multivariantes

podría destacarse que sólo son válidos cuando la variable sigue una distribución

normal multivariante. Además la representación grafica no es posible para 3

y para = 2 el grafico pierde el orden cronológico.

El análisis univariante no tiene en cuenta la correlación y la aproximación

de Bonferroni sobreestima la probabilidad de error de tipo I.

Los gráficos de control de tipo no paramétrico tienen la ventaja que no

CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-

CEPTO DE PROFUNDIDAD DE DATOS 153

Page 162: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Muestra ???? ???? ????‐ Muestra ???? ???? ????

1 74,40 -0,4430 0,0010 11 82,20 0,1240 -0,0008

2 73,80 -0,9017 -0,0261 12 80,80 0,3086 -0,0238

3 73,00 -1,3945 0,0095 13 80,20 0,4147 -0,0384

4 79,20 -1,2181 -0,0644 14 80,80 0,5703 -0,0555

5 76,40 -1,3393 -0,0870 15 81,60 0,7902 -0,0670

6 73,40 -1,7483 -0,0853 16 76,80 0,5082 -0,0733

7 77,60 -1,6965 -0,0598 17 76,20 0,1944 -0,0510

8 81,00 -1,3099 -0,0088 18 77,00 -0,0081 0,0051

9 79,80 -1,0819 0,0191 19 80,60 0,1698 0,0176

10 86,20 -0,2367 0,0202 20 85,60 0,8298 0,0569

Figura 7-15 Datos para el gráfico MCUSUM.

Figura 7-16 Gráfico MCUSUM.

154 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 163: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

necesitan las hipótesis básicas y se basan en la filosofía de la estimación no

paramétrica "dejar que los datos hablen por si mismos". En este caso la idea

de construcción está basado en el concepto de profundidad de datos (Liu et al,

2004) Existen también gráficos basados en bootstrap (Liu and Tang, 1996) o

en el anti-rank (Qui and Hawkins, 2001).

7.8.1. Profundidad de datos

La profundidad de datos mide lo central que es un punto respecto al total

de un conjunto de puntos, con respecto a una distribución −dimensional,si es conocida o bien a otra nube de puntos distinta.

Los diferentes tipos de definiciones sobre el concepto de profundidad de

datos, ha ido evolucionando a lo largo del tiempo desde la basada en la distancia

de Mahalanobis (Mahalanobis, 1936) al concepto propuesto por Regina Liu

que se comentó en la sección anterior y que será el que se siga en este apartado

(Simplicial depth (Liu 1990)).

Cuando es conocida, la simplicial depth del punto con respecto a es:

() = { ∈ [1 +1]}Cuando es desconocida, la simplicial depth de con respecto a la nube

de puntos {1 } es:

() =

µ

+ 1

¶−1X∗{∈[1+1]}

Donde * indica que la sumatoria se ejecuta sobre todos los posibles sub-

conjuntos de {1 } de dimension + 1 y [1 +1] es el simplex

cerrado con vértices {1 +1}.Dos propiedades importantes que cumplen estas distancias es que es

invariante afín (las técnicas gráficas no dependa de las coordenadas) y

converge uniformemente y fuertemente a (eso permite utilizar cuando

G es desconocida).

Si para cada y se calcula el estadístico respecto a la nube de puntos, entonces

se puede ordenar la muestra {1 } de la observación más profunda (pun-to más central) con

más grande, a la observación menos profunda (punto

más externo) con más pequeño. La muestra ordenada de esta forma es la

secuencia {[1] []} y a cada observación se puede asignar un rango.El rango para la observación y, si G es desconocida, es dado por

() = # {

() () )1 2 }

Dada una nueva muestra {1 }˜ , se quiere contrastar si las dis-tribuciones son iguales ( = ), en otras palabras si el proceso sigue bajo

CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-

CEPTO DE PROFUNDIDAD DE DATOS 155

Page 164: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-17 Ejemplo de R.chart.

control. Si G es desconocida se utiliza la función empírica, , de la muestra

de referencia.

Los control charts se suelen utilizar para contrastar las siguientes hipótesis

:

1) 0 : = versus 1 : 6= 2) 0 : Σ = Σ versus 1 : Σ 6= Σ

Tipos de control-charts basados en profundidad de datos (Liu, 1995; Liu et

al„ 2004)

r-charts (análogo univariante: X-charts)

Q-charts (análogo univariante: -charts o Shewhart-charts)

DDMA-charts (análogo univariante: MA-charts)

S-charts (análogo univariante: CUSUM-charts)

7.8.2. r-charts

Estadístico:

() = # {

() () = 1 2 }

El grafico muestra los valores de rangos {(1)

()} frentea instantes de tiempo.

El test asociado se basa en las siguientes hipótesis

0 : =

1: hay una cambio de posición y/o un incremento de escala de hacia

= () = () = 05

156 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 165: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

por qué ∈ [0 1] y → [0 1], para grande

El límite superior no tiene sentido en cuanto los valores más grandes de

indican mayor centralidad del dato en la nube de puntos.

Sin embargo resulta importante notar la cercanía del estadístico al 1. Si los

valores de se acercan a 1, esto significa una disminución de la dispersión de

los datos y por lo tanto una ganancia en la precisión y mejora en el proceso. Es

también posible detectar únicamente cambio de escala en el proceso, centrando

los datos.

En tal caso: = 05 = 2 y

= 1− 2

7.8.3. Q-charts

Estadístico:

( ) =1

X=1

()

Se muestran los valores( ), promedios de los rangos {(1) ()}en las submuestras de tamaño q, frente a los j intervalos de tiempo, con

= 1

= 05

Si q es grande:

≈ (05− 2p(− 1 + − 1)12)

Si q es pequeño y 1!:

=¡(!)1

¢

7.8.4. DDMA-charts

Para construir el grafico, se calculan las medias móviles de tamaño q, de

la muestra que se quiere controlar {X1,. . . , Xn} y de la muestra de referencia

{Y1,. . . , Ym} respectivamente:

Para cada se calcula el rango relativo con respecto a

−+1(e) =

#ne −+1() −+1() =

o− + 1

= 05 y =

CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-

CEPTO DE PROFUNDIDAD DE DATOS 157

Page 166: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-18 Ejemplo de Q chart.

Figura 7-19

Ventaja del DDMA-chart con respecto al Q-chart: mucho más sensible a

las variaciones de posición, manteniendo la misma capacidad en detectar las

variaciones de escala. ..

Ejemplo: doble exponencial con cambio de posición en el proceso (de izquier-

da a derecha el tamaño de las submuestras va aumentando: q=2,4,6)

Los gráficos DDMA son más sensible a las variaciones de posición

Los gráficos Q-chart no detectan bien las variaciones de posición.

158 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 167: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-20

7.8.5. S-charts

El S-chart es la representación de las sumas acumuladas de las desviaciones

dal valor medio de los rangos. El estadístico es:

() =

X=1

(()− 12)

= 0 y = −

p{2[(1) + (1)]12}

En este caso el limite de control es una curva.

por lo tanto, conviene utilizar el estadístico estandarizado:

∗() =()q2

12

¡1+ 1

¢De forma que los límites resultan líneas rectas.

= 0 y = −

CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-

CEPTO DE PROFUNDIDAD DE DATOS 159

Page 168: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 7-21 Ejemplo de S-chart.

160 GRÁFICOS DE CONTROL MULTIVARIANTES.

Page 169: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

8. CONTROL DE RECEPCIÓN.

Contenido del tema:Fundamentos estadísticos de los planes de muestreo.

Plan de muestreo por atributos y por variables. Curva característica para un

plan de muestreo. Nivel de calidad aceptable y Calidad media de salida. Las

normas MIL-STD-105 yMIL-STD-414 y sus correspondientes extensiones (AN-

SI/ASQC/ISO). Ejercicios.

8.1. Fundamentos estadísticos de los planes de

muestreo

El control de recepción se aplica a las materias primas, materiales o produc-

tos intermedios recibidos y que serán introducidos en el proceso de fabricación.

Partimos de una población o colectivo que nos interesa estudiar, normalmente

en este contexto suelen ser productos producidos en línea o bien recibidos en

lotes, es posible que esta población tenga un tamaño finito conocido que de-

notaremos por . Para el estudio de alguna de sus características de calidad

utilizaremos una muestra de tamaño .

Se denominará lote a un conjunto de productos del que se quiere tomar

una decisión de rechazarlo o no en función de la proporción de productos no

conformes que posea. En general los artículos serán suministrados en lotes,

los cuales pueden ser examinados bien por el fabricante antes de su envío, o

bien por el comprador antes de aceptarlos. Este proceso es el que se denomina

muestreo por lotes y será objeto del estudio de este tema.

Aunque en este tema se tratará del muestreo para aceptación de lotes, lo

cierto es que podrían darse otras estrategías para la toma de decisiones, sin

recurrir al muestreo. En general, existen tres posibilidades para evaluar un

lote: aceptar el lote sin inspeccionar, extraer una muestra y sacar una con-

clusión sobre el lote completo (control por muestreo o muestreo de aceptación)

o inspeccionar la totalidad de individuos del lote (inspección al 100%).

La primera opción es útil en situaciones de alta confianza entre el productor

y el consumidor, donde la calidad es tan alta que no existe apenas probabilidad

de encontrar unidades defectuosas (por ejemplo en productos con índices de

capacidad del orden de 3 o superiores). El muestreo de aceptación se realiza

cuando no es factible, o es antieconómico, la inspección del 100% de los artícu-

los. Por ejemplo, en ensayos con destrucción del artículo. En otras ocasiones,

la inspección puede necesitar mucho tiempo o el coste de la inspección al 100%

ser demasiado elevado.

CONTROL DE RECEPCIÓN. 161

Page 170: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

La finalidad del control de recepción es tomar una decisión sobre el lote

completo en función de lo que se observa en la muestra. Es decir, aceptar o

rechazar un determinado lote, basándonse en la información de una o varias

muestras. Así, el principal objetivo del control de recepción es juzgar los lotes.

No está asociado a estimar la calidad de los lotes, sino determinar la proporción

de lotes buenos y malos. Por tanto, con el control de recepción no se persigue

una mejora de la calidad del producto, ya que sólo pretende verificar que la

producción esté conforme con los requisitos.

Para la selección de las muestras se utilizará el muestreo aleatorio simple, es

decir, las unidades de un lote serán elegidas al azar de forma equiprobable, lo

que puede hacerse mediante la asignación de etiquitas numeradas y utilizando

un generador de números aleatorios para su elección. En algunos casos, suele

utilizarse también el muestreo estratificado en aquellos lotes en los que los

productos están distribuídos en capas, con objeto de que todos sean igualmente

probable y no se tienda a la elección de productos que están en capas superiores.

8.2. Planes de muestreo

Para realizar un control de recepción mediante la selección de una muestra

es necesario establecer un plan de muestreo. Un plan de muestreo para

aceptación no es más que un planteamiento del tamañó muestral necesario

que hay que usar y de los criterios de aceptación y rechazo correspondientes.

Por ejemplo, se podría plantear un plann que consista en la extracción de

una única muestra de cada lote y aceptar el lote entero si en la muestra hay

menos de cierto número de artículos defectuosos, pero también se podría pro-

poner la extracción de más muestras, dependiendo de si las muestras anteriores

no ofrecieron resultados concluyentes. Este procedimiento será lo que diferencia

los planes de muestreo simples de los secuenciales.

Los planes de muestreo pueden ser diseñados para el estudio control basado

en atributos o en variables. Además, como se comentó anteriormente, se clasifi-

carán en planes simples, dobles, multiples o secuenciales. Dado la importancia

que tienen para el control de la calidad se han generado unas reglas, auspiciadas

por organismos de estadarización como el americano ANSI/ASQC, las normas

UNE, las ISO o las españolas AENOR. La mayoría de estos planes de muestreo

son adaptaciones de planes militares, como las normas MIL STD propuestas

por el ejercito americano.

Diferentes tipos de control de recepción:

Planes de muestreo por atributos o por por variables

Plan de muestreo simple: se basa en la toma de una muestra aleatoria de

individuos y toma la decisión en base a estos.

162 CONTROL DE RECEPCIÓN.

Page 171: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Plan de muestreo doble: se basa en la toma de una primera muestra de

tamaño 1 a partir de la que se decide aceptar el lote, rechazar el lote o

extraer una segunda muestra de tamaño 2.

Plan de muestreo múltiple es una extensión del muestreo doble donde se

pueden tomar de 1 a muestras antes de la decisión.

Plan de muestreo secuencial: es un caso extremo del muestreo múltiple

donde se van extrayendo una a una las unidades y en cada momento se

puede decidir aceptar, rechazar el lote o tomar un nuevo individuo.

8.3. Plan de muestreo simple por atributos

En pocas palabras, un plan de muestreo simple requiere elegir el tamaño

de la muestra, , y un número de defectuosos, , tales que si el número de

defectuosos observados en la muestra, , es mayor que , el lote se rechace,

mientras que si es menor o igual que , se acepte. Por ejemplo, de un lote

con = 5000 artículos, un plan de muestreo simple podría consistir en elegir

una muestra aleatoria de = 50 artículos y aceptar el lote siempre que en la

muestra no haya más de = 1 artículo defectuoso.

Para el estudio del plan de muestreo será necesario analizar la calidad con-

seguida, tanto desde el punto de vista del productor como del cliente. Supóngase

que se recibe un lote de un gran número, , de productos y que el comprador

considera que si la proporción verdadera de elementos defectuosos, , es menor

que un valor el lote es aceptable. El valor se denomina nivel de calidad

aceptable (o AQL, del inglés Acceptable Quality Level). Habitualmente, el

valor depende de criterios económicos y técnicos. La idea para un plan de

muestreo por atributos simple, basado en el nivel de calidad aceptable, será

aceptar un lote si su proporción de artículos defectuosos es un valor menor que

y rechazamos el lote si la proporción es mayor que .

Como la decisión estará sujeta a errores (falsos positivos y falsos negativos)

existe también en este contexto de control de recepción los dos tipos de errores:

el error de tipo I, que en este caso consiste en rechazar un lote que en realidad

es aceptable ( = ) y el error de tipo II, que equivale a aceptar un lote que

se debería rechazar ( ). Al objeto de controlar mejor el error de tipo II,

suele optarse por fijar un valor , mayor que , llamado nivel de calidad

rechazable (RQL del inglés), y tomar una alternativa simple del tipo = .

Con estas definiciones de nivel de calidad aceptable y rechazable y suponien-

do la distribución binomial para el número de artículos defectuosos en una

muestra aleatoria de artículos, se podrá calcular el error de tipo I o riesgo

del vendedor como:

=

X=+1

µ

¶(1− )

PLAN DE MUESTREO SIMPLE POR ATRIBUTOS 163

Page 172: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

mientras que el error de tipo II, o riesgo del comprador, es

=

X=0

µ

¶(1− )

Si el tamaño muestral es grande, estas probabilidades, basadas en la distribu-

ción binomial, podrán ser aproximadas mediante valores de una distribución

normal. Habitualmente suele elegirse de forma que oscile entre 4 y

10.

Así pues, para encontrar un plan de muestreo ideal habrá que minimizar

estos dos tipos de errores rechazar lotes buenos (riesgo para el vendedor) y

aceptar lotes malos (riesgo para el comprador). Gráficamente, se podrá uti-

lizar la denominada curva OC para el diseño de un plan de muestreo como se

analizará en la siguiente sección.

8.3.1. Curva OC para un plan de muestreo simple

Un elemento importante a la hora de juzgar el comportamiento del plan

diseñado es la curva característica (curva OC). Su construcción, en este con-

texto, es la siguiente: dado un valor ∈ [0 1], la curva característica para esaproporción, (), representa la probabilidad de aceptar el lote (mediante el

plan de muestreo diseñado) cuando la proporción de defectuosos en el mismo

es .

Una vez fijados los valores de esta curva: ( ) y ( ), puede obtenerse

el tamaño muestral, , y el máximo valor permisible del número de defectos,

, para aceptar el lote. Esto es lo mismo que decir que fijados dos puntos de la

curva característica puede obtenerse el plan de muestreo con dichas especifica-

ciones.

Para determinar un plan de muestreo mediante el uso de la curva OC, el

comprador y el vendedor deben negociar un plan con una curva OC que les

interese a ambos. Para ello, el comprador debe especificar el nivel de calidad que

le gustaría que le suministrase el vendedor, es decir, el nivel de calidad aceptable

(AQL), esto equivale también a fijar el riesgo . Este riesgo, que como se ha

visto coincide con la probabilidad de rechazar el lote cuando = también

será igual a 1 − (). Finalmente, el comprador debe también decidir qué

nivel de calidad es inaceptable (limiting quality level, LQL). A esta proporción

de defectuosos inaceptable es la que se llamó . En la práctica suelen elegirse

estas proporciones de forma que está entre 4 y 10.

Suponeindo que la distribución de defectuosos de un lote sigue una dis-

tribución binomial, suele hacerse esta suposición cuando el tamaño de muestra

es mucho menor del tamaño del lote , normalmente se consiguen buenas

aproximaciones sólo con que 01, esto permite que se pueda aproximar

la distribución hipergeométrica por la binomial, siendo la probabilidad de que

un lote que contiene artículos defectuosos:

164 CONTROL DE RECEPCIÓN.

Page 173: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

( = ) =!

!(− )!(1− )−

En donde es la probabilidad de artículos defectuosos del lote, estimada por

la proporción de defectuosos observada. Puesto que la aceptación se produce

si el número de defectuosos en la muestra es igual o inferior a . Se tendrá que

la probabilidad de aceptación es:

= ( ≤ ) =

X=0

!

!(− )!(1− )−

Como se comentó el uso de la distribución binomial es una aproximación

al problema, pues supone que cada extracción es independiente de la anterior

y que esta proporción permanece constante en cada extracción de un artícu-

lo, esto es equivalente a realizar extracciones con reposición. En la práctica

las extracciones de piezas para el control no suelen ser devueltas al lote para

su posterior elección, por lo que mejor refleja la extracción es la distribución

Hipergeométrica.

Así, si el número de artículos defectuosos en una muestra de tamaño

extraída de un lote de tamaño , en el que hay artículos defectuosos, por lo

que la proporción de artículos defectuosos será = , sigue una distribución

llamada distribución hipergeométrica de parámetros ( ). Si es la

variable que mide el número de artículos defectuosas del lote de tamaño ; se

tiene que:

= ( ≤ ) =

X=0

¡

¢¡−−¢¡

¢Normalmente, para la representación de curvas , se suele utilizar la

aproximación binomial siempre que se puede. Estas curvas se denominan obtenidas

con la distribución binomiale se llaman curvas de tipo , mientras que las

que se obtienen directamente aplicando los cálculos con la distribución hiper-

geométrica se llaman curvas de tipo .

Resulta bastante laborioso determinar un plan de muestreo a partir del

valor de la curva característica en dos puntos, tanto si se supone distribuciones

binomiales como hipergeométricas. Para simplificar esta tarea se puede acudir

a tablas que proporcionan las características del plan en cuestión. Otra opción

es la de aproximar la distribución por una Poisson, de media = lo que

permite una simplificación de los cálculos en alguno casos, pues habría que

calcular:

= ( ≤ ) =

X=0

exp(−)()!

Como ya se comentó anteriormente, para el diseño del plan de muestreo se

deben de fijar valores de pA, pR, y calcular, a partir de las ecuaciones anteriores

PLAN DE MUESTREO SIMPLE POR ATRIBUTOS 165

Page 174: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

dabas por las expresiones deben calcularse valores para n y c. Puesto que estos

valores deben ser números enteros existen diversas estrategias a la hora del

diseño del plan de muestreo simple de forma que se verifiquen aproximadamente

los riesgos asumidos para los niveles de calidad prefijados.

Se pueden utilizar dos enfoques diferentes para crear planes de muestreo

mediante el uso de estas curvas: planes de muestreo con número de aceptación

iguales a 0, = 0, o planes con valores c que son un porcentaje fijo del tamaño

muestral.

En la práctica el proveedor y el consumidor tendrán puntos de vista difer-

entes a la hora de establecer un plan de muestreo. Es lógico que el proveedor

quiera conocer el nivel de calidad del lote o del proceso que pruduzca una al-

ta calidad de aceptación, mientras el comprador o consumidor lo que estará

interesado en conocer cuál es el nivel de calidad del lote o proceso que pro-

ducirá una baja probabilidad de aceptación. En este sentido son importantes

los planes de muestreo con criterios económicos.

El objetivo de un diseño de un plan de muestreo es, pues, doble, por una

parte garantizar que, aplicando dicho plan, lotes con un porcentaje de defec-

tuosos bajo se acepten con una probabilidad muy alta. Esto es equivalente a

decir, que a la izquierda de pA la curva OC(p) se aproxime a la unidad. Por

otra parte, se busca garantizar que lotes con un porcentaje de defectuosos alto

sean aceptados con una probabilidad muy baja. Por tanto, a la derecha de pA

la curva OC(p) correspondiente se aproxime a cero.

Finalmente, cabe destacar que los planes de muestreo se dividen en dos

tipos: aquellos que tan sólo recomiendan la aceptación o el rechazo de un lote

(planes de aceptación/rechazo) y los que consisten en inspeccionar al cien por

cien los lotes rechazados, reemplazando los elementos defectuosos por otros no

defectuosos. Dentro del primer tipo destacan las normas japonesas (o plan JIS

Z 9002) y las norteamericanas (Military Standard). Por su parte, los planes

rectificativos más utilizados son debidos a Dodge y Romig.

Ejemplo: Calculor la proporción de calidad aceptable de un plan de muestreo

siendo la probabilidad de defectuosos del lote fuese = 001, = 100 y = 2,

tendríamos:

= ( ≤ 2) =X

=0

100!

!(100− )!001(099)−

= (099)100 + 100(001)(099)99 +100(99)

20012(099)98

= 0366 03 + 0369 7 + 0184 86 = 0920 59

Pueden utilizarse aproximaciones de la distribución binomial a la Normal

y a la Poisson.

Ejemplo: Diseñar un plan de muestreo para lotes de 10000 unidades con

los siguientes parámetros: = 002, = 005, = 004, = 005.

La variable , número de defectos, es aproximadamente normal con media

y desviación típicap(1− ). Así pues, las especificaciones anteriores nos

166 CONTROL DE RECEPCIÓN.

Page 175: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

llevan a que han de elegirse (máximo número de defectos permitidos) y

(tamaño muestral) de forma que

1−Φ

Ã− 002p

002(1− 002)

!= ( |=002) = 005 y

Φ

Ã− 004p

004(1− 004)

!= ( ≤ |=004) = 005

Esto equivale a imponer las condiciones

= 002+ 005p002(1− 002)

= 004− 005p004(1− 004)

Teniendo en cuenta que 005 = 164, se obtiene

164p004(1− 004) + 164

p002(1− 002) = 002

es decir,

164p004(1− 004) + 164

p002(1− 002) = 002

Esta ecuación puede escribirse de la forma

0 55097√ = 002

De donde se sigue que ha de ser (0 55097002)2= 758 92.

Tomando, por aproximación, = 759 se obtiene = 002·759+164p759 · 002(1− 0

21 505.

En resumen, el plan de muestreo que satisface las características especifi-

cadas es el que consiste en tomar muestras de 759 unidades, rechazando el lote

si se encuentran 22 o más elementos defectuosos y aceptándolo si el número de

defectuosos es menor o igual que 21.

Ejemplo: En un plan de muestreo para lotes de 15.000 tornillos, la probabi-

lidad de que un lote sea aceptado si contiene un 1,59% de unidades defectuosas

será:

(00159) = −X

=0

()

!

donde resuelto el plan de muestreo queda:

= n◦ de unidades defectuosas en la muestra. = probabilidad de aceptación.

=315, tamaño de la muestra.

= 5, número de aceptación.

=0,0159, proporción de defectuosos en el lote.

PLAN DE MUESTREO SIMPLE POR ATRIBUTOS 167

Page 176: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

En efecto, si la regla de decisión ha sido aceptar el lote si en la muestra de

tamaño 315 aparecen 5 o menos de 5 unidades defectuosas, la probabilidad de

aceptación será la dada por la expresión anterior.

Esta probabilidad puede calcularse con ayuda de una tabla de la distribu-

ción de Poisson, o directamente.

Pa = 0,616

es decir, se aceptarán el 61,6% de los lotes que lleven un 1,59% de defec-

tuosos.

Ejemplo: La curva OC indicará el poder discriminatorio del plan de muestreo,

así en el ejemplo anterior para = 001 resultaría una probabilidad de aceptación

del lote de 092. Esto significa que si se aplicara esta plan de muestreo a lotes

con un porcentaje de defectuosos del 1%, la probabilidad de que fuesen acep-

tados sería de 092: de 100 lotes aceptaríamos 92 y rechazaríamos 8.

Para el cálculo de la curva OC podríamos dar distintos valores para y

determinar por ejemplo en el caso de que = 005:

= (095)100 + 100(005)(095)99 +

100(99)

20052(095)98 = 0118 26

En la siguiente tabla se presentan algunos valores para esta curva OC:

= (09)100 + 100(01)(09)99 +

100(99)

2012(09)98 = 0118 26

001 0920 59

002 0676 69

003 0419 78

004 0232 14

005 0118 26

006 005661

008 001127

010 000194

8.4. Planes de muestreo dobles y secuenciales

Los planes de muestreo dobles son una extensión natural del plan simple.

Se basan en extraer primeramente una muestra de tamaño 1 y se cuenta el

número de artículos defectuosos de esta primera muestra 1. Si este número es

muy elevado, superior a un valor 2, se toma la decisión de rechazar el lote. Por

el contrario, si el número 1 es muy bajo, menor o igual que cierto valor 1,

el lote se acepta. Cuando el número de defectuosos 1 se encuentra entre esos

168 CONTROL DE RECEPCIÓN.

Page 177: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

valores extremos, es decir si 1 1 2 se concluirá que la muestra no arroja

evidencia suficiente para tomar la decisión, eligiéndose una segunda muestra de

tamaño 2 y se evalúa el número de defectuosos de esta segunda muestra, 1.

Si 1+2 es mayor que cierta cantidad 3 el lote se rechaza definitivamente. En

caso contrario se acepta. Para la selección de estos valores existen tablas que

permiten la toma de decisiones, aunque hoy en día lo habitual es la utilización

de programas informáticos que simplifican la labor.

La idea del muestreo doble puede extenderse de forma natural, cuando en

vez de elegir una segunda muestra, se permite la elección de una tercera, cuarta,

etc. Es los que se denomina plan de muestreo secuencial. En este caso el tamaño

muestral se va aumentando unidad a unidad. Después de cada observación se

decide si el lote se acepta, se rechaza o se continúa muestreando.

Como ventaja de los planes de muetreo dobles y secuenciales es que resultan

más económicos, ya que como el primer tamaño muestral 1 suele ser mucho

menor que el que se requiere en el muestreo simple, permite reconocer en la

primera muestra a los lotes muy malos o muy buenos. Como desventaja de los

planes dobles y secuenciales frente a los simples es que para lotes de calidad

intermedia se corre el riesgo de requerir una mayor inspección que en los planes

de muestreo simple, por lo que se suele detener la inspección en el momento

que se alcanzan 3 + 1 artículos defectuosos, sin seguir la inspección.

La curva característica para los planes de muestreo dobles y secuenciales

puede también calcularse, para ello será necesario calcular las probabilidades

de aceptación y rechaza para cada una de las muestras seleccionadas. Así en

el caso de un plan doble, habría que calcular la probabilidad de aceptación de

la primera muestra y de la segunda muestra para lo que será necesario tener

en cuenta las opciones de aceptación de esta segunda muestra condicionadas

al resultado de la primera, finalmente el valor de la probabilidad de aceptación

se obtendría sumando estas dos probabilidades. Este proceso se ilustra con el

siguiente ejemplo.

Ejemplo: Construir la curva OC para un plan de muestreo doble, donde se

supone una proporción de 0.05 artículos defectuosos del lote. El plan consistiría

en que se acetaría el lote si no aparcen defectuosos en la primera muestra de

tamaño 50, o aparece un solo defectuoso, y en caso de que aparezcan dos defec-

tuosos se elige una segunda muestra de tamaño 100 aceptándose sólo cuando

haya menos de dos defectuosos en total de las dos muestras, por lo que tendría

los siguientes parámetros: = 5000, = 005, 1 = 50 1 = 1 2 = 100 y

2 = 1

La probabilidad de aceptación se obtendrá sumando las probabilidades

respectivas para la primera fase de muestreo y para la segunda fase: 1 y

2. Utilizando la distribución binomial (en este caso estaría justificada al ser

01), se obtine:

PLANES DE MUESTREO DOBLES Y SECUENCIALES 169

Page 178: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1 = ( ≤ 1) =

1X=0

50!

!(50− )!005(1− 005)50−

= 09550 + 50 (005) (095)49= 0279 43

Para obtener 2 habrá que tener en cuenta las distintas formas de obtener esta

segunda muestra en relación al número de defectuosas de la primera muestra.

Se toma una segunda muestra cuando hay 1 o 2 defectuosos en la primera, por

lo que las opciones serían:

Se encuentran dos defectuosos en la primera (1 = 2) y ninguno en la

segunda (2 = 0):

(1 = 2 2 = 0) = (1 = 2) (2 = 0) =

=

µ50!

2!(50− 2)!0052(1− 005)50−2

¶µ100!

0!(100− 0)!0050(1− 005)100−0

¶= 000155

La otra opción es que se encuentre uno defectuoso en la primera (1 = 1) y

uno en la segunda (2 = 1):

(1 = 1 2 = 1) = (1 = 1) (2 = 1) =

=

µ50!

1!(50− 1)!0051(1− 005)50−1

¶µ100!

1!(100− 1)!0051(1− 005)100−1

¶= 000631

Por tanto, la probabilidad de aceptación de la segunda muestra podrá obtenerse

sumando estas dos probabilidades:

2 = (1 = 2 2 = 0) + (1 = 1 2 = 1) = 000155 + 000631 = 0007 86

Finalmente, la probabilidad de aceptación del lote resultará:

= 1 + 2 = 0279 43 + 0007 86 = 0287 29

8.5. Planes de muestreo Rectificativos

El plan de muestreo rectificativo, como su nombre indica, permite que

cualquier lote que sea rechazado es sometido a una inspección al 100% y se

170 CONTROL DE RECEPCIÓN.

Page 179: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

sustituyen todos los artículos defectuosos por artículos buenos (lote rectifica-

do). Si el lote es aceptado, pero durante la inspección se hallaron artículos

defectuosos, estos también se reemplazan por artículos buenos.

Mediante la aplicación de este plan de muestreo, el comprador recibirá dos

tipos de lotes. El primer tipo de lote corresponde a aquellos que han superado la

etapa de muestreo, por lo que contendrán una pequeña proporción de artículos

defectuosos. Mientras que un segundo tipo de lotes estarán compuestos por

aquellos que han sido revisados al 100% y rectificados. De estos dos tipos de

lotes puede calcularse la calidad media de salida o AOQ (Average Outgoing

Quality), que es la proporción media de artículos defectuosos que recibe el

comprador.

El valor de la calidad media de salida, AOQ, se puede obtener partir de la

proporción de defectuosos (), de los artículos, que se dan por seguro que son

buenos al ser rectificados en caso de contener algún defectuoso. Así si el lote ha

sido rechazado, los− restantes también han sido repasados y serán tambiénno-defectuosos, con cierta probabilidad 1 − (). Si el lote es aceptado, lo

que ocurrirá con probabilidad () se podrá afirmar que habrá ( − )

artículos defectuosos por lote. Por lo que resultará:

() =( − ) ()() + (1−())0

=( − ) ()()

En el supuesto en que N sea mucho mayor que n ( 001) se po-

drá aproximar la expresión anterior por () = () que, lógicamente,

siempre será un valor menor que .

Es frecuente la representación de la expresión () en función de valores

de , lo que se denomina curva Si por ejemplo = 0 el valor de = 0

y para el caso en que = 1, todos los lotes serán sometidos a inspección al 100%

y rectificación por lo que de nuevo = 0. Entre estos dos casos extremos,

el valor de la curva AOQ tendrá un máximo, que se denomina AOQL (average

outgoing quality limit).

Un elemento muy importante a tener en cuenta por el productor, en un

plan de muestreo rectificativo es el número de unidades inspeccionadas. En

el caso en que p sea un valor muy grande se dará con mucha frecuencia una

inspección y rectificación completa del lote. Si se define la variable X como la

variable aleatoria que mide el número de unidades inspeccionadas en un lote.

Se puede determinar la esperanza de esta variable que representará el número

medio de unidades inspeccionadas, y que comunmente se denomina valor de

inspección total media o ATI (average total inspection) y vendrá dado por

la esperanza de dicha variable aleatoria:

= [] = () +(1−()) = + ( − )(1−())

Este valor puede ser utilizado para el diseño de un plan de muestreo recti-

ficativo. La idea se basa en minimizar el ATI, dando el tamaño muestral N, el

PLANES DE MUESTREO RECTIFICATIVOS 171

Page 180: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

valor del AOQL deseado y p, este tipo de estrategia es la que utiliza el conocido

como plan Dodge-Roming.

8.6. Control de recepción por variables

Cuando se pretende realizar planes de muestreo basados en características

de calidad medibles, normalmente basadas en medias o desviaciones típicas,

se tiene un proceso de control de recepción por variables. La ventaja de los

planes de muestreo por variables estriba en que proporciona mayor informa-

ción y requiere un tamaño muestral menor; ya que se pueden obtener curvas

características de operación con menor tamaño muetral que el muetreo por

atributos. Como desventaja de este tipo de control está que se requiere una

información más detallada del proceso. En algunos contextos, como el de prue-

bas destructivas o de alto coste de muestreo es más recomendable este tipo de

muestreo.

La desventaja de los planes de muestreo basados en variables es que se

necesita conocer la distribución de la variable de estudio, en la mayoría de los

casos se supondrá normalidad para dicha distribución, pero en los casos en que

esta hipótesis no se cumpla los resultados del plan pueden presentar errores

considerables, por lo que es muy importante verificar, mediante los contrastes

oportunos, las hipótesis del modelo. Por otra parte, cuando se analizan varias

características sobre un mismo producto es necesario crear planes de muestreo

diferentes para cada característica analizada.

Existen dos posibilidades para establecer planes por variables, por una parte

controlar la proporción de disconformes de un lote basándose en que sobrepasan

determinadas especificaciones, y por otra, planes de muestreo que controlan una

variable como la media del proceso.

En el caso de planes que contralan la proporción de disconformes, se basan

en el hecho de que dado que la característica a medir tendrá unas especifi-

caciones superior (LSE) e inferior (LIE) o bien ambas, muestrear el lote con

objeto de verificar si la media está dentro de estas especificaciones.

En el caso en que se suponga una desviación conocida se selecciona una

muestra aleatoria de tamaño del lote y se obtiene la media muestral (),

calculando el valor de los estadísticos siguientes:

= −

= −

Estas expresiones miden la distancia en unidades de desviación típica de

la media muestral y los límites de especificación. Cuanto mayor sean estas

172 CONTROL DE RECEPCIÓN.

Page 181: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

distancias mayor será la discrepancia entre el lote y las especificaciones y, por

tanto, menor será la proporción de disconformes del lote analizado. En algunos

planes de muestreo para variables, se proponen una distancia crítica, k para

los valores y que permiten la toma de decisiones.

Al igual que el caso del control por atributos también es posible el diseño

de planes de muestreo por variables basados en las curvas OC, para ello puede

ser útil el uso de nomogramas basados en los resultados obtenidos para los

correspondientes puntos de la curva OC.

La norma militar MIL-STD-414 (y su correspondiente norma civil AN-

SI/ASQC Z1.9) son normas para el control de recepción por variables. Un breve

resumen de la norma así como de otras para el caso de control por atributos

se presenta en la siguiente sección.

8.7. Diseño de planes de muestreo

Una de las soluciones para encontrar el plan de muestreo es usar el un grá-

fico con escalas que permite, mediante el trazado de dos rectas determinar los

valores de y , a partir del punto donde se cortan dichas rectas. Este méto-

do se conoce como Nomograma. Otra propuesta es emplear la aproximación

de las distribuciones discretas por una distribución normal. En este caso las

ecuaciones que habría que resolver resultan más sencillas. Pero sin duda, en el

contexto del control de recepción se suelen utilizar planes específicos, normal-

mente sugeridos por normas de calidad, y que aportan soluciones para casos

concretos. Entre los planes más utilizados están los basados en las normas del

ejercito americano como las MIL-STD, que fueron propuestos en un principio

para el control de calidad de las fábricas de armamento durante la segunda

guerra mundial. Estas normas siguen a utilizarse hoy en día con ligeras modi-

ficaciones. A continuación se analizarán de forma somera estas normas.

8.7.1. El plan Military Standard para atributos (MIL-STD-105D ó ANSI/ASQC

Z1.4 ó UNE 66020)

Estos planes fueron diseñados por el ejercito de Estados Unidos durante la

segunda guerra mundial, aunque la primera versión se publicó en 1950, han

aparecido distintas versiones actualizadas de la misma, siendo fácil su acceso

libre en Internet.

Esta norma sigue siendo de gran aplicación en todo el mundo. Sus car-

acterísticas fundamentales son que el plan depende del tipo de inspección a

realizar (coste económico de la misma) y que se va ajustando en funci ón de

la calidad de los lotes que se inspeccionan. Los planes están diseñados para

DISEÑO DE PLANES DE MUESTREO 173

Page 182: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

ofrecer un valor de AQL del 5 ( = 005), pero no tienen en cuenta el valor

de . En la práctica el riesgo es pequeño si es aproximadamente cinco

veces .

El funcionamiento del plan se esquematiza en los siguientes pasos:

Decidir el AQL.

Determinar el tipo de inspección:

1. Nivel I: coste de inspección alto.

2. Nivel II: coste estándar.

3. Nivel III: coste de inspección bajo

4. Niveles S1 a S4: ensayos destructivos.

Determinar el rigor de la inspección:

Para aplicar el plan hay que seguir una serie de pasos:

Decidir el AQL o pA. Las columnas desde 0.01 hasta 10 son de nocon-

fomes. El resto de columnas desde 15 a 1000 indican el número de no-

conformidades por 100 unidades.

Determinar el nivel de inspección en función de su coste (nivel I, II, III,

o niveles especiales).

Con el tamaño del lote y el nivel de inspección anterior ir a la tabla de

códigos y encontrar el código de inspección (tabla 10.7 del anexo).

Determinar el plan de inspección (normal, riguroso (o estricto) y reduci-

do).

Con el código de inspección y el plan de inspección, acudir a la tabla

correspondiente.

Tomar la muestra y ejecutar la inspección.

Ejemplo de plan Military Standard: Supongamos que N = 500 y que el

AQL = 4 y Nivel II.

Con estos datos para determinar el plan de muestreo simple de la norma

MIL STD 105E, se busca en la correspondiente tabla los valores del plan:

Mirando en la tabla del plan la letra del código es J, y los valores (n, Ac,Re)

son (80, 7, 8) en inspección normal, (80, 5, 6) en inspección estricta y (32, 3,

6) en inspección reducida.

174 CONTROL DE RECEPCIÓN.

Page 183: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

8.7.2. El plan Military Standard para variables (MIL-STD-414 o ANSI/ASQC

Z1.9)

La norma militar se propuso para el control de recepción por variables en

el año 1957 basándose en el concepto de nivel de calidad aceptable (AQL), que

normalmente varía entre 0.04% y 15%.

Al igual que el caso anterior de la norma para atributos, propone el uso de

letras de código para el tamaño muestral, siendo estos una función del tamaño

del lote.

La norma se divide en 4 secciones (A,B, C y D) y emplea tablas similares

al caso del control para atributos.

8.7.3. El plan japonés JIS Z 9002

Para ciertas elecciones de los valores y , mediante una simple tabla de

doble entrada para y , se obtiene el tamaño de la muestra, , y el número

máximo de defectuosos admisibles, .

Para la aplicación de esta norma se suele utilizar una una tabla de valores

que proporcionan, para unos valores de pA y pR, las correspondientes solu-

ciones para n y c que satisfacen, aproximadamente, las condiciones requeri-

das. Así, por ejemplo, si se desea diseñar un plan de muestreo con = 005,

= 010, = 002 y = 010, se acude a la tabla del plan JIS Z 9002, con

= 005 y = 010 y se busca la fila correspondiente a un 2 y la columna

donde se halla el 10 . Con todo esto se encuentra que el tamaño de las muestras

ha de ser = 60, rechazando el lote siempre que el número de defectos exceda

de = 3.

Los planes de muestreo siguiendo estas normas japonesas presentan curvas

características que pasan aproximadamente por los puntos especificados.

8.7.4. Planes Dodge-Romig de control rectificativos

Se basan en la idea de inspeccionar el total de los lotes rechazados, reem-

plazando las unidades defectuosas por otras en buen estado. Estos planes con-

siguen que la calidad media de salida (AOQ) sea alta. Supóngase un lote de

tamaño , con unidades defectuosas. Entonces, la proporción de defectuosas

es = . Considérese () la probabilidad de que un plan dado acepte lotes

con esa calidad. Es evidente que la calidad media de salida después del plan

de muestreo es

= () · + (1− ()) · 0 = () ·

DISEÑO DE PLANES DE MUESTREO 175

Page 184: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

La curva resultante se obtiene multiplicando la curva () por el valor

. Como consecuencia, es muy parecida a la función identidad cuando es

cercano a cero, para luego alcanzar un máximo, denominado límite de calidad

media de salida (AOQL) y posteriormente decrecer hacia altura cero. La

razón es muy sencilla: lotes con una gran proporción de defectos tenderán

a ser examinados en su totalidad prácticamente siempre y, por tanto, a ser

reemplazados los defectos por elementos no defectuosos.

Las tablas suministradas por los planes de control rectificativo de Dodge-

Romig pueden usarse de dos formas distintas. Dados , el AQL y , encontrar

, y el AOQL (tomando el riesgo del comprador igual a 010), o bien fijando

, el AQL y el AOQL, se determinan , y .

176 CONTROL DE RECEPCIÓN.

Page 185: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9. FIABILIDAD. PRINCIPIOS BÁSICOS

9.1. Introducción.

En los últimos años se produjo una revolución en el uso de métodos es-

tadísticos para mejorar la calidad de productos y servicios. Sin embargo, la

aplicación de técnicas relacionadas con la fiabilidad no son tan frecuentes en

la mayoría de las organizaciones, esto puede deberse a que gran parte de estas

herramientas sólo son empleadas en aquellos problemas en donde la fiabilidad

siempre ha jugado un papel vital, como puede ser el caso de la industria aeron-

aútica o la elctrónica. Hoy en día los ingenieros están convencidos de que una

buena fiabilidad es una característica indispensable para tener la oportunidad

de competir, siendo esta necesidad mayor en algunos casos, como en el de la

construcción en los que es necesario un alto grado de eficacia y donde algunos

fallos pueden resultar catastróficos.

La fiabilidad se suele definir como “la calidad a través del tiempo” (Con-

dra 1993). Una buena fiabilidad es, sin duda, una característica indispensable

para tener la oportunidad de competir. Por lo tanto, un producto fiable es

aquel que permanece con una buena calidad, lo que obliga a estar dentro de

sus límites de especificación, durante su vida tecnológica. Por otra parte, la

Mantenibilidad es un concepto que hace referencia a la cantidad de esfuerzo

requerida para conservar el funcionamiento normal o para restituirlo una vez

se ha presentado un evento de fallo. En este contexto, se dirá que un sistema

es .Altamente mantenibleçuando el esfuerzo asociado a la restitución sea ba-

jo. Sistemas poco mantenibles o de "Baja mantenibilidadrequieren de grandes

esfuerzos para sostenerse o restituirse.

La Mantenibilidad, por tanto, está inversamente relacionada con la duración

y el esfuerzo requerido por las actividades de Mantenimiento. Puede ser asocia-

da de manera inversa con el tiempo que se toma en lograr acometer las acciones

de mantenimiento, en relación con la obtención del comportamiento deseable

del sistema. Esto incluye la duración (horas) o el esfuerzo (horas-trabajador)

invertidos en desarrollar todas las acciones necesarias para mantener el sistema

o uno de sus componentes para restablecerlo o conservarlo en una condición

específica. Depende de factores intrínsecos al sistema y de factores propios de

la organización de Mantenimiento.

FIABILIDAD. PRINCIPIOS BÁSICOS 177

Page 186: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9.2. Concepto probabilístico de fiabilidad

El concepto central de la teoría de la fiabilidad es el estudio de la distribu-

ción del tiempo hasta la que tiene lugar un suceso puntual que, genéricamente,

llamaremos fallo (en algún caso también se utiliza la expresión de falla). El

tiempo hasta la que este se presenta se denomina tiempo de fallo.

Como las distintas unidades de un producto no fallan todas al mismo tiem-

po. Desde el punto de vista estadístico, llamando al instante en el que falla

una unidad, podemos considerar como una variable aleatoria, y estudiar su

distribución de probabilidad, con el que llegamos a la definición matemática de

la fiabilidad como la probabilidad de que una unidad, escogida al azar, no haya

fallado en un tiempo . Así definida, la función de fiabilidad o supervivencia

es una función decreciente de , que denotaremos por (). Además, si y

son las funciones de densidad y de distribución de probabilidad de la variable

aleatoria , existe la siguiente relación:

() = ( ≥ ) = 1− () = 1−Z

0

()

Es decir, desde un punto de vista estadístico, la función de fiabilidad en

un tiempo representa la probabilidad de que un individuo (léase producto

o sistema) experimente un fallo con posterioridad al tiempo mientras la

función de distribución puede interpretarse como la proporción de la población

de unidades analizadas que fallan antes del tiempo . También es habitual en

este campo el uso de la función de riesgo o tasa de fallo:

() = lım ( ≤ +4 )

4=

()

()

La tasa o razón de fallo de un componente o sistema, permite estimar la

proporción de unidades que fallan en un intervalo de tiempo ( +4), con

respecto a las que siguen funcionando en un instante de tempo . Desde esta

perspectiva, podría decirse que ()4 es la aproximación de la probabilidad

de que un individuo que no falló antes de un tiempo lo haga en el siguiente

período de tiempo 4, donde 4 denota un pequeño incremento temporal. La

importancia de la función razón de fallo en los estudios de fiabilidad, además

de su flexibilidad para describir comportamientos, es que representa como la

probabilidad de fallo instantáneo varía con el tiempo.

También puede ser de interés la función de fallo acumulativa que se define

como:

() =

Z

0

() = − log(())

Si por ejemplo, consideramos una variable de tipo exponencial (que sería

una de las formas más simples de modelar la vida de un material) cuya fun-

178 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 187: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

ción de densidad podría representarse por () = exp(−), las funciones defiabilidad. distribución y razón de fallo serían:

() =

Z

0

exp(−) = 1− exp(−)

() =

Z ∞

exp(−) = exp(−)

() =()

()=

En este caso la razón de fallo es constante, su valor será y se dirá que

esta variable carece de memoria, en el sentido de lo ocurrido hasta el instante

de tiempo no influye en lo que ocurra después.

La representación da la tasa de fallo frente al tempo da lugar, en algunos

casos, a una curva conocida como curva de la bañera. En esta curva aparecen

una serie de fallos al principio del proceso conocidos como mortalidad infantil,

que suelen ser debidos a los desajustes propios de productos con poco uso,

luego aparecen fallos que se distribuyen de forma aleatoria en el tiempo, rama

más constante de la curva, terminando con un incremento de fallos debido al

desgaste o envejecimiento propio.

Cuando se hace un estudio cuantitativo, aparte de analizar las curvas de

fiabilidad o supervivencia (R(t)), se suelen definir una serie de medidas car-

acterísticas propias de esta materia como la vida media hasta el fallo (Mean

Time To Failure, MTTF) o la media entre fallos (Men Time Between Failures,

MTBF). Un estudio cualitativo de la fiabilidad lleva a análisis modal de fallos

y sus efectos (FMEA) o al análisis por árboles de fallos (FTA).

Existen métodos, tanto paramétricos como no paramétricos, que permiten

estimar estos valores en función de las observaciones de los fallos de muestras

de los productos analizados. Además, también se cuenta con guías de referencia

para tasas de errores dependiendo del producto estudiado. Por ejemplo, una de

estas guías es la elaborada por el Pentágono americano conocida coma MIL-

HDBK-217F o la MIL-STD-785 que indica los requisitos que deben cumplir los

sistemas de fiabilidad.

9.3. Características de los datos usados en fia-

bilidad

Cuando se examinan datos en trabajos de control de calidad, es habitual que

si se inspecciona una muestra de 100 artículos, se obtienen 100 observaciones,

estos datos desde el punto de vista estadístico se denominan datos completos.

En el contexto de pruebas de fiabilidad, cuando se estudia una muestra de

CARACTERíSTICAS DE LOS DATOS USADOS EN FIABILIDAD 179

Page 188: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

tamaño 100 es raro que se obtengan 100 observaciones completas, debido a que

algunos de los artículos de la muestra pueden no fallar dentro de un período

razonable de tiempo o la prueba puede detenerse antes de que fallen todas

las unidades. Bajo estas circunstancias o cuando se desea un análisis en una

etapa intermedia antes de que finalice la prueba, el resultado será de datos

incompletos o de datos censurados.

Un dato está censurado cuando sólo se dispone de una cuota para el tiem-

po de fallo. Si esa cota es inferior tendremos un problema de censura por la

izquierda, si la cota fuera superior, que es el tipo más frecuente, hablaremos

de censura por la derecha. Cualquier estudio de fiabilidad debe tener presente

como fueron obtenidos los datos, ya que cuando tenemos un dato censurado,

el tiempo observado no corresponde a un tiempo de fallo; pero la información

parcial proporcionada por esa observación de tiempo de censura, no debe ser

rechazada para la obtención de modelos sobre o comportamiento de la vari-

able. La elección de un determinado modelo es función da su flexibilidad para

reproducir las características de las funciones de fiabilidad o de riesgo, y podrá

abordarse desde dos perspectivas: la paramétrica y la no paramétrica.

Técnicamente los modelos de censura suelen agruparse también en función

de censura por tiempo, que se presenta cuando se termina el estudio en un

determinado tiempo, también llamado tiempo de censura y se conoce como

Censura tipo I. En este supuesto solamente se conocerá el tiempo de fallo

exacto para las unidades que fallaron antes del tiempo de censura, mientras

que de las otras unidades sólo se conocerá que su tiempo de fallo es mayor que

el tiempo de censura. Otro tipo de censura, denominada censura de tipo II o

por fallo es la que se presenta cuando se interrumpe el estudio en un instante

en que se presentan una cantidad determinada de fallos, lógicamente menor

que el número de unidades analizadas, es decir, algunas siguen funcionando al

terminar el estudio.

9.4. Características de los modelos usados en fi-

abilidad

Además, cabe resaltar que en los estudios de fiabilidad aparecen variables

respuesta que son intrínsecamente no negativas: tiempos de fallo, niveles de

degradación, resistencia de materiales, número de eventos (fallos) en un período

de tiempo, etc. Por ello es común el uso de distribuciones de probabilidad como

la exponencial, la lognormal, la Weibull, la de valores extremos, la Gamma, o

la Poisson (ésta última para el número de fallos). Asimismo, es recomendable

(aunque no muy habitual) usar análisis exploratorios de datos y estimaciones no

paramétricas. El artículo de Lawless (2000) contiene una breve revisión sobre

las técnicas estadísticas utilizadas en fiabilidad, así como los nuevos retos y

180 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 189: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

líneas de investigación en este campo. Entre estos retos destacan los ensayos

acelerados para modelos físicos de degradación y fallo (ver Nelson (1990)), los

modelos de riesgo en competencia (ver Crowder (2001)). En el caso concreto

del sector naval, el campo de los sistemas complejos tiene una considerable

importancia (ver, por ejemplo, Dumitrescu (2006)).

En el caso de la estimación paramétrica, el problema consiste en suponer

que la función puede modelarse por una distribución concreta, que depende de

un número finito de parámetros que será necesario estimar a partir de mues-

tras de datos reales o simulados. Debido a que los valores observados en este

tipo de problemas son positivos, la modelización usualmente supone una dis-

tribución de tipo no normal. Así, es común el empleo de distribuciones como la

exponencial, la lognormal, la Weibull o la logística. Existen también modelos

paramétricos específicos, como la relación de Arrhenius, que permiten modelar

procesos en donde la duración de un material depende de la temperatura, que

son usados en problemas de probas aceleradas.

La otra filosofía en la estimación de los modelos de riesgo, la estimación no

paramétrica, no presupone ningún modelo a priori para la distribución, consiste

en dejar que los datos decidan por sí mismos. En este contexto no paramétrico,

los estimadores de Kaplan Meier (Kaplan e Meier 1985) para la razón de fallo, y

el estimador de Nelson-Aalen (Nelson (1972) y Aalen (1978)) para a función de

riesgo acumulado son los más utilizados, presentandomuchas de las propiedades

deseables desde el punto de vista estadístico. Para un estudio con detalle de esta

temática el manual de Mekeer y Escobar (Meeker y Escobar, 1998) representa

un magnífico referente presentando no sólo los conceptos teóricos sino también

una amplísima colección de aplicaciones a datos y problema reales de fiabilidad

industrial en la que los autores tienen una contrastada experiencia. Para la

manipulación de estos datos existen también distintos programas estadísticos

que permiten el tratamiento de datos de fiabilidad, pero es sobre todo el paquete

estadístico SPLIDA (SPlus LIfe Data Analysis) el que cuenta con más adeptos.

SPLIDA es un conjunto de funciones de S-PLUS con una interface gráfica

diseñada para el análisis de datos de fiabilidad. Muchas de estas funciones

están también disponibles para el programa de Software libre R, que se puede

descargar desde la dirección http://cran.es.R-project.org/.

9.5. Principales distribuciones para fiabilidad

9.5.1. Distribución exponencial y Distribución gamma

Como ya se comentó en la sección anterior la distribución exponencial es

una de las más usadas en la modelización de problemas con tiempos de vida.

Se puede definir como la variable = “tiempo entre dos sucesos consecutivos

en un proceso de Poisson". Diremos que tiene distribución exponencial de

PRINCIPALES DISTRIBUCIONES PARA FIABILIDAD 181

Page 190: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

parámetro , que denotaremos por ∈ () siendo 0 el número medio

de sucesos que ocurren por unidad de tiempo.

Función de densidad:

() =

½− si 0

0 en otro caso

Función de distribución:

() =

½1− − si 0

0 en otro caso

Características:

() =1

() =1

2

Entre las propiedades de la distribución exponencial es el hecho que se

conoce como que “carece de memoria", es decir,

( + / ) = ( )

Esta propiedad, que facilita en ocasiones los cálculos es también un incove-

niente por lo que no suele ser veráz su aplicación en contextos reales, ya que las

situaciones reales de tiempos de vida que se pretenden modelar la probabilidad

que tiene una unidad de fallar en un determinado tiempo si depende de su

tiempo de vida anterior. Esta propiedad también es patente al observar que su

razón de fallo es constante: la probabilidad de fallar en cualquier intervalo no

depende de la vida anterior.

() =

½ si 0

0 en otro caso

Ejemplo: Si suponemos una batería cuya vida útil se modele con una dis-

tribución exponencial de con media 7 años, se podrían calcular la probabilidad

de que el producto entre 6 y 12 años como:

1− (6 12) = 1−Z 12

6

1

7−7

= 1− −67 + −127 = 1− 002443 = 007557Si lo que se quiere es conocer la probabilidad de que la bateria dure más de

12 años, sabiendo que no sigue funcionando después de los primeros 7 años.

( 12 / 7) = ( 12)

( 7)= −(12−7)7

= −57 = ( 5)

En este ejemplo vemos que se verifica la propiedad de que la distribución

exponencial carece de memoria, es decir, la probabilidad de que la batería

funcione entre los 7 y los 12 años sólo depende de la longitud del intervalo de

tiempo considerado.

182 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 191: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9.5.2. Distribución gamma

Llamaremos función gamma a Γ() =

Z ∞

0

−1−

De la definición se deduce que Γ() = (− 1)Γ(− 1) En particular, si es un entero positivo Γ() = (− 1)!La distribución gamma, que denotaremos por Γ( ), suele utilizarse para

modelizar el tiempo de espera hasta que ocurre el -ésimo suceso de Poisson.

El parámetro representa el número medio de sucesos que ocurren por unidad

de tiempo y es el número de sucesos que queremos que hayan ocurrido.

Función de densidad:

() =

⎧⎨⎩

Γ()−1− si 0

0 en otro caso

Características:

() =

() =

2

Observése que la distribución gamma es una generalización de la distribu-

ción exponencial (la distribución exponencial de parámetro es la Γ( 1)).

Además la suma de exponenciales independientes de parámetro tiene dis-

tribución Γ( )

Por otra parte, cuando es un entero positivo, la distribución gamma se

conoce con el nombre de distribución de Erlang (científico danés que la utilizó

por primera vez para modelizar problemas relacionados con el uso de las líneas

telefónicas). En este caso, la función de distribución tiene la siguiente expresión:

() =

⎧⎪⎨⎪⎩ 1−−1X=0

−()

!si 0

0 si ≤ 0

Ejemplo: Suponiendo que el muro de contención de una presa se romperá

después de sufrir la embestida de una segunda riada. Sabiendo que el número

de riadas por siglo sigue una distribución de Poisson de promedio 2, utilizando

la distribución gamma la probabilidad de que dicho muro dure 20 años, se

tendría:

Sea = "tiempo (en años) hasta la segunda riada", ∈ Γ(2100 2)

( 20) =

Z ∞

20

(2100)2

Γ(2)−50 = 009384

PRINCIPALES DISTRIBUCIONES PARA FIABILIDAD 183

Page 192: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9.5.3. Distribución Normal y lognormal

La distribución normal fue considerada por primera vez por De Moivre en

1733 como límite de la distribución binomial, ( ), cuando → ∞. Sinembargo, este descubrimiento quedó en el olvido y fue redescubierta en el siglo

XIX por Gauss y Laplace al estudiar la distribución de los errores accidentales

en astronomía y geodesia.

La distribución normal o gaussiana es la más importante y de mayor uso de

todas las distribuciones continuas de probabilidad. Existen multitud de exper-

imentos cuyo resultado se ajusta a esta distribución: el peso de un individuo y

su talla, datos meteorológicos, errores de medición, calificaciones de pruebas de

aptitud, etc. Además, como veremos más adelante, la distribución de la suma

de variables aleatorias, en condiciones muy generales, se puede aproximar por

la distribución normal.

Diremos que una variable aleatoria tiene distribución normal de parámetros

, (−∞ ∞ 0) que denotaremos por ∈ ( ) si su función

de densidad es:

() =1

√2

−(− )2

22 si −∞ ∞

Se denomina distribución lognormal a la distribución de una variable cuyo

logaritmo se distribuye normalmente. Si = ln tiene distribución ( ),

la función de densidad de la variable viene dada por:

() =

⎧⎪⎨⎪⎩ 1

√2

1

−(ln − )2

22 si 0

0 en otro caso

La distribución lognormal es especialmente útil para comparar distribu-

ciones asimétricas con variabilidad muy distinta. Esta distribución se utiliza

con frecuencia en ciencias biológicas y físicas como modelo de volumen o peso

de cultivos, colonias de bacterias, etc. También modeliza variables referentes a

rentas de familias, ventas, etc.

9.5.4. Distribución de Weibull

Diremos que una variable aleatoria tiene distribución de Weibull de pa-

rámetros ( 0 0) que denotaremos por ∈ ( ) si su función

de densidad viene dada por:

() =

½−1−()

si ≥ 00 si 0

184 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 193: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Función de distribución:

() =

½1− −()

si ≥ 00 si 0

Características:

() =1

Γ

µ1 +

1

() =1

2

µ1 +

2

¶−∙Γ

µ1 +

1

¶¸2)Esta distribución fue propuesta por vez primera en el año 1951 por Wieibull

y sigue a utilizarse para modelizar el tiempo de vida de diferentes materiales.

Su razón de fallo es:

() =

½−1 si ≥ 00 si 0

Obsérvese que la distribución (1 ) es la distribución exponencial

Ejemplo: La duración, medida en años, de una pila tiene una distribución

de Weibull con = 2 y = 3. Calcular la probabilidad de que la pila dure

menos de dos años.

Si al cabo de un año todav’a no se ha agotado la pila, Àcuánto vale la

probabilidad anterior?

La función de distribución de la variable (2 3) es

() =

½1− −(3)

2

si ≥ 00 si 0

Por tanto, la probabilidad de que la duración () de una pila sea inferior

a dos años es

( 2) = (2) = 1− −36

Si al cabo de un año todav’a no se ha agotado la pila, la probabilidad de

que dure menos de dos años es

( 2 1) = (1 2

( 1)=

(2)− (1)

1− (1)=

−9 − −36

−9= 1− −27

9.6. Estimadores no paramétricos de la fiabilidad

En la sección anterior se estudiaron algunos de los modelos paramétricos

para fiabilidad, a diferencia de la estimación paramétrica los estimadores no

paramétricos se basan en la filosofía de "dejar que los datos hablen por si

ESTIMADORES NO PARAMÉTRICOS DE LA FIABILIDAD 185

Page 194: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

350 400 450 500 550 600 650

0.0

00

0.0

05

0.0

10

0.0

15

0.0

20

0.0

25

0.0

30

Función de densidad de la tasa de degradación del material dM_dt

Rango del tiempo

De

nsi

da

d d

e p

rob

ab

ilid

ad

Figura 9-1 Funciones de densidad.

186 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 195: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

mismos", sin presuponer ningún modelo basado en parámetros. Tienen por

tanto, la ventaja de no necesitar de la suposición de una determinada hipótesis

sobre el tipo de modelo a utilizar y de que sólo necesitan de una muestra de

datos para su implementación.

La estimación más simple de la fiabilidad a partir de los datos es mediante

la función de fiabilidad empírica de la muestra que se definirá por:

b() = #{fallos después del tiempo }

=1

X=1

{}

Esta expresión contempla el caso de tiempos observados, sin censura:

1 2

En el supuesto de presentarse problemas de censura, el estudio necesita de

estimadores especiales como el de Kaplan-Meier o el de Nelson-Aalen.

Cuando se contempla la posibilidad de censura, por ejemplo en el caso más

habitual de censura tipo I habrá que utilizar una adecuada notación para in-

dicar si una observación está o no censurada. Así, si suponemos un determinado

tiempo de censura (podría ser el tiempo hasta que se toman los datos en un

experimento), se puede indicar mediante una varible cuando este tiempo es

mayor o menor que el tiempo de censura, así por ejemplo si el −ésimo tiem-po de fallo sólo es observado si ≤ ; en caso contrario, la observación estará

censurada y sólo se sabrá que . Como cada unidad puede tener un tiempo

de censura distinto por lo que los datos pueden ser convenientemente represen-

tados por los pares (; ), donde = mın( ); siendo = {≤}Al igual que se utiliza esta notación para la censura tipo I o por tiempo se

podría también utilizar la misma notación en el caso de la censura por fallo.

En general, dada la muestra formada por pares ( ),donde denota los

tiempos (o fallos) observados y donde

Dada la muestra formada por pares ( ),donde denota los tiempos

observados y donde , el estimador de Kaplan-Meier de la función de fiabilidad

viene definido por:

b() =

Y

µ1− []

− + 1

¶En donde [] denota el indicador de fallo correspondiente al valor ().

En el caso de la estimación del riesgo acumulado es más eficiente el empleo

del estimador de Nelson-Aalen que viene dado por la siguiente expresión:

b() =

X

µ[]

− + 1

¶En este contexto de la estimación no paramétrica, es habitual utilizar

además de los estimadores puntuales de parámetros de interés como la me-

dia o la varianza, intervalos de confianza para la propia función de fiabilidad.

ESTIMADORES NO PARAMÉTRICOS DE LA FIABILIDAD 187

Page 196: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Entre las propuestas para los intervalos de confianza basados en el estimador

de Kaplan-Meier está el del método lineal que propone la construcción del

siguiente intervalo:

Ãb()− 2

rd ³ b()´ b() + 2

rd ³ b()´!

En donde para la estimación de la varianza se emplea la expresión siguiente:

d ³ b()´=³ b()

´2 X

Ã[]

(− + 1)¡− + 1− []

¢!

También pueden encontrarse estimaciones utilizando otros estimadores, co-

mo el de Nelson-Aalen, con expresiones similares basadas en la propia muestra.

En cualquier caso la mayoría de estas expresiones, y otras más complejas co-

mo las que proporcionan bandas de confianza para las funciones de fiabilidad,

se encuentran programadas en Software específico como puede ser la librería

Survival del paquete R.

9.7. Análisis de los datos de tiempos de fallo en

motores.

Se trata de 9 datos de tiempos de fallo de motores de barco, se realizará el

ajuste de una distribución tipo Weibull estimando los parámetros de forma y

escala, y realizando los contrastes de ajuste oportunos.

tiempos-c(5,8.1,8.4,12.8,14.7,18.8,19.9,24.7,30)

Desde el punto de vista estadístico, llamando al instante en el que falla

una unidad, podemos considerar como una variable aleatoria, y estudiar su

distribución de probabilidad. La función de fiabilidad o supervivencia es una

función decreciente de , que denotaremos por (). Además, si y son las

funciones de densidad y de distribución de probabilidad de la variable aleatoria

, existe la siguiente relación:

() = ( ≥ ) = 1− () = 1−Z

0

()

Analicemos los datos anterioes mediante la estimación de esta variable.

En primer lugar obtenemos algunas características como la media, desviación,

asimetría y curtosis.

mean(tiempos)

188 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 197: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

15.82222

sd(tiempos)

8.273116

coeficiente de asimetría=mean((tiempos-mean(tiempos))^3)/sd(tiempos)^3

0.2899931

coeficiente de curtosis=mean((tiempos-mean(tiempos))^4)/var(tiempos)^2

1.597770

Para analizar la variable intentaremos buscar un posible ajuste paramétrico.

En primer lugar veremos si se ajusta a una distribución Normal y luego a una

Weibull.

Para el ajuste normal representamos los datos en gráficos adecuados (his-

tograma con función de densidad, función de distribución empírica/teórica y,

gráfico qq):

Histogram of tiempos

tiempos

Den

sity

5 10 15 20 25 30

0.00

0.03

0.06

5 10 15 20 25 30

0.0

0.4

0.8

ecdf(tiempos)

x

Fn(

x)

5 10 15 20 25 30

010

2030

40

tiemposrwei

bull(

1000

, sha

pe.ti

empo

s, s

cale

.tiem

pos)

Figura 9-2 Histograma, gráfico distribución empírica y gráfica q-q Weibull

Realizando el ajuste a una distribución tipo Weibull resultan una esti-

mación de los parámetros de forma de 2.1790669 (±0.5780406) y de escalade 17.9321569 (± 2.8948782).Nota: Diremos que una variable aleatoria tiene distribución de Weibull

de parámetros ( 0 0) que denotaremos por ∈ ( ) si su

función de densidad viene dada por:

() =

½−1−()

si ≥ 00 si 0

Función de distribución:

() =

½1− −()

si ≥ 00 si 0

ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. 189

Page 198: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

5 10 15 20 25 30

0.0

0.4

0.8

ecdf(tiempos)

x

Fn(

x)

5 10 15 20 25 30

0.0

0.4

0.8

ecdf(tiempos)

x

Fn(

x)

Histogram of tiempos

tiempos

Den

sity

5 10 15 20 25 30

0.00

0.03

0.06

Figura 9-3 Contraste KS para normal y Weibull (rojo).

Características:

() =1

Γ

µ1 +

1

() =1

2

µ1 +

2

¶−∙Γ

µ1 +

1

¶¸2)

9.7.1. Estimador no paramétrica de la fiabilidad con el estimador Kaplan-Meier.

En la sección anterior se estudiaron algunos de los modelos paramétricos

para la fiabilidad de los motores, a diferencia de la estimación paramétrica los

estimadores no paramétricos se basan en la filosofía de "dejar que los datos

hablen por si mismos", sin presuponer ningún modelo basado en parámetros.

Tienen por tanto, la ventaja de no necesitar de la suposición de una determi-

nada hipótesis sobre el tipo de modelo a utilizar y de que sólo necesitan de una

muestra de datos para su implementación.

La estimación más simple de la fiabilidad a partir de los datos es mediante

la función de fiabilidad empírica de la muestra que se definirá por:

b() = #{fallos después del tiempo }

=1

X=1

{}

Esta expresión contempla el caso de tiempos observados, sin censura:

1 2

En el supuesto de presentarse problemas de censura, el estudio necesita de

estimadores especiales como el de Kaplan-Meier o el de Nelson-Aalen.

190 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 199: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Cuando se contempla la posibilidad de censura, por ejemplo en el caso más

habitual de censura tipo I habrá que utilizar una adecuada notación para in-

dicar si una observación está o no censurada. Así, si suponemos un determinado

tiempo de censura (podría ser el tiempo hasta que se toman los datos en un

experimento), se puede indicar mediante una varible cuando este tiempo es

mayor o menor que el tiempo de censura, así por ejemplo si el −ésimo tiem-po de fallo sólo es observado si ≤ ; en caso contrario, la observación estará

censurada y sólo se sabrá que . Como cada unidad puede tener un tiempo

de censura distinto por lo que los datos pueden ser convenientemente represen-

tados por los pares (; ), donde = mın( ); siendo = {≤}

Al igual que se utiliza esta notación para la censura tipo I o por tiempo se

podría también utilizar la misma notación en el caso de la censura por fallo.

En general, dada la muestra formada por pares ( ),donde denota los

tiempos (o fallos) observados y donde

Dada la muestra formada por pares ( ),donde denota los tiempos

observados y donde , el estimador de Kaplan-Meier de la función de fiabilidad

viene definido por:

b() =

Y

µ1− []

− + 1

En donde [] denota el indicador de fallo correspondiente al valor ().

0 5 10 15 20 25 30

0.0

0.2

0.4

0.6

0.8

1.0

Figura 9-4 Estimación Kaplan-Meier. Suponiendo un dato censurado (el último).

ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. 191

Page 200: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9.8. Análisis de los datos de tiempos de fallo en

motores. Problema 2.

Se trata de 20 datos de tiempos de fallo de motores de barco. Al igual que

en el problema anterior se realizará el ajuste de una distribución normal y

Weibull estimando los parámetros correspondientes y realizando los contrastes

de ajuste oportunos.

tiempos-c(2.5,4.1,5.2,6,6.5,7,7.1,8,8.2,10,11,12.8,13.5,14.2,15,17.5,18,20,21,30)

mean(tiempos)

[1] 11.88

sd(tiempos)

[1] 6.88741

mean((tiempos-mean(tiempos))^3)/sd(tiempos)^3

[1] 0.826972

mean((tiempos-mean(tiempos))^4)/var(tiempos)^2

[1] 3.078421

9.8.1. Ajuste de una distribución Normal

En este caso, con los 20 datos, se observa fácilmente que la distribución

normal no se ajusta muy bien:

9.8.2. Ajuste Weibull

Con el programa R mdiante

ajuste.weibull=fitdistr(tiempos,"weibull")

ajuste.weibull

shape

1.881261(±0.320836)scale

13.442968 (±1.689880)

Parece que la distribución Weibull ajuste mejor los datos,

192 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 201: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Histogram of tiempos

tiempos

Den

sity

5 10 15 20 25 30

0.00

0.04

0.08

0 5 10 15 20 25 30

0.0

0.4

0.8

ecdf(tiempos)

x

Fn(

x)

-2 -1 0 1 2

-10

12

Normal Q-Q Plot

Theoretical Quantiles

Sam

ple

Qua

ntile

s

Figura 9-5 Ajuste de los 20 datos de motores a una distribución Normal.

ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. PROBLEMA

2. 193

Page 202: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Histogram of tiempos

tiempos

Den

sity

5 10 15 20 25 30

0.00

0.04

0.08

0 5 10 15 20 25 30

0.0

0.4

0.8

ecdf(tiempos)

x

Fn(

x)

5 10 15 20 25 30

010

2030

40

tiemposrwei

bull(

1000

, sha

pe.ti

empo

s, s

cale

.tiem

pos)

Figura 9-6 Ajuste de la distribución Weibull a los 20 datos.

194 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 203: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9.8.3. Contrastes de bondad de ajuste

Con objeto de verificar los ajustes realizamos un par de contrastes de bon-

dad de ajuste: el test 2 y el contraste Kolmogorov-Smirnov (test ks).

El test 2 da un p-valor mayor para el caso de la distribución Weibull

(0.622499) siendo confirmado también por el contraste ks:

ks.test(tiempos,"pweibull",shape.weibull,rate.weibull)

One-sample Kolmogorov-Smirnov test

data: tiempos

D = 0.124, p-value = 0.8818

alternative hypothesis: two-sided

Podemos hacer un gráfico de las dos densidades juntas (normal y Weibull)

comparadas con el histograma de la muestra

Histogram of tiempos

tiempos

De

nsi

ty

5 10 15 20 25 30

0.0

00

.02

0.0

40

.06

0.0

8

Figura 9-7 Densidad normal y Weibull (en rojo) con el histograma de los datos.

9.8.4. Estimador no paramétrica de la fiabilidad con el estimador Kaplan-Meier.

Para aplicar el estimador Kaplan-Meier se necesita indicar una variable con

la censura, en este caso, que no tenemos, se indica con todos 1, escepto el dato

ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. PROBLEMA

2. 195

Page 204: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

número 6 que en el problema se presentaba con censura.

0 5 10 15 20 25 30

0.0

0.2

0.4

0.6

0.8

1.0

Figura 9-8 Estimador KM para los 20 datos.

9.9. Fiabiliadad de Sistemas

Existen dos áreas distintas en fiabilidad de sistemas: los sistemas reparables

y los de componentes o unidades reemplazables. En general, el análisis y la

modelización de datos de estas dos áreas requieren de diferentes supuestos

acerca de los datos y de diferentes métodos de muestreo para obtenerlos.

Un sistema será aquel compuesto por un conjunto de dispositivos estruc-

turados según una determinada configuración. Normalmente los sistemas com-

plejos requieren de varias componentes en serie y en paralelo, la estimación de

la fiabilidad conjunta de estos sistemas será la tarea esencial para estudiar el

ciclo de vida.

Entre las alternativas actuales para su estudio de estos sistemas complejos,

está la simulación de los modelos mediante el uso de técnicas de Montecarlo,

el empleo de técnicas de apoyo logístico integrado (ALI), o el uso de la de-

nominada metodología RCM asociada al estudio de la criticidad de los modos

196 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 205: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

de fallo y su probabilidad de ocurrencia para estimar el riesgo. Estas acciones

permitirán estimar la fiabilidad del sistema a partir del estudio de los árboles

de los elementos que lo configuran.

Otra filosofía del estudio en la fiabilidad de sistemas es la llamada ARM

(Availability, Reliability yMaintainability). Esta filosofía que engloba la disponi-

bilidad, la fiabilidad y la mantenibilidad, busca mejorar el rendimiento del sis-

tema al tiempo que reduce el alto costo del mantenimiento no programado,

eliminar la pérdida de ingresos causada por mantenimiento no programado,

y escapar de una cultura de mantenimiento reactivo. Para la aplicación de la

técnica ARM será preciso conocer con detalle los diagramas de los sistemas

de fiabilidad y su criticidad. Es esta técnica, sin duda, una solución integral

que es de esperar sea empleada para llevar el mantenimiento preventivo de los

sistemas del buque.

9.9.1. Sistemas en Serie y en parelelo

Un sistema estará compuesto por varias componentes que pueden encon-

trarse conectadas en serie o en parelelo, y normalmente en combinaciones Se-

rie/paralelo/serie. Para el cálculo de la fiabilidad, suponiendo que el hecho de

que una componente es independiente de los demás, se tendrá en cuanta el

concepto de sucesos independientes. En el sentido de que dos sucesos y

se dice que ocurren independientemente uno del otro si la ocurrencia o no de

uno de ellos no influye en la ocurrencia o no del otro. Formalmente, se tiene la

siguiente definición:

Dos sucesos y se dicen independientes si

( ∩) = () ()

o, equivalentemente, () = () si () 0 o bien () = ()

si () 0

La independencia de sucesos puede suponerse en algunas situaciones y de-

ducirse del contexto del problema pero, en general, debe comprobarse exper-

imentalmente. Esta definición de independencia de dos sucesos se generaliza

fácilmente a un número arbitrario de sucesos:

Los sucesos1 2 sonmutuamente independientes si se verifica

que la probabilidad de la intersección de cualquier subconjunto de ellos es igual

al producto de sus probabilidades, esto es,

Ã\

=1

()

!=

Y=1

¡()

¢para índices 1 ≤ (1) (2) · · · () ≤

FIABILIADAD DE SISTEMAS 197

Page 206: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Consideremos un sistema que consta de diez componentes en serie, que

funcionan independientemente, suponiendo que cada uno presenta una proba-

bilidad de fallo de 001 (fiabilidad de 0.99). Calcular la fiabilidad del sistema

(probabilidad de que el sistema funcione correctamente).

Si denominamos al suceso “la componente -ésima funciona correcta-

mente”, donde = 1 10, con () = 099, la fiabilidad del sistema es

(12 10) = 09910 = 0904 38

Para aumentar la fiabilidad del sistema, se deben de conectar en paralelo

las componentes o varios subsistemas.

Así si se tuviesen dos sistemas iguales al descrito anteriormente, y se conec-

tasen en paralelo, la fiabilidad del nuevo sistema. Se podría calculor de la

siguiente forma: llamando el suceso “el sistema funciona correctamente”,

con = 1 2 Dado que () = 0904 38 la fiabilidad del nuevo sistema en

paralelo es

(1 ∪ 2) = 0904 38 + 0904 38− 0904 382 = 0990 86Si conectasen en paralelo tres sistemas como el primero, ¿cuál sería ahora

la fiabilidad del sistema resultante?

La fiabilidad de este sistema es

(1∪2∪3) = 0904 38+0904 38+0904 38−3∗0904 382+0904 383 = 0999 13

Calcular la fiabilidad del sistema representado, sabiendo que las probabil-

idades de fallo de las componentes A, B, C, D y E son 001 002 002 001 y

005 respectivamente, y que éstas funcionan de forma independiente.

E

D

C

B

A

©©©*

©©©*

©©©*

©©©*

©©©*

Si denominamos al suceso “la componente A funciona correctamente”,

(análogamente, y para las otras componentes), la fiabilidad del

sistema resultante será:

(( ∪) ∩ ∩ ( ∪)) = ( ∪) () ( ∪)= 0999 8 ∗ 098 ∗ 0999 5 = 0979 31

ya que:

198 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 207: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

( ∪) = 099 + 098− 099 ∗ 098 = 0999 8 ( ∪ ) = 099 + 095− 099 ∗ 095 = 0999 5

Estos cálculos basados en la independencia de sucesos, se pueden trasladar

también al caso en que se cuente con la correspondiente función de distribución

o de fiabilidad

9.9.2. Fiabilidad en serie

En el caso de tener un sistema con componentes en serie cada uno de

ellos con una distribución independientes, la fiabilidad total del sistema ,

será igual al producto de las fiabilidades de las componentes ():

() =

Y=1

()

En el caso de la tasa de fallo total de un sistema en serie (()) coincidirá

con la suma de las tasas de cada componente ():

() =

X=1

()

En el caso de tener un sistema en paralelo, se tendrá:

() = 1−Y=1

(1−())

() =

Y=1

()

Ejemplos: En el caso de tener distribuciones de tipo exponencial para ca-

da componente, con parámetros . En el caso de un sistema en serie de n

componentes independientes se tendrá:

() =

Y=1

() = exp

Ã−

X=1

!= exp(−)

Es decir, un sistema en serie compuesto de elementos exponenciales (tasa

de fallo constantes) tiene también una tasa de fallo constante. Además, si todas

las componentes tienen la misma tasa de fallo , se tendrá:

FIABILIADAD DE SISTEMAS 199

Page 208: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

() =

Y=1

() = exp

Ã−

X=1

!= exp(−)

( ) =1

=1

Por ejemplo, según una metodología seis sigma, admitiendo 3.4 fallos por

millón para cada componente de un sistema en serie que debe de durar 1500

horas en funcionamiento, si el sistema está integrado por 10 componentes se

tendrá:

(1500) = exp(−10 ¡34 · 10−6¢ 1500) = 0950 28( ) =

1

=

1

10 (34 · 10−6) = 29412

De estos resultados se deduce que la fiabilidad del nuevo sistema de 10 compo-

nentes pasa a ser del 0.95, y la vida media del sistema sería de 29412 horas.

Si en lugar de 10 componentes el sistema integrara 100 componentes estos

valores se verían seriamente rebajados, en el caso de la fiabilidad total pasa a

0.6, mientras que la vida media se reduce a la décima parte:

(1500) = exp(−100 ¡34 · 10−6¢ 1500) = 0600 50( ) =

1

=

1

100 (34 · 10−6) = 29412

En el caso de un sistema compuesto por distribuciones de Weibull in-

dependientes, con los mismos parámetros de forma y con la posibilidad de

presentar diferentes parámetros de escala se tendrá que el sistema en serie

resultante también tendrá una distribución de Weibull, siendo su razón de fallo:

() =

X=1

() =

X=1

µ

¶−1=

µ

¶−1 0

=

ÃX=1

1

!−1

En el caso que también cada componente tenga el mismo parámetro de

escala la expresión anterior se simplifica, quedando = ¡1

¢

Por ejemplo, en el supuesto de un sistema compuesto por 10 componentes

en serie con distribución de fallo (100 25), que podría representar un sis-

tema de con = 100 mil ciclos de fatiga de un material, donde cuando falla

la primera componente el sistema falla y es reemplazado por otro ya que to-

das las componentes estarían sometidas a la misma tensión. Se tendría que

la distribución del tiempo de fallo del sistema también será ( 25) con

= 100¡10125

¢= 39 811 mil ciclos.

200 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 209: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9.9.3. Fiabilidad en paralelo

En el caso de sistemas cuyas componentes se integren en paralelo. En este

tipo de situciones suele diferenciarse entre redundancia activa y redundancia

secuencial.

Un ejemplo de redundancia activa es aquel en el que todos los elementos

redundantes estarían activos durante la misión, por ejemplo el caso de un buque

que navega con 3 motores activos en el que sólo dos tienen que cumplir con su

misión; cada uno de estos dos motores trabajaría más çargado"que uno de los

tres en funcionamiento normal.

La reduncia secuencial es cuando el elemento redundante sólo entre en juego

cuando falla el elemento primario al que sustituirá, por tanto hasta el fallo del

elemento primario el elemento redundante permanece inactivo. En estos casos

de inactividad del elemento redundante también puede que esté totalmente

inactivo (ejemplo de una rueda de repuesto en un coche) o parcialmente inactivo

o .energizado" (grupo electrogeno de un quirófano de hospital). En todo caso

la diferencia entre la reduncia activa y la secuncial afecto sólo en el hecho

de que en el caso secuencial sería necesario un dispositivo que detecte el fallo

del elemento primario y conmute este con el redundante, pero no afecta a los

cálculos de la fiabilidad total del sistema en paralelo, que como se comentó

anteriormente quedaría:

() = 1−Y=1

(1−())

() =

Y=1

()

En el supuesto de que las n componentes sean idénticas con distribuciones

F(t) cada una, se tendrá que () = 1− ( ())En el caso particular de que el sistema en paralelo esté compuesto por

distribuciones exponenciales con tasas de fallo 1 2 La fiabilidad del

sistema quedará:

() = 1−Y=1

(1− exp(−))

Se puede observar que en este supuesto el nuevo sistema no tendría una

distribución exponencial, en el caso de = 2 se tendrá:

() = 1−(1− exp(−1)) (1− exp(−2)) = exp(−1)+exp(−2)−exp(−(1+2))

En este caso, = 2 la vida media del sistema será:

FIABILIADAD DE SISTEMAS 201

Page 210: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

( ) =

Z ∞

0

() =

Z ∞

0

(exp(−1) + exp(−2)− exp(−(1 + 2))) =

=1

1+1

2− 1

1 + 2

En el caso particular en que las componentes además de ser exponenciales

tengan la misma tasa de fallo las expresiones anteriores se simplifican

() = 1− (1− exp(−))

Además para el cálculo de la vida de elementos en paralelo con idéntica

distribución de fallos de tipo exponencial, puede emplearse un método recur-

rente calculando las diferencias entre las vidas medias para n componetes y

para n-1, ya que:

()−(−1) =

Z ∞

0

(()−−1()) =

=

Z ∞

0

¡1− (1− exp(−)) − 1− (1− exp(−))−1¢ = 1

De esta forma recurrente se obtendría una expresión para la vida media en

función del número de componentes del sistema:

() = (−1) +1

(−1) = (−2) +1

(− 1)...

(2) = (1) +1

2

(1) =1

Por tanto:

() =1

+1

2+ · · ·+ 1

Con estas expresiones puede observarse como se aumenta la fiabilidad en

función del número de componentes en paralelo, si bien está el problema del

factor económico.

202 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 211: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

9.10. Sistemas reparables

En el caso de que se plantee un programa de mantenimiento se tendrán

que tener en cuenta los tiempos de reparación, reemplazamiento, tiempo entre

fallos, etc.

Normalmente los sistemas reparables contemplan observaciones en un in-

tervalo de tiempo (0 ) en donde suele plantearse que 0 = 0 El interés en

este tipo de problemas se centra en analizar datos recurrentes con objeto de

estimar o predecir ciertos cuantiles como:

districión del tiempo entre reparaciones

número de reparaciones en un intervalo de tiempos dado.

MTBT (tiempo medio entre fallos)

coste medio de reparación en función del tiempo

9.10.1. Modelo noparamétrico para estimar el MCF (Mean Cumulative Function)

Si expresamos por( ) el número total de fallos en un intervalo de tiempo

( ], que para el caso de intervalos del tipo (0 ] podría expresarse por (),

cuya media poblacional () = [()]El siguiente método propuesto por

Nelson (1988) permite estimar esta media para un sistema que esté todavía

funcionando en un tiempo :

1.- Ordenar los tiempos 1 2

2.- Calcular los valores () número de fallos para el sistema i hasta el

tiempo .

3.- Definir () = 1 si el sistema sigue funcionando en el tiempo siendo

() = 0 en otro caso.

4..- Calcular

b() = X=1

⎡⎢⎢⎣P=1

()()

P=1

()

⎤⎥⎥⎦ = 1 2

En Nelson (1995) se dan las expresiones del sesgo y varianza de este esti-

mador lo que posibilita la construcción de intervalos de confianza.

SISTEMAS REPARABLES 203

Page 212: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 9-9 Programa para calcular el ciclo de vida (AWB).

9.10.2. Apuntes sobre el coste del ciclo de vida (LCC)

La estimación del coste ciclo de vida se refiere al cálculo de los costes esper-

ados de su sistema durante su vida útil. Está directamente relacionado con las

predicciones de costes producido por la RCM. Aunque también podría definirse

como las ecuaciones de costos en función del tiempo.

El progama Avsim tiene un módulo LCC que permite a los usuarios definir

los costos del ciclo de vida que no sean los previstos por el RCM. Estos costes

pueden ser integrados con los costes previstos en la estructura de desglose de

costos LCC para proporcionar un análisis en función del tiempo de proceso de

un sistema de costo total del ciclo de vida.

9.10.3. Relación vida útil con curvas de rodaje

Otro enfoque para la estimación del ciclo de vida es el asimilarlo al estudio

de las curvas de rodaje que se utilizan en la industria del automóvil y cuyo

objeto es estimar los kilómetros recorridos por un vehículo sin averias. Las

curvas de rodaje tienen una configuración similar a las curvas OC utilizadas

en control de calidad (que serían la representación de 1 menos la curva de

potencia de un contraste). En el eje de abscisas se representan los kilómetros

y en ordenadas la probabilidad de alcanzarlos para un determinado tiempo de

vida del vehículo.

Ejemplo: Supongamos que queremos analizar una muestra de 60 vehículos

204 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 213: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 9-10 Detalle del programa AWB.

nuevos que se han puesto en circulación a los que se les computan las averías

al cabo de 3 años desde su venta en función de los km recorridos, esto puede

verse en la tabla siguiente:

km =veh/averiados sin averias/total averiados %

0-5000 4 4 50−450

92

5001-10000 9 13 50−1350

74

10001-15000 8 21 50−2150

58

15001-20000 14 35 50−3550

30

20001-25000 10 45 50−4550

10

25001-30000 5 50 0 0

La curva de rodaje para 3 años sería representar los valores de la tabla

anterior como se muestra en la figura.

También se podría ordenar los vehículos (su número de chasis podría ser una

buena etiqueta) por orden creciente de averias (de esta forma podrían repetirse

los vehículos que tuviesen más de una avería), se podrían estimar la cantidad

de averías en cada tramo kilométrico permitiendo extraer una tasa de fallos sin

más que hacer el cociente entre la cantidad de averias y el número de vehículos

funcionando sin fallos en ese tramo, esta estimación tendría una interpretación

similar a la tasa de fallo (()). Aunque no es exactamente una estimación de

la tasa de fallo si se podría comparar si se propone como cumplimiento de la

misión que el vehículo esté funcionando en un determinado kilometraje.

Para la estimación del coste del ciclo de vida habrá que introducir una

relación de coste en euros en función del tiempo o del kilometraje recorrido.

También sería necesario diferenciar entre los fallos por su importancia.

SISTEMAS REPARABLES 205

Page 214: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

0

10

20

30

40

50

60

70

80

90

100

0 5000 10000 15000 20000 25000 30000 3

P(km)

km

Curva de rodaje

Figura 9-11 Curva de Rodaje para 3 años de vida.

206 FIABILIDAD. PRINCIPIOS BÁSICOS

Page 215: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

10. MODELOS DE DEGRADACIÓN Y

TEST DE VIDA ACELERADA

Frecuentemente, las pruebas de fiabilidad deben realizarse con restricciones

severas de tiempo y no ocurren fallos durante tales pruebas. Así es difícil evaluar

la fiabilidad con pruebas de vida tradicionales que registren únicamente tiempos

de fallo. Para algunos componentes pueden tomarse medidas de degradación

respecto al tiempo. Una relación entre el fallo del componente y la cantidad

de degradación hace posible el uso de modelos de degradación y con los datos

permite hacer inferencias y predicciones sobre el tiempo de fallo.

10.0.4. Estimación de la distribución

Un modelo especificado para D(t) y Df define una distribución del tiempo

de fallo. En general, esta distribución puede escribirse como una función de los

parámetros del modelo de degradación.

Suponga que una unidad fallo en el instante t si el nivel de degradación

alcanza primero Df en el instante t. Entonces

() = ( ≤ ) = ()

Falta****

10.1. Pruebas de vida aceleradas (ALT)

El propósito principal del proceso de una prueba acelerada es alcanzar la

mejora de la fiabilidad tan pronto como sea posible. Ya que no conocemos la

naturaleza precisa de las debilidades futuras de un producto, debemos recurrir

a la aplicación de un surtido variado de esfuerzos. La suposición básica es que

sometiendo un producto a esfuerzo elevado provocará que las fallos ocurran

más rápidamente. Un ejemplo clásico de esto es una reacción química, donde

se ha encontrado que la tasa de reacción se incrementa exponencialmente con

la temperatura (de acuerdo con la relación de Arrhenius). Por tanto, la prueba

acelerada puede considerarse como una herramienta de productividad, un gran

número de fallos ocurrirá en un tiempo más corto.

Pruebas de Vida Acelerada (ALT) : Uno obtiene información sobre el tiem-

po de fallo (tiempo actual de fallo o un intervalo que contiene el tiempo de

MODELOS DE DEGRADACIÓN Y TEST DE VIDA ACELERADA 207

Page 216: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

fallo) para unidades que fallaron y límites inferiores para el tiempo de fallo de

las unidades que no fallaron.

Pruebas de Degradación Acelerada (ADT) : Uno observa en uno o más

puntos en el tiempo, la cantidad de degradación para las unidades (tal vez con

un error de medición).

10.1.1. Métodos de aceleración

Incremento de tasa de uso del producto. Considerar la fiabilidad de un

tostador, que está diseñado para una mediana de 20 años como tiempo de

vida, asumiendo una tasa de uso de 2 veces por día. Si, en su lugar, probamos

el tostador 365 veces al día, podemos reducir la mediana del tiempo de vida a

alrededor de 40 días. También, ya que no es necesario que todas las unidades

en una prueba fallen, información útil sobre la fiabilidad puede obtenerse en

cuestión de días en lugar de meses.

Incremento de tasa de envejecimiento del producto. Por ejemplo, incremen-

tando el nivel de variables experimentales como la temperatura o humedad

puede acelerar el proceso químico de ciertos mecanismos de fallo, tales como

degradación química (dando por resultado una debilidad eventual y fallo) de

un adhesivo en una unión mecánica o el crecimiento de un filamento conductor

a través de un aislante (causando eventualmente un corto circuito).

Incremento del nivel de esfuerzo. (ciclo de temperatura, voltaje o presión)

bajo el cual operan las unidades de prueba. Una unidad fallará cuando su

RESISTENCIA caiga por debajo del esfuerzo aplicado. Así una unidad a alto

nivel de esfuerzo generalmente fallará más rápidamente que como habría fallado

a bajo esfuerzo.

También pueden emplearse combinaciones de estos métodos de aceleración.

Variables como voltaje y ciclo de temperatura pueden incrementar la tasa de

una reacción electromecánica (acelerando así la tasa de envejecimiento) e in-

crementar el esfuerzo relativo a la resistencia. En tales situaciones, cuando el

efecto de una variable aceleradora es complicado, puede no existir suficiente

conocimiento físico para proporcionar un modelo físico adecuado para la acel-

eración (y extrapolación). Modelos empíricos pueden o no ser útiles para la

extrapolación en condiciones de uso.

La Prueba de Vida acelerada, a diferencia de la Prueba de Tortura, está

diseñada para proveer información de la fiabilidad del producto, componente

o sistema

Un Dato básico es el Tiempo para fallar El tiempo para fallo puede estar

en cualquier medida cuantitativa, tal como: horas, días, ciclos, actuaciones, etc.

El fallo se puede deber a la fatiga mecánica, corrosión, reacción química,

difusión, migración, etc.

Estos son exactamente los mismos eventos conducentes a un fallo en esfuer-

zos mayores que en esfuerzos normales. Sólo cambia la escala del tiempo.

208 MODELOS DE DEGRADACIÓN Y TEST DE VIDA ACELERADA

Page 217: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Un Factor de Aceleración es el multiplicador constante entre los dos niveles

de esfuerzo.

Cuando hay verdadera aceleración, cambiar los esfuerzos es equivalente a

transformar la escala del tiempo usada para registrar cuando ocurren los fallos.

Las transformaciones usadas comúnmente son lineales, lo que significa que

el tiempo para fallar en un esfuerzo alto sólo tiene que ser multiplicado por

una constante (el factor de aceleración) para obtener el tiempo equivalente de

fallo en el esfuerzo de uso.

Relaciones Lineales de Aceleración

Tiempo de fallo = Probabilidad de fallo () = ( )

fiabilidad () = ( )

PDF o Función de Densidad () = (1 )( )

Tasa de fallo () = (1 )( )

Donde:

tu: tiempo de fallo en uso ts: tiempo de fallo en esfuerzo

Fu(t): CDF en uso Fs(t): CDF en esfuerzo

fu(t): PDF en uso fs(t): PDF en esfuerzo

lu(t): tasa de fallo en uso ls(t): tasa de fallo en esfuerzo

AF: Factor de Aceleración

Una consecuencia de las relaciones lineales es que

El Parámetro de Forma para los modelos clave de distribución de vida

(Weibull y Lognor

Las Gráficas en escala de Probabilidad de los datos de diferentes condiciones

de esfuerzo se alinearán aproximadamente paralelas.

Los modelos de Aceleración predicen el tiempo de fallo en función del es-

fuerzo

Los factores de aceleración muestran como el tiempo de fallo de un nivel

particular de esfuerzo (para un modo o mecanismo de fallo) puede ser usado

para predecir el tiempo equivalente de fallo en un nivel diferente de esfuerzo.

Un modelo que predice el tiempo de fallo como función del esfuerzo debiera

ser mejor que una colección de factores de aceleración. Si escribimos tf =G(S),

donde G(S) es la ecuación del modelo para un valor arbitrario de S, entonces el

factor de aceleración entre los esfuerzos S1 y S2 puede evaluarse simplemente

por:

= (1)(2)

Ahora se puede probar en el nivel de esfuerzo más alto S2, obtener un

número suficiente de fallos para ajustar al modelo de distribución de vida y

evaluar las tasas de fallo. Después se usa la Tabla de Relaciones Lineales de

Aceleración para predecir lo que pasará en el nivel de esfuerzo menor S1.

Los modelos de aceleración se derivan a menudo de modelos físicos o cinéti-

cos relacionados con el modo del fallo

PRUEBAS DE VIDA ACELERADAS (ALT) 209

Page 218: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Un modelo que predice el tiempo de fallo como función de los esfuerzos de

operación se conoce como Modelo de Aceleración.

Se presentarán varios modelos útiles:

Arrhenius

Eyring

Regla de Potencia Inversa para Voltaje

Modelo exponencial de Voltaje

Modelos de Dos: Temperatura / Voltaje o Temperatura/Humedad

Modelo de Electromigración (Temperatura y Densidad)

Modelos de tres esfuerzos (Temperatura, Voltaje y Humedad)

Modelo Coffin-Manson de Crecimiento de Fracturas Mecánicas

10.1.2. El Modelo de Arrhenius

El Modelo de Arrhenius predice la aceleración de las fallos debido al au-

mento de temperatura

Uno de las primeras transformaciones y la de más éxito para predecir como

varía el tiempo de fallo con la temperatura.

= exp

µ4

¶ = exp

µ4

∙1

1− 1

2

¸¶Donde: = Factor de Aceleración

= temperatura ◦K (273.16+◦C) = Constante de Boltzmann (8.617E-05 eV/K)

4 = Energía de Activación del Modo de fallo (eV)

= Constante de escala (se elimina en AF)

4 determina la pendiente del factor de aceleración con la temperatura.

Una 4 pequeña caracteriza una tasa de fallo que no es fuertemente de-

pendiente de la temperatura. 4 ≥ 01 significa fuerte dependencia de la

temperatura.

210 MODELOS DE DEGRADACIÓN Y TEST DE VIDA ACELERADA

Page 219: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

11. DISEÑOSDEEXPERIMENTOSPARA

CALIDAD Y FIABILIDAD

11.1. Introducción

El diseño de experimentos es una herramienta estadística que surge en el

año 1925 con R. A. Fisher, quien lo aplicó a problemas agrícolas. Hoy es im-

prescindible en cualquier estudio experimental, así, los resultados que se logren

de un experimento bien diseñado siempre serán más fiables que otros que se

hayan obtenido sin tener en cuenta diseño alguno, o utilizando uno erróneo.

Puesto que la investigación empírica es un proceso de aprendizaje dirigido, el

objeto del diseño de experimentos es hacer que este proceso sea lo más eficiente

posible.

La metodología del Diseño de Experimentos estudia cómo variar delibera-

damente las condiciones habituales de un proceso empírico para aumentar la

probabilidad de detectar cambios significativos en la respuesta y obtener así

un conocimiento más profundo sobre el comportamiento de la respuesta.

La experimentación tiene por objetivo forzar, artificialmente, la aparición de

circunstancias “extrañas” en presencia de personas preparadas para interpretar

y extraer conclusiones de lo que ocurre. Al intentar aprender de los procesos

industriales se usa el diseño de experimentos en el diseño y mejora de productos

y de procesos.

El problema básico del diseño de experimentos está en decidir qué conjunto

de pruebas pondrán de manifiesto los aspectos de interés del problema.

11.2. Conceptos básicos

Existen una terminología propia del diseño de experimentos, se define a

continuación los conceptos básicos de esta disciplina:

Variable Respuesta es aquella variable que interesa medir con el exper-

imento. Normalmente estudiaremos una sola respuesta por experimento,

si bien, en la práctica, es frecuente el estudio de varias respuestas por

cada diseño.

Fuentes de variación es cualquier “cosa” que puede producir variabili-

dad en la respuesta. Dentro de estas fuentes de variación distinguiremos

DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD 211

Page 220: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

entre aquellas cuyo efecto sobre la respuesta interesa ser controlado (fac-

tores tratamiento) y aquellas que no son de interés directo pero que se

contemplan en el diseño con objeto de reducir la variabilidad no plani-

ficada (factores “nuisance”). Dentro de los factores nuisance se pueden

distinguir distintos niveles que en ocasiones conviene agrupar en un factor

bloque. Otras veces son tratados de forma independiente como covariables.

Tratamientos son las distintas condiciones experimentales que se desean

comparar. En el caso de un diseño factorial los tratamientos serán los

distintos niveles y sus combinaciones.

Unidades experimentales serán la muestra sobre la que se valoran los

factores. En el caso en que todos los tratamientos son asignados a un

número igual de unidades experimentales se llamará diseño equilibrado o

balanceado.

Tamaño de un experimento es el número total de observaciones recogi-

das en el diseño.

Dentro de los factores nuisance se pueden distinguir distintos niveles que

en ocasiones conviene agrupar en un factor bloque. Otras veces son tratados

de forma independiente como covariables.

El problema del estudio de la respuesta está en determinar las causas de

variabilidad. Esta variabilidad puede agruparse en:

• Variabilidad sistemática y planificada.

• Variabilidad típica de la naturaleza del problema (error de medida)

• Variabilidad sistemática y no planificada: produce conclusiones erró-

neas, variación sistemática de los resultados. Se evita aleatorizando o creando

variables bloque.

En el caso de la medicina, los pacientes son las unidades experimentales

y los fármacos son los tratamientos; en experimentos agrícolas las unidades,

muchas veces, son las partes de tierra en las que se dividen las fincas y los

tratamientos, pueden ser, la aplicación de distintas variedades de trigo, de

pesticidas, de abono, etc. Hoy en día, las técnicas de diseño de experimentos

se emplean en procesos de optimización industrial, en medicina, en química o

en ciencias sociales.

11.3. Principios básicos de un diseño

Existen tres principios que deben ser tenidos en cuenta a la hora de plani-

ficar cualquier experimento:

1. Principio de aleatorización.

2. El bloqueo.

212 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 221: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

3. La factorización del diseño.

Principio de aleatorización: Aquellos factores no controlados por el ex-

perimentador deben ser asignados al azar. El objeto de la aleatorización es

convertir la variabilidad sistemática no planificada en ruido aleatorio, por tan-

to, evita sesgos en el experimento y permite la validación de muchos de los

procedimientos estadísticos más comunes.

Principio de bloqueo: Consiste en dividir o particionar las unidades ex-

perimentales en grupos llamados bloques, de modo que en cada bloque el ex-

perimento se realice bajo condiciones lo más iguales posibles. La ventaja de

bloquear está en convertir la variabilidad sistemática no planificada en vari-

abilidad sistemática planificada.

Principio de factorización: Un diseño factorial consiste en cruzar los niveles

de todos los factores tratamiento de todas las formas posibles. Tiene la ventaja

de detectar posibles interacciones entre los niveles.

Ejemplo 11.1 Se quiere averiguar si tres aceros distintos A, B y C producen

diferencias significativas en cuanto a su resitencia a la tracción. Para este fin

se eligieron al azar 5 muestras de cada tipo de acero al que se sometió a una

prueba de laboratorio. En la tabla siguiente se recogen los valores obtenidos en

unidades Rc (se han ajustado al valor entero más próximo).

39 33 39 35 32

36 40 35 30 29

33 33 36 26 35

Se trata de un diseño en el que la respuesta es la resistencia a la tracción

y los factores serán las tres tipos de acero. Además puesto que se han aleato-

rizado todas las pruebas realizadas, formará parte de un diseño completamente

aleatorizado.

11.4. Etapas de un diseño

Podemos señalar las siguientes etapas en la realización de un diseño tipo:

1. Fijar objetivos: confeccionar una lista de cuestiones concretas a las que

debe dar respuesta nuestro experimento.

2. Elegir las variables: identificar las posibles fuentes de variación en

la respuesta (factores tratamiento y sus niveles, unidades experimentales y

factores bloque o covariables)

3.Elegir el tipo de diseño: asignar las unidades experimentales que se ob-

servarán bajo cada tratamiento. Diseño factorial o no, bloquear, anidamiento,

etc...

ETAPAS DE UN DISEÑO 213

Page 222: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

4. Ejecutar un experimento piloto: es útil partir de un primer exper-

imento que sólo involucre un número pequeño de observaciones para detectar

posibles problemas en el proceso de toma de datos.

5. Especificar un modelo matemático: explicitar una relación mate-

mática entre la variable respuesta y las principales fuentes de variación.

6. Determinar el tamaño muestral: existen, dependiendo del modelo,

algunas fórmulas que nos indican el número de observaciones que se deben

tomar para alcanzar los objetivos del experimento.

7. Analizar e interpretar los resultados: esquematizar los pasos del

estudio estadístico que dependerá de los objetivos marcados en el paso 1.

8. Planificar nuevos experimentos si es necesario.

Ejemplo de la dureza del acero: Un caso sencillo sería aquel en el que

sólo tenemos un factor, la temperatura que influye en la dureza de un acero

(respuesta). Para este experimento se utilizaron muestras de acero, que fue

calentado a distintas temperaturas (niveles) para después revenirlo en agua y

someterlo a una prueba de dureza en el laboratorio con una máquina denomi-

nada penetrador. Este instrumento tiene un cono de diamante con un ángulo

en el vértice de 120 y soporta una carga de 150 kg. La resistencia del acero se

midió en Rockwell C.

Los pasos a seguir para el diseño son:

1. Fijar objetivos: investigar cómo afectan la temperatura y el tiempo

en la dureza del acero. En este caso supondremos que tenemos dos tipos I y II.

2. Elegir las variables: las variables a medir son la respuesta (dureza),

tipo de acero (I y II) y los factores temperatura con 6 niveles distintos (Temple,

150C, 250C, 350C, 450C, 550C).

3. Elegir el tipo de diseño: las unidades experimentales que se obser-

varán bajo cada tratamiento serán las distintas probetas de acero seleccionadas

de planchas producidas en una factoría. Además, se tuvieron en cuenta como

factores nuisance las máquinas que determinan la dureza, el material experi-

mental, la temperatura ambiente y los operarios. Se consideró interesante agru-

par en bloques cada operario con una determinada máquina. Finalmente se

optó por un diseño en bloques completamente aleatorizados, que veremos más

adelante.

4. Ejecutar un experimento piloto: en un primer experimento se observó

que no se debía de incluir como factor nuisance la temperatura ambiente.

5. Especificar un modelo matemático: se observó que la dureza del acero

seguía un modelo lineal del tipo: Dureza = Constante + Efecto Tratamiento

+ Efecto Bloque + error.

6. Determinar el tamaño muestral: en este caso, por tratarse de un

diseño en bloques completamente aleatorizados, el número de experimentos es

36.

7. Analizar e interpretar los resultados: esquematizar los pasos del es-

tudio estadístico que dependerá de los objetivos marcados en el paso 1.

8. Planificar nuevos experimentos si es necesario.

214 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 223: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

11.5. El ANOVA con un factor para diseño de

experimentos

11.5.1. Diseño completamente aleatorizado

Un diseño se dirá completamente aleatorizado si se asignan al azar las

unidades experimentales a los tratamientos, siendo el modelo matemático:

= +_+

Para conseguir la aleatorización se puede hacer uso de una tabla de números

aleatorios o bien generarlos con calculadora o con un ordenador. Si tenemos un

total de I tratamientos, de los que representa el número de unidades experimen-

tales que reciben el −ésimo tratamiento, se pueden codificar los tratamientosde 1 a I y etiquetar las unidades experimentales de 1 a n. A continuación se

crean dos columnas una con unos, doses, I’es y otra con n números aleatorios.

Finalmente se reordenan ambas columnas de modo que los números aleatorios

se reubiquen en orden ascendente y se asigna la etiqueta k al tratamiento de

la fila k-ésima.

En el problema de la dureza del acero, si queremos analizar la temperatura

sobre un tipo de acero, podemos aleatorizar las muestras (unidades experimen-

tales) con respecto a los tratamientos (diferentes niveles de la temperatura de

Temple, 150C, 250C, 350C, 450C, 550C). En este caso I es 6, y los dis-

tintos serán las probetas sobre las que se realizan las medidas. En un primer

paso puede interesarnos comprobar que existe una diferencia entre la dureza

del acero para las distintas temperaturas y que además la varianza dentro de

cada temperatura no es significativa. Este contrate se resuelve mediante el

ANÁLISIS DE LA VARIANZA (ANOVA) que veremos a continuación.

El ANÁLISIS DE LA VARIANZA o ANOVA (ANalysis Of VAriance ) fue

inventado por Ronald A. Fisher con objeto de descomponer la variabilidad de

un experimento en componentes independientes que puedan asignarse a causas

distintas. Esta técnica hoy en día se usa para comprobar si varias muestras

proceden o no de la misma población, o para averiguar si las medias de difer-

entes variables pueden suponerse iguales.

Ronald A. Fisher, que en 1925 se encontraba al cargo de la estación agrícola

experimental de Rothamsted en Londres, quería averiguar si distinta cantidad

de fertilizante ejercía alguna influencia en la cosecha. Para este estudio parceló

el terreno, asignando, al azar, una cierta cantidad de fertilizante a cada parcela.

Era, por tanto, un experimento con un factor (fertilizante) y una respuesta

(cosecha obtenida)

Aunque en un principio el ANOVA nace ligado a experimentos agrícolas su

uso se ha extendido a diversos campos de la ciencia. Así si queremos comparar

4 máquinas A, B, C y D, (en general podríamos tener I máquinas) de las

EL ANOVA CON UN FACTOR PARA DISEÑO DE EXPERIMENTOS 215

Page 224: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

cuales se mide una respuesta, que puede ser la producción diaria. Si medimos

su producción durante días en la máquina −ésima. El objetivo del ANOVAes doble, por un lado comparar si todas las máquinas son idénticas respecto a

la producción media diaria y por otro, en el caso de no ser iguales, estimar la

producción media diaria da cada una.

La expresión matemática se puede poner:

= + = + +

Donde es la variable respuesta, que representa la respuesta en la -

ésima observación del -ésimo tratamiento. es la respuesta real del -ésimo

tratamiento, que se puede reparametrizar expresandola como suma de una

constante y una desviación . representa el error experimental.

Para examinar las diferencias entre los tratamientos equivale a examinar

las diferencias entre los parámetros o entre

Modelo ANOVA con un factor

El ANOVA de un factor parte de muestras aleatorias e independientes

procedentes de distribuciones normales con la misma varianza, cada una de

tamaño , con . Si es una observación de la variable respuesta del valor

-ésimo de la muestra -ésima. Se establece el contraste de hipótesis de si las

medias de las I distribuciones son la misma (Hipótesis Nula) o si al menos

una de las medias es distinta de las demás. De hecho, esta prueba es una

generalización del contraste de dos medias.El análisis de la varianza

En esta sección se expone como descomponer la variabilidad de la variable

de interés cuando se ajusta un modelo de regresión múltiple.

Tabla ANOVA. El contraste conjunto de la F

En cada observación muestral se puede hacer la siguiente descomposición¡ −

¢=³ −

´+³ −

´ = 1 2

En base a las propiedades geométricas del modelo se obtiene

()z }| {X=1

¡ −

¢2| {z }

=−1

=

()z }| {X=1

³ −

´2| {z }

=

+

()z }| {X=1

³ −

´2| {z }

=−(+1)

De esta igualdad se construye la siguiente tabla ANOVA

216 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 225: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Tabla ANOVA del modelo de regresión múltiple

Fuentes de Suma de Grados de Varianzas

Variación Cuadrados libertad

Por la recta =P

=1

³ −

´2 2 =

Residual =P

=1

³ −

´2− ( + 1) 2 =

− ( + 1)Global =

P

=1

¡ −

¢2− 1 2 =

− 1

De esta tabla ANOVA se deduce el siguiente contraste acerca de la influencia

“conjunta” del modelo de regresión en la respuesta .

• Contraste de regresión múltiple de la F.Se desea resolver el siguiente contraste (contraste conjunto de la F):

≡½

0 ≡ 1 = 2 = = = 0

1 ≡ algún 6= 0 para algún

Si 0 es cierto ninguna de las regresoras influye en la respuesta (el modelo

no influye). En este supuesto se verifica que

≈ ⇒ ≈ 0

pero es una medida absoluta (dimensionada) no vale como medida de

discrepancia. Por ello se compara con la varianza residual y resulta el siguiente

estadístico del contraste

=22

(11.1)

Bajo 0 y por la hipótesis de independencia se obtiene que sigue una

distribución con y − ( + 1) grados de libertad (contraste de la ),

|0=

22∼ −(+1) (11.2)

De (11.2) se deduce que − del contraste es

− = ³−(+1) ≥

´

donde −(+1) denota una variable aleatoria que sigue una distribución

con y − ( + 1) grados de libertad. El contraste de la es unilateral (de

una cola).

Si el valor crítico ( − ) del contraste es grande (mayor que el nivel

de significación ) se acepta 0 que el modelo de regresión no es influyente y

debe buscarse un modelo alternativo.

EL ANOVA CON UN FACTOR PARA DISEÑO DE EXPERIMENTOS 217

Page 226: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Ejemplo 11.2 En el caso de los tres tipos de acero el diseño se puede estu-

diar como un ANOVA de un factor. La idea es contrastar la hipótesis nula de

igualdad de efectos medios de los 3 aceros, frente a la alternativa de no ser los

3 iguales:

0 : = =

La tabla del ANOVA para este ejemplo es:

=P

=1

2− 2

− 1

−1

= − − −

(−1)(−)

=P

=1

P=1

2 − 2

− 1

En este ejemplo el número de observaciones realizadas de cada tratamiento

es = 5 = 1 2 3, y el número total de observaciones es =P

=1

=

5 + 5 + 5 = 15

La suma de cuadrados debida al tipo de acero (A, B y C) es:¯¯ 39 33 39 35 32

36 40 35 30 29

33 33 36 26 35

¯¯ 178170163

=

X=1

2− 2

=1782

5+1702

5+1632

5− 511

2

15= 22533

=

X=1

X=1

2 − 2

= 392 + 332 + · · ·+ 352 − 511

2

15= 208933

= − = 208933− 22533 = 1864Los cuadrados medios correspondientes a cada fuente de variación se de-

termina dividiendo cada suma de cuadrados entre sus grados de libertad. A

continuación se puede hallar el valor del estadístico del contraste:

b = ( − 1)(− )

=225332

186412= 0725

Despues de buscar el p-valor en las tablas de la F y puesto que el p-valor

es 0.504 no hay motivos para rechazar la hipótesis nula. Al no rechazarla no

tiene sentido seguir con más pruebas.

Debido a que el modelo ANOVA exige las hipótesis de normalidad de los

datos, igualdad de varianzas en cada muestra e independencia, deben verifi-

carse estas hipótesis mediante los contrastes oportunos: Kolmogorov-Smirnov,

Barlett y contraste de residuos respectivamente.

El modelo ANOVA de un factor se puede generalizar a más de un factor.

218 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 227: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Contrastes individuales de la F

El test de hipótesis dado en (??) para contrastar la influencia individual

de la variable se resuelve a partir de la distribución del estimador (con-

traste individual de la ), pero también puede hacerse por medio de una tabla

ANOVA, estudiando el incremento que se produce en la suma de cuadrados

explicada por el modelo () al introducir la variable en el modelo.

Para ello, si se quiere contrastar la influencia de la variable se ajusta el

modelo de regresión completo con las variables regresoras y se calcula la suma

de cuadrados explicada por el modelo (()) A continuación, se ajusta el

modelo de regresión con −1 variables, todas excepto la variable Se calculala suma de cuadrados explicada por este modelo ( ( − )) y se define la

suma de cuadrados incremental debida a como

4 () = ()− ( − ) ≥ 0 (11.3)

El valor 4 () indica el aumento de la variabilidad explicada por el

modelo al introducir la variable

Para contrastar la influencia individual o no de se realiza el contraste

≡½

0 ≡ = 0

1 ≡ 6= 0

¾ = 0 1

Se puede resolver este contraste utilizando el estadístico

=

4 ()

12 ()

= 0 1 (11.4)

Bajo la hipótesis nula se verifica que sigue una distribución con 1 y

− ( + 1) grados de libertad (contraste individual de la ).

|0∼ 1−(+1) = 0 1 (11.5)

Si 0 es cierto, 4 () ≈ 0 y toma valores pequeños. Este contraste

es unilateral y el − del contraste es

− = ³1−(+1) ≥

´ = 0 1

Ejemplo 11.3 Con los datos del ejemplo ??, los valores de 4 () son,

respectivamente, 636×106 y 920×107. Como el valor de 2 = 999×107346 =2887 3 × 105, los valores de los estadísticos de los contrastes individuales son2203 y 31869, respectivamente, que proporcionan ambos unos -valores iguales

a cero, es decir, que ambas variables influyen, individualmente, en la variable

respuesta.

EL ANOVA CON UN FACTOR PARA DISEÑO DE EXPERIMENTOS 219

Page 228: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Este contraste proporciona exactamente el mismo resultado (−) queel contraste individual de la . Sin embargo este método presenta la ventaja

adicional de poder utilizarse para contrastar la influencia de un subconjunto de

variables explicativas, con ≤ {1 2 } En este caso el estadísticodel contraste es

=

4 ()

2 ()

∼ −(+)

11.6. Diseños factoriales

Con el objeto de estudiar el comportamiento de materiales a la fatiga o

realizar comparaciones entre distintas características de calidad son de gran

uso en la industria diseño de tipo factorial. Este tipo de diseños se basan en

planificar los experimentos de forma que se pueda determinar el efecto de cada

factor y cada una de las maneras en que ese factor se puede ver modificado por

la influencia de los demás factores, combinándose cada nivel de cada factor con

todos los niveles de los restantes.

Estos diseños presentan la ventaja de requerir una cantidad mínima de

pruebas por factor, y puede servir como experimento base para posteriormente

hacer una mayor exploración de los datos. Tienen además, la ventaja de ser

sencillos de construir y analizar, proporcionan estimaciones de los efectos de

las variables y de sus interacciones y permiten experimentar en todas las com-

binaciones de variables y niveles.

La desventaja de este diseño es que requiere un gran número de experimen-

tos, inconveniente que se resuelve utilizando sólo dos niveles por factor o, como

veremos en el próximo tema, por medio de diseños factoriales fraccionales.

En estos diseños es muy importante el efecto que un factor puede tener

combinado con otro en la respuesta, a este efecto se denomina interacción. Por

ejemplo, en el caso de combinar un medicamento, como la aspirina, con alguna

bebida alcohólica, es conocido el efecto contrario de cara al bienestar producido.

Cada factor por separado provoca sobre el paciente (unidad experimental) un

efecto de euforia (alcohol) unido a uno de bienestar (aspirina), sin embargo la

ingesta de los dos suele provocar somnolencia y mareo. Por tanto, no se suman

los efectos sino que interaccionan.

Este fenómeno de interacción ocurre con frecuencia en experimentos indus-

triales provocando paradojas que son resueltas con un diseño bien planificado.

220 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 229: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

11.7. Factoriales completos

En los diseños factoriales completos el número de experimentos queda de-

terminado por el número de variables utilizadas y por el número de niveles

en cada variable. En este tema trabajaremos con diseños factoriales a 2 nive-

les, con lo que el número de experimentos será 2, por este motivo, se conocen

también como diseños 2. En el supuesto de considerar 4 variables tendríamos

que realizar 16 experimentos.

Estos diseños se realizan haciendo uso de una matriz de tantas columnas

como factores en la que se van situando las distintas combinaciones de nive-

les. Esta matriz se denomina matriz del diseño. Para su construcción se van

ordenando los niveles de cada factor, conocido el número de experimentos a

realizar, para el primer factor se van alternando signos - y + (o también -1

y +1) hasta completar todas las filas, para el segundo factor se alternan dos

signos — y dos + (o bien dos —1 y dos +1) hasta completar todas las filas, para

el tercero cuatro - y cuatro +, para el cuarto 8 signos — y 8 +, y así suce-

sivamente hasta completar los factores. Esta construcción, que se denomina

orden estándar, tiene la ventaja de combinar todos los factores sin omitir ni

repetir ningún valor. Además, con este orden, resulta muy sencillo determinar

los efectos de las variables.

En el supuesto de querer medir la variabilidad es conveniente realizar varios

experimentos en cada condición experimental que se denominarán réplicas. Las

réplicas reducen el efecto de la variabilidad en la respuesta; en la práctica, se

considera la media de las réplicas como única respuesta procediendo con el

cálculo de los efectos como si sólo se hubiese experimentado una vez en esas

condiciones y el resultado fuese esa media.

Ejemplo 11.4 Supongamos que deseamos estudiar la fatiga de un material

compuesto de resina epoxi-carbono. Partiendo de otros estudios sobre este tipo

de material, se tomó la decisión de medir en laboratorio probetas de este mater-

ial en el que como factores se consideren la inclinación de las fibras de carbono

(tomando dos posibles niveles: a 0 y a 90), otro factor de interés fue el grosor

de las probetas (utilizando dos niveles: un primer laminado con 46.6% de fi-

bra de carbono y un segundo laminado con un 49% de fibra); finalmente, otro

factor a tener en cuenta fue el someter el compuesto a un postcurado o no

someterlo, este postcurado se realizó en una estufa de laboratorio. La respuesta

que se midió fue el número de deformaciones hasta la rotura de cada probeta,

para lo cual se someten las unidades experimentales a un análisis mecanod-

inámico (las muestras se someten a una deformación senoidal y se mide el

esfuerzo en función del tiempo). Por tanto, la variable respuesta es el número

de compresiones (en miles) hasta la rotura de la muestra.

FACTORIALES COMPLETOS 221

Page 230: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

ejec. Factor_A Factor_B Factor_C Var_1

----- -------- -------- -------- ------------

1 -1,0 -1,0 1,0 53122,0

2 -1,0 1,0 1,0 62087,0

3 1,0 -1,0 1,0 73226,0

4 1,0 1,0 1,0 79875,0

5 1,0 -1,0 -1,0 86550,0

6 -1,0 -1,0 -1,0 68771,0

7 1,0 1,0 -1,0 81233,0

8 -1,0 1,0 -1,0 64189,0

Figura 11-1 Matriz del diseño tipo 23

(−1) (+1)

0 90

46 49

Si

En la tabla anterior se recogen los intervalos de estudio en el diseño experi-

mental con tres factores a dos niveles. A continuación, se recoge las respuestas

de este experimento de tipo 23, en este caso es posible también representar la

respuesta como vértices de un cubo, llamado cubo del diseño.

Un estudio detallado de este cubo permite extraer la información relevante

de estos experimentos. Así, puede verse en qué condiciones se obtienen materi-

ales con mayor dureza (resistencia a la fatiga). Sin embargo, para calcular los

efectos que cada factor tiene sobre la respuesta, denominados efectos principales

y las interacciones entre los factores serán necesarios cálculos más prolijos.

11.7.1. Cálculo de efectos e interacciones

El efecto principal de un factor mide cuanto cambia la respuesta, en prome-

dio, al pasar del nivel más bajo (-1) al nivel más alto (+1). Se calcula restando

las respuestas medias que se obtienen con ese factor al nivel más alto (+1)

menos las respuestas medias que se obtienen con ese factor al nivel más bajo

(-1).

La interpretación de estos efectos nos lleva a afirmar que el número de com-

presiones hasta la rotura aumenta, en promedio, en 18 miles de compresiones,

al pasar del nivel más bajo del factor Inclinación (0) al más alto (90). El

222 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 231: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

promedio = 71131,6 +/- 197,625A:Factor_A = 18178,8 +/- 395,25

B:Factor_B = 1428,75 +/- 395,25C:Factor_C = -8108,25 +/- 395,25AB = -762,75 +/- 395,25

AC = 767,25 +/- 395,25BC = 6378,25 +/- 395,25

Figura 11-2 Interacciones y efectos principales de los tres factores.

número de compresiones hasta la rotura aumenta, en promedio, en 1.5 miles de

compresiones, al pasar del nivel más bajo del factor Grosor (46.6%) al más alto

(49%). Sin embargo, el número de compresiones hasta la rotura disminuye, en

promedio, en 8 miles de compresiones, al pasar del nivel más bajo del factor

Postcurado (Con postcurado) al más alto (Sin postcurado). A la vista de estos

resultados, cabe preguntarse hasta qué punto estos valores son estadísticamente

significativos. Este aspecto lo resolveremos más adelante. Otra pregunta es có-

mo afecta cada factor dejando fijos los niveles de otro. Concretamente, a la

vista de la respuesta, parece interesante estudiar las combinaciones del efecto

grosor con el efecto postcurado.

Standardized Pareto Chart for compresiones

0 10 20 30 40

Standardized effect

AC

AB

B:Factor_B

BC

C:Factor_C

A:Factor_A

Efectos principales e interaciones.

Interaction Plot for compresiones

68

73

78

83

88

93

98

com

pres

ione

s

AB-1.0 1.0

-

-

+

+

AC-1.0 1.0

-

-

+

+

BC-1.0 1.0

-

-

+

+

Interaciones entre los factores.Existe una interacción entre los factores Grosor y Postcurado.

Para cuantificar el valor de las interacciones entre dos factores se hace la

diferencia de los efectos de un factor con él al nivel más alto menos el efecto al

nivel más bajo y se dividen estos efectos entre dos para que la varianza de los

factores sea igual que la de los efectos principales. Si esta diferencia es cero (o

FACTORIALES COMPLETOS 223

Page 232: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

próxima a cero) indica que el efecto de un factor es independiente del nivel del

otro, y por tanto no interaccionan. Es fácil observar que la interacción AB es

la misma que la BA.

Las interacciones se pueden representar gráficamente aportando una mayor

información que el simple valor numérico. Para esta representación se sitúa en

un eje cartesiano la respuesta en las ordenadas (eje Y) y los niveles (-1 y +1)

en las abscisas graficando los valores de la respuesta para el factor y uniendo

las del mismo nivel por medio de un segmento.

Se podrían realizar los ANOVAS correspondientes a cada factor.

Analizando los factores de forma independiente sobre la respuesta, vemos

que los dos factores últimos (grosor y postcurado) no son influyentes en el

cambio de la respuesta media (p-valores 0.864 y 0.344). Calculando los inter-

acciones, sí que se observa una influencia de los dos juntos, como veremos a

continuación.

11.8. Factoriales fraccionales

En los diseños factoriales completos, que hemos estudiado en el apartado

anterior, hemos visto que uno de los inconvenientes es el elevado número de

experimentos necesarios. Este número depende del número de factores k a es-

tudiar.En la industria o en experimentos de laboratorio es fácil trabajar con un

número grande de factores, así en el caso de utilizar 10 factores necesitaríamos

1024 experimentos que puede resultar un trabajo excesivo o incluso prohibiti-

vo para el presupuesto manejado. Los diseños factoriales fraccionales permiten

reducir considerablemente los experimentos cuando se estudia un número alto

de factores.

La reducción del número de experimentos se hace a consta de perder infor-

mación sobre las interacciones, sin embargo, por experiencias en el estudio de

casos reales, las interacciones de orden superior (3, 4,...) no suelen ofrecer rele-

vancia alguna en la respuesta. Por este motivo se suele estudiar sólo los efectos

principales y las interacciones de dos factores por lo que se puede prescindir

de iteraciones de orden mayor lo que llevará a la reducción en el número de

experimentos.

Un diseño factorial fraccionario, o diseño fraccional, es una parte (fracción)

del diseño factorial completo. Por ejemplo un diseño factorial completo con

7 factores necesita de 128 experimentos, mientras que uno fraccional de tipo

permite estudiar los 7 factores con 64 experimentos, suponiendo despreciables

las interacciones de orden mayor de 4. Un diseño de tipo permite estudiar 7

factores con 16 experimentos, suponiendo despreciables las interacciones de

orden igual o superior a tres y alguna de orden dos.

Con lo comentado anteriormente es evidente la importancia de fraccionar un

experimento en aras de la reducción del número total de ensayos, pero además,

224 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 233: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

esta reducción, se constata en la práctica donde suele cumplirse el “principio

de Pareto” que afirma que cuando sobre una respuesta se considera un elevado

número de factores, sólo unos pocos son responsables de la variabilidad de la

respuesta, mientras la mayoría de los factores producen cambios indistinguibles

con el ruido experimental.

Para la construcción de un diseño fraccional se utilizará una columna gen-

eradora, por ejemplo, de un diseño con 32 experimentos, se construye un nuevo

diseño con 16, tomando un diseño de tipo completo y al factor E se asigna

el valor del producto (por el algoritmo de los signos) de los factores .

A esta confusión se denomina generador, de forma que el generador usado es:

= . El diseño anterior, fraccional de tipo 25−1, se dice que es de res-olución , este valor indica el número de confusiones que se presentan en la

estimación de los efectos. En este caso los efectos principales están confundidos

con interaccione de cuatro factores y las interacciones de dos con las de tres.

La resolución de un diseño se denota por un número romano situado como

subíndice. 25−1 . Este tipo de diseño se denomina diseño de media fracción

En un caso general para escribir una media fracción basta con escribir el

diseño completo para el número de variables deseado y asignar la variable

restante a la interacción mayor posible. Así, por ejemplo, para cuatro factores

un diseño de tipo 24−1 se construye partiendo de un diseño completo 23 y se

calcula el factor generador del diseño = En este caso la resolución es

Otra forma de fraccionar un diseño es despreciar más interacciones, así

un caso opuesto a un diseño en media fracción son los denominados diseños

saturados que serían los más fraccionados posibles, se construyen a base de

saturar un diseño de tipo 2 asignando a cada interacción una nueva variable,

lo que permite estudiar 2−1 variables, siendo, por tanto, diseños de resolución. Por ejemplo un diseño 27−4 permite el estudio de 7 variables con sólo 8

experimentos. Estos diseños también se denominan de efectos principales (pues

sólo se pueden estudiar estos efectos) y resultan útiles en un primer estudio.

11.9. Otros diseños de experimentos en la indus-

tria

11.9.1. Diseños tipo Taguchi

Taguchi desarrolló un enfoque tecnológico-práctico del Diseño de Experi-

mentosinteresado en la productividad y efectividad (en términos de costes),

en lugar de interesarse en el rigor estadístico. La idea de sus diseños descansa

en utilizar la función de pérdida y la relación Señal/Ruido. Taguchi sostiene

que la clave para la reducción de la pérdida no consiste en cumplir con las

OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 225

Page 234: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

especificaciones, sino en reducir la varianza con respecto al valor objetivo.

Taguchi propone desarrollar una ingeniería de la calidad que divide general-

mente en dos partes: la que llama Ingeniería de Calidad fuera de línea (afecta

a la optimización de los diseños) y la ingeniería de Calidad en línea (su ámbito

es el control y optimización de la producción). La idea está en utilizar diseños

de experimentos en dos fases. En una primera fase y con objeto de disminuir

el coste se propone el uso del diseño de parámetros, y en una segunda fase se

propone el diseño de tolerancias mediante cambios en los costes.

El llamado diseño de parámetros es una técnica una usada para determinar

la mejor combinación de los niveles de los factores de un producto o proceso

de tal manera que sea menos sensible al ruido y su coste sea mínimo.

En el diseño del sistema se determina la configuración básica de los com-

ponentes. Por ejemplo, la determinación de los materiales. En el diseño de

los parámetros, se determinan los niveles o valores de los factores controlables

(parámetros de diseño, como la presión, la temperatura) para minimizar el

efecto de los factores incontrolables en las características del producto termi-

nado. Finalmente, el diseño de las tolerancias apunta a reducir la varianza en

las características del producto terminado cuando la reducción lograda en el

diseño de los parámetros no es suficiente.

El enfoque de Taguchi parte de dividir los factores de un experimento en

factores controlables y factores incontrolables, o ruido y recomienda seleccionar

dos diseños experimentales, uno para los factores controlables y otro para el

ruido. En general, estos diseños son de tipo ortogonal. Para Taguchi, el uso de

los ratios señal-ruido elimina en general la necesidad de examinar las interac-

ciones entre los factores controlables y los factores de ruido, si bien el examen

de estas interacciones mejora de forma evidente la comprensión del proceso.

11.9.2. Diseños de procesos robustos

Un proceso o producto robusto será aquel que permanece insensible a las

condiciones variables del uso en la vida real (distintas condiciones ambientales,

variaciones en componentes). Ejemplo (Michaels): estudio de la capacidad de

limpieza de un detergente (Box, Hunter and Hunter, 2008). Factores ambien-

tales: Temperatura (T), dureza del agua (H) y concentración de detergente en

agua (R). Factores bajo control: A, B, C y D.

11.9.3. Diseños Plackett-Burman

Los diseños llamados Plackett-Burman son un tipo especial de diseño factor-

ial fraccionado. Concretamente se analiza “espacios” entre factores adyacentes.

226 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 235: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Los diseños Plackett—Burman fueron propuestos en 1946 por Robin L.

Plackett y J. P. Burman en sus trabajos en el British Ministry of Supply.

Su objetivo era encontrar diseños experimentales para la investigación de la

dependencia de una determinada cantidad medida en un número de variables

independientes (factores), tomando cada uno los niveles de L, de tal manera

que se minimice la varianza de las estimaciones de estas dependencias con un

número limitado de experimentos. Las interacciones entre los factores fueron

considerados insignificantes. La solución a este problema consiste en encontrar

un diseño experimental en el que cada combinación de niveles para cualquier

par de factores aparece el mismo número de veces, a lo largo de todas las ré-

plicas. Un diseño factorial completo podría satisfacer este criterio, pero la idea

era encontrar diseños más reducidos fue la inspiró a estos autores a utilizar

diseños fraccionados..

Para el caso de dos niveles ( = 2), Plackett y Burman usan el método

propuesto en 1933 por Raymond Paley para la generación de matrices ortog-

onales (matrices de Hadamard). El método de Paley permite encontrar tales

matrices de tamaño N para valores que sean múltiplos de 4.

En particular, estos diseños están desarrollados para un número de factores

N de como máximo de 100, excepto el caso N = 92. Siempre que N sea una

potencia de 2, sin embargo, el diseño resultante es idéntico al de un diseño

factorial fraccional, por lo que los diseños Plackett-Burman se utilizan sobre

todo cuando N es un múltiplo de 4, pero no una potencia de 2 (es decir, N =

12, 20 , 24, 28, 36 ...).

11.9.4. Superficies de Respuesta

Bajo la denominación de superficies de respuesta se engloba un grupo de

técnicas que permiten relacionar como varias variables afectan, a la vez, a la

variable respuesta. En este apartado se aplicarán estas técnicas al caso de = 2

variables, pero se puede generalizar al caso de más de dos factores.

Estas técnicas vienen usándose desde 1950 con gran éxito en la inter-

pretación de resultados y cálculo de óptimos de la respuesta, siendo hoy en

día, gracias al avance de los programas informáticos cuando más se ha exten-

dido su uso, incluso con un cierto abuso. Si se quiere ahondar en su uso e

interpretación puede consultarse el texto de Box, Hunter y Hunter.

Ejemplo 11.5 En el ejemplo del estudio de la permeabilidad de la resina anal-

izado se podría hacer un estudio de la superficie de respuesta con objeto de

encontrar la combinación de ácido y peróxido que inimizan la permeabilidad.

Esta superficie y su correspondiente gráfico de nivel pueden verse en los gráficos

siguientes:

OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 227

Page 236: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 11-3 Ejemplo de diferentes superficies de respuesta.

-0,004 0,067 0,137 0,207 0,278 0,348 0,419 0,489 0,559 0,63 above

Superficie de respuesta Fuc_=f(ácido, peróxido)

z=0,142-0,327*x-0,952*y+0,248*x*x+0,313*x*y+1,36*y*y

Superficie de Respuesta para la permeabilidad de una resina epoxi.

-0,004

0,067 0,137 0,207

0,278 0,348 0,419

0,489 0,559

0,63

curva de n ivel

z=0,142-0,327*x-0,952*y+0,248*x*x+0,313*x*y+1,36*y*y

ACIDO

PE

RO

XID

O

-0,1

0,1

0,3

0,5

0,7

0,9

1,1

-0,2 0,2 0,6 1,0 1,4 1,8 2,2

Gráfico de curvas de nivel para la resina epoxi.Observando las curvas de nivel es fácil apreciar el mínimo de la variable

228 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 237: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

dependiente para valores del 0.4% de ácido y del 0.3% de peróxido. Analizando

la superficie de respuesta también se pueden apreciar que valores hacen mínimo

la variable dependiente.

11.9.5. El modelo ANOVA FUNCIONAL

Una de la formas más frecuentes de obtener datos en procesos industriales

modernos y en pruebas de laboratorio es la relación de una gran cantidad de

datos, muchas veces en forma de curvas que comunmente se asocian a datos

funcionales, llamados también datos longitudinales y que aparecen asociados

a procesos monitorizados continuamente en el tiempo. Es decir, cuando se

mide una variable en un conjunto discreto y finito de puntos ordenados. En

este contexto, una variable aleatoria se dice una variable funcional si toma

valores en un espacio funcional (normado o semi-normado completo). Un caso

particular se produce cuando la variable funcional pertenece a un espacio

de Hilbert, como es el caso de las funciones continuas en un intervalo (Ramsay

& Silverman, 1997).

Cuando se tienen datos funcionales puede construirse el llamado ANOVA

funcional (Cuevas, et al., 2004). Una de las ventajas que presenta frente a un

ANOVA clásico consiste en el aprovechamiento de toda la información de la

curva en lugar de recurrir a indicadores puntuales sobre la misma.

Siguiendo la nomenclatura de Cuevas et al. (2004), cada dato funcional se

puede representar como () con ∈ [ ], siendo el subíndice que indica

el nivel del factor y el número de réplica ( = 1 2 e = 1 2 ).

Como, en este caso, la temperatura es directamente proporcional al tiempo

(10◦), puede considerarse a “” como los valores de la propia temper-

atura.

La media correspondiente a cada nivel o muestra independiente tiene la for-

ma (()) = (), mientras la covarianza entre dos instantes determinados

dentro de una curva, en el caso más restrictivo de existencia de heterocedasti-

cidad, se identifica como ( ):

( ) =

X=1

¡()−·()

¢ ¡()−·()

¢ − 1 (11.6)

Por tanto, en este contexto funcional, el objetivo del contraste asociado al

ANOVA funcional es probar que:

0 : 1 = 2 = = (11.7)

El estadístico implementado por Cuevas et al. (2004) para contratar esta

hipótesis es el siguiente:

OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 229

Page 238: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

=X

°° · −·

°°2 (11.8)

La utilización del estadístico (11.8) evita el requerimiento de la hipóte-

sis de homocedasticidad en un ANOVA usual, siempre que se cumplan las

propiedades siguientes:

a) →∞ suponiendo 0 para = 1 , =

b) las observaciones() con = 1 , se corresponden con muestras

independientes de tamaño de procesos 2 con media cero y covarianza

( ), se puede afirmar que la distribución de bajo la hipótesis0 coincide

con la del estadístico:

=X

k()− ()k2 (11.9)

Donde = ()12 y 1() () son procesos gausianos indepen-

dientes de media cero y covarianza ( ).

El cálculo de la distribución del estadístico (11.9) dentro de la hipótesis nula

puede hacerse mediante la aplicación de un bootstrap paramétrico y del método

de Monte Carlo, obteniéndose el valor del cuantil , que permite resolver el

contraste, así si se rechazará la hipótesis0 siendo el test significativo,

es decir, las medias de los distintos niveles del factor serían diferentes.

Ejemplo: Con el objeto de evaluar el efecto de la adición de humo de sílice

en la degradación térmica de un material compuesto se ha realizado un diseño

de experimentos con datos funcionales. Se ha elegido un diseño ANOVA de una

vía para testear las posibles diferencias en la respuesta según el tratamiento

efectuado. Se ha tomado como factor de estudio o variable explicativa el con-

tenido en sílice de cada muestra, con tres niveles (0%, 10% y 20% en peso

de humo de sílice). Se han efectuado a su vez 5 experimentos o réplicas por

cada nivel, con lo cual se obtiene un diseño balanceado. El número de réplicas

elegidas se ha marcado con el fin de llegar a un compromiso aceptable entre la

representación adecuada de la variabilidad dentro de cada nivel y el tiempo de

experimentación total requerido.

Con el fin de caracterizar la influencia de la cantidad de humo de sílice en

la estabilidad térmica de los materiales compuestos resultantes, se han llevado

a cabo 19 experimentos: 7 correspondientes a la resina epoxi sin carga, otros 7

para un 10% en peso de humo de sílice y 5 para un 20% (ver Figura 1).

Cada uno de los experimentos se corresponde con un dato funcional donde

se representa la masa de la muestra en función de la temperatura a la que está

sometida. Como ya se ha indicado, cada muestra es calentada a 10◦C/min enun rango de temperaturas que va de 20 a 600◦C. Se observa que al final decada ensayo, a 600◦C, se degrada por completo la fase orgánica (resina epoxi),quedando únicamente la masa añadida de humo de sílice, mucho más resistente

térmicamente. Es importante señalar que la masa de la muestra se representa

en%, es decir, se asigna a la masa inicial el 100% representándose todos los

230 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 239: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

0 100 200 300 400 500 600

020

4060

8010

0

Datos Originales − Curvas TG

Temperatura/ ºC

Mas

a/ %

Figura 11-4 Datos experimentales: curvas TG de partida.

valores siguientes con respecto a esta. Cada curva consta de un número variable

de puntos entorno a 3480, uno por segundo, dependiendo de la temperatura

ambiente a la que se encuentre la máquina de ensayo.

La variable respuesta o dependiente es una variable funcional donde cada

dato es una curva que representa la masa del material en función de la temper-

atura a la que está sometido. Para su obtención se ha programado un aumento

constante en la temperatura de 10◦C/min. Todas las curvas son decrecientespues el material se degrada, es decir, pierde masa, según aumenta la temper-

atura a la que está sometido. En sí, desde el punto de vista de un estudio

de fiabilidad de los materiales, cada curva representa el camino particular de

degradación de cada muestra ensayada. La finalidad de esta experimentación

es dar respuesta a las siguientes preguntas: ¿serán esos caminos diferentes para

distintos niveles del factor cantidad de sílice?, ¿puede decirse que la estabilidad

térmica del material aumenta o disminuye, con evidencias estadísticas?

11.9.6. Estudio de la profundidad de los datos.

El concepto de profundidad indica cómo de central es un punto relativo

a una nube de puntos perteneciente a una población. Siguiendo este criterio

pueden ordenarse los diferentes datos funcionales pertenecientes a una muestra

de una población dada: se identifican como más profundos aquellas curvas más

cercanas al centro (dato más profundo definido como mediana), mientras que

se identifica como datos atípicos aquellas curvas que se generan por un proceso

estocástico diferente al resto (Cuevas, et al., 2006).

OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 231

Page 240: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Cada nivel del factor aparece, en la Figura 4, relativamente bien diferenci-

ado de los restantes. Las diferencias se observan sobre todo a altas temperat-

uras. La resina se va degradando paulatinamente de forma que al final sólo va

quedando el humo de sílice añadido. La resina sin humo de sílice se degrada

completamente (en rojo) mientras que todavía queda un entorno a un 10% y

un 20% de la masa para los grupos que tienen un 10 y un 20% en carga de

humo de sílice.

A simple vista se pueden observar tres escalones en las curvas. El primero,

no siempre perceptible, se corresponde a la pérdida de sustancias volátiles y

humedad (se localiza a temperaturas alrededor de 100◦C).

Es singularmente importante el segundo escalón de las gráficas, ya que

indica realmente el primer proceso de degradación. Es aquí donde la resina

epoxi empieza a perder masa, y lo hace de forma abrupta. Se observa que

cuando se pasa de un 0% a un 10% en humo de sílice, la masa remanente al

comienzo de este escalón es ligeramente mayor a una temperatura dada (por

ejemplo, en torno a 320◦C). Esto quiere decir que se ha conseguido aumentaraparentemente la estabilidad térmica del material compuesto resultante. En

cambio, cuando se pasa de un 10% a un 20% de humo de sílice, este aumento

es mucho más ligero.

Para construir el contraste, se han seguido los pasos marcados por Cuevas,

et al. (2004), teniendo en cuenta que la hipótesis nula a contrastar de igualdad

de medias entre las curvas (??), donde es la media de los datos funcionales

dentro de cada uno de los tres niveles estudiados del factor “cantidad de humo

de sílice”.

En primer lugar se construye el estadístico , donde los tres niveles se cor-

responden con la adición del 0%, del 10% y del 20% en humo de sílice mientras

que la respuesta está representanda por la media de los datos funcionales para

cada nivel. Con el fin de aproximar por Monte Carlo la distribución del estadís-

tico , se procede del modo siguiente:

a) Se calcula la matriz de varianzas covarianzas de los datos muestrales. Si se

supone que la estructura de covarianzas es diferente según el nivel del factor, nos

encontramos en el caso heterocedástico; más restrictivo que el homocedástico.

Suponiendo heterocedasticidad, se calcula una matriz de covarianzas diferente

por nivel, siendo su estimador el siguiente:

c( ) =

X=1

¡()−·()

¢ ¡()−·()

¢ − 1

Donde y dos instantes dados dentro de cada dato funcional.

b) Bajo la hipótesis nula, el estadístico sigue una distribución dependiente

de procesos gausianos (Cuevas, et al., 2004) difícil de conseguir. Pero dicha

distribución se puede aproximar por Monte Carlo. Para ello se lleva a cabo el

siguiente procedimiento bootstrap paramétrico:

232 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 241: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

b.1) partiendo de la muestra original, se calculan las matricesc( )1≤≤y se generan = 2000 remuestras bootstrap por nivel, generadas según una

distribución normal de media cero y matriz de covarianzas c( )1≤≤.b.2) se consiguen 2000 valores ∗ = (∗(1)

∗()) por nivel, con

= 1 2000 e = 1 2 3. Estos valores aproximan las trayectorias continuas

de () por versiones escalonadas evaluadas en una rejilla ≤ 1 ≤ .

b.3) se construyen 2000 réplicas de la forma b =P

°°∗()− ∗(1)

°°2,que aproximan la distribución de bajo 0.

Mediante el proceso anteriro se puede calcular tal que ( ) =

bajo la hipótesis nula. Si , el contraste resulta significativo.

El resultado de la implementación de este proceso al caso de las curvas TG

sin reescalar ha proporcionado los siguientes valores = 5703151 y =

1402292.

Por lo tanto, como , el test resulta totalmente significativo, al

menos una de las medias funcionales por factor es diferente a las demás. Desde

el punto de vista ingeniril podría afirmarse que la adición de humo de sílice

provoca cambios en las medias funcionales de las curvas TG. Se podría concluir

que aumenta significativamente la estabilidad térmica del material compuesto

al aumentar la cantidad de sílice.

OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 233

Page 242: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

234 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD

Page 243: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

12. APÉNDICES

12.1. Apéndice 1. Resumen de fórmulas

Estadísticos pivotales para una muestra aleatoria {1 · · · } deuna población Normal (menos las señaladas con **)

Para Suposición Estadístico Pivotal Distribución

2 conocida√ −

(0 1)

2 desconocida√ −

−1

**b− r (1− )

(0 1)

(aproximadamente)

2 conocida

P=1

( − )2

22

2 desconocida(− 1) 2

22−1

APÉNDICES 235

Page 244: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Estadísticos pivotales para dos muestras aleatorias independientes

{1 · · · } y {1 · · · } de una población Normal(menos las señaladas con **)

Para Suposición Estadístico Pivotal Distribución

− 2 y 2 conocidas

¡ −

¢− ( − )r2+

2

(0 1)

− 2 = 2

desconocidas

¡ −

¢− ( − )br1

+1

+−2

− 2 6= 2

desconocidas

¡ −

¢− ( − )sb2+b2

+−2−∗

− **(b − b )− ( − )r (1− )

+

(1− )

(0 1)

22

b2b2 22

−1−1

*donde es el entero más próximo a ∆ =

(−1) b2−(−1)

b2

2

(−1)

b2

2

+(−1)

b2

2

Estadísticos pivotales para dos muestras aleatorias apareadas

{( )

=1} de una población Normal

Para Estadístico Pivotal Distribución

− = − − b −1

12.2. Introducción al programa estadístico R

12.2.1. Introducción al R

R, también conocido cono “GNU S”, es un lenguaje para el cálculo es-

tadístico y la generación de gráficos. R implementa un dialecto del lenguaje S,

236 APÉNDICES

Page 245: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

desarrollado en los Laboratorios Bell por John Chambers et al.

Entre las características del programa R están: la capacidad de combinar,

sin fisuras, análisis "pre-empaquetados", los gráficos de alta calidad, la comu-

nidad de R es muy dinámica e integrada por estadísticos de gran renombre ,

es un lenguaje orientado a objetos.

R es la implementación GNU de S: http://cran.r-project.org/

Figura 12-1 Página WEB del programa R.

R consta de un "sistema base de paquetes adicionales que extienden la

funcionalidad. Distintos "tipos"de paquetes: Los que forman parte del sistema

base (ej. ctest). Los que no son parte del sistema base, pero son

reconmended"(ej., survival, nlme). En GNU/Linux y Windows ya forman

parte de la distribución estándar.

12.2.2. El entorno de trabajo en R

Esta es la pantalla inicial que nos encontramos al instalar R:

El Promt del sistema, por defecto, es

Aquí es donde se empezarían a escribir los diferentes comandos. Teniendo

presente que "#"indica el principio de un comentario. R puede usarse para

hacer algunas operaciones aritméticas simples.

El programa instalado por defecto es el denominado programa “base”, y

dependiendo de los datos y del estudio a realizar, podemos instalar cualquier

otro programa, directamente, desde el menú de “Packages”.

12.2.3. Objetos

R es un lenguaje orientado a objetos: variables, datos, matrices, funciones,

etc. Estos se almacenan en la memoria activa del ordenador en forma de objetos.

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 237

Page 246: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Figura 12-2 Entorno de trabajo en R.

Por ejemplo, se un objeto x toma el valor 100:

x - sqrt(2) # almazena la raíz cuadrada de 2 en x

Los tipos básicos de objetos del R son:

• vectores

• matrices y arrays

• data-frames

• listas

• funciones

12.2.4. ¿Cómo introducir datos? Vectores

Podemos introducir datos definiendo los vectores con o comando c() (“c“

correspondiente a concatenate) o usando funciones que crean vectores.

v1 - c(2,5,6) # crea un vector v1 con los datos 2, 5 y 6

v2 - c(23,56,34,23,12,56)

v2

[1] 23 56 34 23 12 56

También existen formas más cómodas:

v3 - 1:20 # crea un vector con números del 1 a 20

v4 - (1:10)*10 # crea un vector con elementos 10, 20, ..., 100

v5 - rep(5, 10) # crea un vector con elemento 5 repetido 10 veces

238 APÉNDICES

Page 247: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

12.2.5. Función edit

El comando edit(data.frame()) abre una plantilla para la introducción de

datos que se almacenaran como un data-frames. Posibilita la entrada de datos

de forma similar a una hoja de cálculo tipo Excel o a un programa clásico de

estadística.

Hoja1 - edit(data.frame())

12.2.6. Importando ficheros de datos

Se los están en otro formato electrónico, se pueden importar para trabajar

con ellos en R sin necesidad de introducirlos nuevamente. Para ello lo más fácil

de hacer es usar datos en formato texto (archivos tipo ASCII). Por ejemplo, si

los datos están en EXCEL u otro formato similar, se puede escoger la opción

SALVAR COMO e grabarlos en formato texto. R usa la función read.table

para leer los datos de un archivo texto y almacenarlos en formato de data-

frame.

Si quisiéramos importar los datos que se encuentran en nuestra área de

trabajo (working directory do R) con el nombre de fichero datos1.txt. Para

importar este archivo usamos:

datos1 - read.table(“datos1.txt”)

ls() # verificando los objetos existentes en el área de trabajo

rm(x, y) # Eliminando los objetos que no serán necesarios

12.2.7. Matrices en R

Veamos algunos ejemplos de cómo crear matrices, bien por filas o bien

por columnas. También damos diferentes funciones que permiten averiguar la

dimensión, extraer determinados elementos de la matriz, etc. . .

m1 - matrix(1:12, ncol=3)

m1

m2 - cbind(1:5, 6:10)

m2

m3 - cbind(1:5, 6)

m3

x - 1:16

mat1 - matrix(x,ncol=4)

mat1

[,1] [,2] [,3] [,4]

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 239

Page 248: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[1,] 1 5 9 13

[2,] 2 6 10 14

[3,] 3 7 11 15

[4,] 4 8 12 16

En este ejemplo henos creado una matriz de 4 columnas y 4 filas usando

los números de 1 a 16. La matriz se describe por filas, si se quisiera invertir

este criterio se añade el argumento byrow=T, para decir que la matriz debe

ser escrita por columnas:

summary() opera en cada columna como se fueran vectores:

summary(mat1)

Todas las funciones operan con matrices de la misma forma que con vectores

- elemento a elemento. Por tanto, si queremos multiplicar dos matrices con

* dará como resultado el producto de cada elemento de una matriz por el

elemento correspondiente de la otra matriz, y no la multiplicación de matrices

usual.

Para hacer la multiplicación de matrices debemos usar el símbolo%*%

Si quiere seleccionar todas las filas de una matriz con una cierta condición

definida por las columnas, por ejemplo supongamos que en la matriz siguiente,

maíz, cada fila corresponde a una persona y las columnas se refieren a medidas

tomadas de estas personas. Si queremos seleccionar las personas (filas) que

cumplen un determinado criterio (edad, sexo, etc.

Vamos a definir una matriz donde las columnas serán: la primera índices

1 a 5, la segunda la edad y la tercera el sexo (codificado como 0/1) de cinco

personas.

Ejemplo maíz: En un estudio agrícola sobre producción de maíz para con-

sumo humano podríamos considerar una muestra formada por varios terrenos

(n) y medir sobre cada individuo de la muestra (cada terreno en este caso) tres

variables: la extensión del terreno (en m2), el peso (en kg) del maíz recogido en

la cosecha del año 2005 y el peso (en kg) de los desechos, dedicados a forraje,

en la cosecha de ese mismo año. Si denotamos estas tres variables por X1, X2

y X3, cada una representará una columna de la matriz de datos de la muestra

(que en este caso es tridimensional. Así, los datos de una muestra de 4 terrenos

podrían resumirse en la siguiente matriz:

X1 X2 X3

2025 3985 9875

1534 3326 7421

891 1759 4372

3642 7034 19541

Vamos a realizar diferentes operaciones con estos datos, en primer lugar

definimos la matriz por columnas:

maiz- cbind(c(2025,1534,891,3642), c(3985,3326,1759,7034), c(9875,7421,4372,19541

Aunque podría interesarnos ver las variables como filas y las observaciones

en columnas, por lo que calcularíamos su matriz traspuesta:

t(maíz)

[,1] [,2] [,3] [,4]

240 APÉNDICES

Page 249: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[1,] 2025 1534 891 3642

[2,] 3985 3326 1759 7034

[3,] 9875 7421 4372 19541

Si quisiéramos hacer un estudio de los datos podríamos usar la orden sum-

mary:

summary(maiz)

La matriz de varianzas-covarianzas:

var(maíz)

[1,] 1380570 2592805 7692885

[2,] 2592805 4893011 14422810

[3,] 7692885 14422810 43002170

y la varianza generalizada (determinante de la matriz de varianzas-cova-

rianzas) sería:

det(var(maíz))

[1] 354416e+15

La matriz de correlaciones:

cor(maíz)

[1,] 10000000 09975909 09984236

[2,] 09975909 10000000 09942980

[3,] 09984236 09942980 10000000

12.2.8. Data-frames

Un data.frame permite introducir matrices, vectores, etc., a la vez para ser

estudiados:

d1 - data.frame(X = 1:10, Y = c(51, 54, 61, 67, 68, 75, 77, 75, 80, 82))

12.2.9. Estadística descriptiva con R

Descripción de una variable unidimensional

Analizarenos el fichero disponible en R, mtcars, que describe características

de diferentes modelos de automovil.

data(mtcars)

mtcars # muestra todo los datos

dim(mtcars) # muestra la dimensión de los datos

names(mtcars) # muestra los nombres de las variables

help(mtcars) # muestra documentación del conjunto de datos

A data frame with 32 observations on 11 variables.

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 241

Page 250: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Vamos seleccionar un subconjunto de estos datos. Para ello creamos un

objeto llamado motor que contiene algunas variables solamente, indicamos los

números de las columnas correspondientes a estas variables.

motor - mtcars[,c(1,2,4,6,9,10)]

motor[1:5,]

names(motor)

mpg cyl hp wt am year

Mazda RX4 21.0 6 110 2.620 1 4

Mazda RX4 Wag 21.0 6 110 2.875 1 4

Datsun 710 22.8 4 93 2.320 1 4

Hornet 4 Drive 21.4 6 110 3.215 0 3

Hornet Sportabout 18.7 8 175 3.440 0 3

names(motor)

[1] "mpgcylhpwtamgear"

Vamos anexar este objeto para facilitar su utilización:

attach(motor)

Vamos a estudiar la variable número de cilindros. Vamos hacer una tabla

de frecuencias absolutas y gráficos de barras_

tcyl - table(cyl)

barplot(tcyl)

4 6 8

02

46

81

01

21

4

Figura 12-3 Diagrama de barras.

Analizaremos la variable cuantitativa continua mpg (millas por galón):

table(cut(mpg, br=seq(10,35, 5)))

Veamos el diagrama de tallo y hojas:

sten(mpg)

The decimal point is at the |10 | 44

242 APÉNDICES

Page 251: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

12 | 314 | 370225816 | 43818 | 1722720 | 0044522 | 8824 | 426 | 0328 |30 | 4432 | 49

Variables bidimensionales

Analizaremos, para el mismo fichero de coches distintas variables bidimen-

sionales. En primer lugar las variables categóricas: tipo de marca y número de

cilindros.

table(am, cyl)

prop.table(table(am, cyl))

prop.table(table(am, cyl), margin=1)

prop.table(table(am, cyl), margin=2)

plot(table(am, cyl))

barplot(table(am, cyl), leg=T)

barplot(table(am, cyl), beside=T, leg=T)

12.2.10. Variables k-dimensionales

Vamos utilizar otro conjunto de datos disponible en R: el conjunto airqual-

ity.

Estos datos son medidos de concentración de ozono (Ozone), radiación solar

(Solar.R), velocidad del viento (Wind) y tenperatura (Tenp) recogidos diaria-

mente (Day) durante cinco meses (Month).

data(airquality) # entrada de los datos desde R

airquality # muestra los datos

is.data.frame(airquality) # verifica si es un data-frame

names(airquality) # nombre de las columnas, variables.

dim(airquality) # dimensiones del data-frame

help(airquality) # explica los datos

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 243

Page 252: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

4 6 8

01

02

46

81

01

2

Figura 12-4 Diagrama de barras bidimensional.

12.2.11. Modelos de Regresión en R

12.2.12. Modelos de regresión paramétricos lineales

Ejemplo de regresión simulado: Construcción de dos vectores relacionados

y su posterior análisis de regresión lineal.

# Generamos un vector con una secuencia de números de 1 a 50

x - 1:50

# Generamos un vector de pesos

w - 1 + sqrt(x)/2

# Creamos un “data-frame” de 2 columnas, x e y

reg - data.frame(x=x, y= x + rnorm(x)*w)

reg

# Creamos un ajuste de regresión lineal simple de y sobre x y analizamos

los resultados

fm - lm(y ~x, data=reg)

Min 1Q Median 3Q Max

-7.5998 -1.9679 0.6175 2.1429 6.6488

Coefficients:

Estimate Std. Error t value Pr(|t|)

244 APÉNDICES

Page 253: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Ozone

0 150 300 60 80 0 10 20 30

010

0

015

0 Solar.R

Wind

515

6080 Temp

Month

56

78

9

0 50 150

010

25

5 15 5 6 7 8 9

Day

airquality data

Figura 12-5 Relación entre las varibles de airquality.

(Intercept) 0.85898 0.94471 0.909 0.368

Multiple R-Squared: 0.9495, Adjusted R-squared: 0.9485

F-statistic: 902.8 on 1 and 48 DF, p-value: 2.2e-16

Modelos de regresión de tipo no paramétrico

El programa R permite el ajuste de modelos de tipo no paramétrico, te-

niendo implementadas métodos para la elección de la ventana. Analizaremos

un ejemplo clásico en este tipo de estudios como es el de los datos de motos

de Silverman (1985), correspondiente a la simulación de accidentes de motos

(Motorcycle Accident).

Instalamos en primer lugar la librería correspondiente de suavizado tipo

núcleo:

library(KernSmooth)

A continuación cargamos los datos, para ello es necesario cargar la librería

MASS que es donde se encuentran los datos.

library(MASS)

attach(mcycle)

mcycle

times accel

1 2.4 0.0

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 245

Page 254: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

0 10 20 30 40 50

010

203

04

05

0

x

y

Figura 12-6 Ajuste de un modelo lineal. En rojo el modelo con pesos.

2 2.6 -1.3

. . .

plot(times,accel,main=regresión paramétrica polinómica")

lines(times,fitted(lm(accel~poly(times,3)))) # ajuste de un polinomio n=3

lines(times,fitted(lm(accel~poly(times,5))),lty=3) # ajuste de un polinomio

n=5

legend(40,-100,c(“grado 3”,”grado 5”),lty=c(1,3),bty=”n”)

Veamos ahora un suavizado de los datos de tipo no paramétrico (Smoothing

Splines)

plot(times,accel,main="Sauvizado no paramétrico: Smoothing Splines")

lines(smooth.spline(times,accel)) # ajuste Smoothing Splines

plot(times,accel,main="Sauvizado no paramétrico: Kernel Smoothing")

lines(ksmooth(times,accel,”normal”,bandwidth=5)) # ajuste Kernel Smooth-

ing (5)

lines(ksmooth(times,accel,”normal”,bandwidth=2),lty=3) #Kernel Smooth-

ing (2)

legend(40,-100,c(“ventana 5”,”ventana 2”),lty=c(1,3),bty=”n”)

Observamos la diferencia de suavizado en función del tamaño de la ventana,

para elegir el tamaño óptimo podríamos usar el método de Sheather-Jones

c(width.SJ(times,method="dpi"))

[1] 16.95553

246 APÉNDICES

Page 255: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

10 20 30 40 50

-10

0-5

00

50

regresión paramétrica polinómica

times

acc

el

grado 3grado 5

Figura 12-7 Ajuste mediante modelos de regresión de tipo polinómico.

12.2.13. Distribuciones de Probabilidad

El programa R incorpora la mayoría de las distribuciones de probabilidad,

permitiendo la realización de diversos cálculos. Existen cuatro operaciones bási-

cas indicadas por las letras:

d: calcula a densidad de probabilidad f en un punto dado

p : calcula la función de distribución F en un punto dado

q : calcula el cuantil correspondiente

r : permite elegir una muestra aleatoria de la distribución

Para usar estas ordenes es necesario combinar una de las letras (d, p, q, r)

con una abreviatura del nombre de la distribución, por ejemplo para calcular

probabilidades usamos: pnorm para normal, pexp para exponencial, pbinom

para binomial, ppois para Poisson. Analizaremos las distribuciones más cono-

cidas.

Distribución Normal

Esta distribución está implementada con argumentos que combinan las le-

tras (d, p, q, r) con el término norm. En un principio se asume una distribución

N(0,1)

dnorm(-1.96)

[1] 0.05844094

pnorm(-1.96)

[1] 0.02499790

qnorm(0.975)

[1] 1.959964

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 247

Page 256: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

10 20 30 40 50

-10

0-5

00

50

Sauvizado no paramétrico: Smoothing Splines

times

acce

l

Figura 12-8 Ajuste de los datos mediante modelos de regresión no paramétrica

(Spline).

rnorm(15)

[1] 0.6185623 1.6087680 2.2472951 0.5448082 0.4775086 -0.3435122

[7] 0.1805056 -0.5562619 1.9748115 2.1843846 0.1008427 -0.8164894

[13] 1.4314991 0.3957931 1.8978333

También obtendríamos soluciones iguales si utilizamos la función de densi-

dad directamente:

(1/sqrt(2*pi)) * exp((-1/2)*(-1.96)^2)

[1] 0.2419707

args(rnorm)

function (n, mean = 0, sd = 1)

plot(function(x) dnorm(x, 100, 8), 60, 140, ylab=“f(x)”)

plot(function(x) dnorm(x, 90, 8), 60, 140, add=T, col=2)

plot(function(x) dnorm(x, 100, 15), 60, 140, add=T, col=3)

legend(120, 0.05, c("N(100,64)","N(90,64)","N(100,225)"), fill=1:3)

12.2.14. Inferencia estadística con R

Podemos generar muestras de una distribución usando el generador de

números aleatorios que está implementado con la orden set.seed (seed del in-

glés). Cada vez que utilizamos el comando rnorm se producen diferentes mues-

tras, debido a que utiliza un valor, llamado senilla, para el algoritmo de gen-

eración distinta, se puede usar la función set.seed para controlar la senilla del

generador de números aleatorios.

248 APÉNDICES

Page 257: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

10 20 30 40 50

-10

0-5

00

50

Sauvizado no paramétrico: Kernel Smoothing

times

acce

lventana 5ventana 2

Figura 12-9 Ajuste mediante el método núcleo con dos ventanas distintas.

set.seed(2000) # define la semilla

rnorm(10) # genera 10 numeros de una N(0,1)

Intervalos de confianza

Vamoa a utilizar el R para obtener intervalos de confianza para diferentes

parámetros de distribuciones de probabilidad.

Intervalo para la media de una distribución normal

Veamos un ejemplo, dados una serie de valores que introducimos en el vector

tiempo

tiempo - c(2.9, 3.4, 3.5, 4.1, 4.6, 4.7, 4.5, 3.8, 5.3, 4.9,

4.8, 5.7, 5.8, 5.0, 3.4, 5.9, 6.3, 4.6, 5.5, 6.2)

Calculamos el tamaño de la muestra, n, la media mu y la varianza muestral

var.

n - length(tiempo)

mu - mean(tiempo)

var - var(tiempo)

Calculamos el intervalo al 95% de confianza para la media siguiendo la

fórmula:

ic - mu + qt(c(0.025, 0.975), df = n-1) * sqrt(var/length(tiempo))

ic

[1] 4.278843 5.211157

También se puede usar la función t.test para obtener el intervalo anterior,

entre otros resultados.

t.test(tiempo)

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 249

Page 258: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

60 80 100 120 140

0.00

0.01

0.02

0.03

0.04

0.05

xf(x

)

N(100,64)N(90,64)N(100,225)

Figura 12-10 Diferentes curvas de funciones de densidad normal.

Intervalos de confianza Bootstrap en R

Calculamos los intervalos boostrap para el 95% y el 99% de confianza para

los datos del fichero chem.

library(boot)

chem.boot-boot(chem,function(x,i) median(x[i]),R=500)

chem.boot

boot(data = chem, statistic = function(x, i) median(x[i]), R = 500)

Bootstrap Statistics :

original bias std. error

t1* 3.385 -0.10071 0.1906456

Level Normal Basic

95% ( 3.112, 3.859 ) ( 3.170, 3.893 )

99% ( 2.995, 3.977 ) ( 3.070, 3.970 )

12.2.15. Contraste de hipótesis

Al igual que en los intervalos es posibles realizar distintos Testes de Hipóte-

sis, analizaremos un ejemplo en el que se quiere contrastar la igualdad de medias

del tiempo de dos máquinas A y B. Para ello contrastaremos la igualdad de

varianzas y luego las medias:

Máquina A 1435 1237 1326 1442 1441 1337

Máquina B 1433 1238 1332 1348 1442 1342

El valor del estadístico del contraste se calcula como el cociente de las

cuasivarianzas muestrales de ambas muestras

Vamos a efectuar los análisis con R paso a paso:

250 APÉNDICES

Page 259: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

ma - c(1435, 1237, 1326, 1442, 1441, 1337)

na - length(ma)

mb - c(1433, 1238, 1332, 1348, 1442, 1342)

nb - length(mb)

Calculamos las varianzas (téngase en cuenta que ya calcula directamente la

cuasivarianza con la orden var)

ma.v - var(ma)

mb.v - var(mb)

Calculamos el valor del estadístico del contraste y el p-valor:

Fcalc - ma.v/mb.v

pval - 2 * pf(Fcalc, na-1, nb-1, lower=F)

pval

[1] 0.8111926

Como el p-valor es alto no rechazamos la igualdad de varianzas.

Podríamos obtener el mismo resultado utilizando la función var.test. Veamos

esta función:

var.test(ma, mb)

F test to conpare two variances

data: ma and mb

F = 1.0821, nun df = 5, denom df = 5, p-value = 0.9331

12.2.16. Estimación no paramétrica de la densidad

La necesidad de estudiar distribuciones de las que no se pueden estimar

fácilmente sus parámetros, ha llevado al desarrollo de métodos de tipo no

paramétrico que permiten estimar, sin conocer los parámetros, densidades o

distribuciones de una población. En concreto, analizaremos la estimación no

paramétrica para la función de densidad. Para mayor información véase la

salida:

help(density)

La estimación de densidades se puede hacer con la función density. Estimara

una función a partir de los datos sin forma paramétrica establecida. Veremos

el ejemplo de datos de precipitaciones disponible en R

data(precip)

Veamos los argumentos disponibles para la estimación de la densidad:

args(density)

function (x, bw = "nrd0", adjust = 1, kernel = c("gaussian",

.epanechnikov", rectangular", "triangular", "biweight",

çosine", .optcosine"), window = kernel, width, give.Rkern = FALSE,

n = 512, from, to, cut = 3, na.rm = FALSE)

plot(density(precip, bw=1), main=““)

rug(precip)

lines(density(precip, bw=5), lty=2)

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 251

Page 260: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

lines(density(precip, bw=10), lty=3)

legend(5, 0.045, c(“bw=1”, “bw=5”, “bw=10”), lty=1:3)

10 20 30 40 50 60 70

0.0

00

.01

0.0

20.

030

.04

N = 70 Bandwidth = 1

De

nsi

ty

bw=1bw=5bw=10

Figura 12-11 Densidad estimada usando con diferentes valores para el argumento

bw.

Otro argumento importante es el tipo de función de pesos, o función núcleo

(kernel). Veamos diferentes funciones núcleo implementadas en R:

(kernels - eval(formals(density)$kernel))

plot (density(0, bw = 1), xlab = , main="kernels con bw = 1")

for(i in 2:length(kernels))

lines(density(0, bw = 1, kern = kernels[i]), col = i)

legend(1.5,.4, legend = kernels, col = seq(kernels),

lty = 1, cex = .8, y.int = 1)

plot(density(precip), main=““)

rug(precip)

lines(density(precip, ker=“epa”), lty=2)

lines(density(precip, ker=“rec”), col=2)

lines(density(precip, ker=“tri”), lty=2, col=2)

lines(density(precip, ker=“biw”), col=3)

lines(density(precip, ker=“cos”), lty=3, col=3)

legend(0, 0.035,

legend = c("gaussian", .epanechnikov", rectangular",

"triangular", "biweight", çosine"),

lty = rep(1:2,3), col = rep(1:3, each=2))

Cálculo de la ventana óptima: Analizando los resultados anteriores podemos

concluir que el ancho de banda (bandwidth - bw) tiene mucha influencia en la

252 APÉNDICES

Page 261: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

-3 -2 -1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

kernels con bw = 1

De

nsi

ty

gaussianepanechnikovrectangulartriangularbiweightcosineoptcosine

Figura 12-12 Diferentes núcleos implementados por la función density.

estimación de la densidad, siendo el tipo de núcleo (kernel) de menor impor-

tancia. Existen diferentes métodos para la estimación adecuada del ancho de

ventana, que también pueden ser especificados en R mediante el argumento

bw, en principio se usa por defecto (“default”) el método nrd0 que implementa

la regla propuesta por Silverman. Para utilizar el método de Sheather & Jones

podemos utilizar el argumento bw=“sj”

precip.dSJ - density(precip, bw=“sj”)

plot(precip.dSJ)

rug(precip)

12.2.17. Diseño de Experimentos con R

Analizaremos las posibilidades que ofrece el R para el estudio del diseño de

experimentos con algunos ejemplos clásicos.

Diseño para la velocidad de la luz: Analizar un experimento clásico de

Michaelson y Morley para medir la velocidad de la luz. Los datos pueden obten-

erse haciendo clic en: morley.tab. Hemos guardado este archivo en el directorio

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 253

Page 262: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

0 20 40 60 80

0.0

00

.01

0.0

20

.03

N = 70 Bandwidth = 3.848

De

nsi

ty

gaussianepanechnikovrectangulartriangularbiweightcosine

Figura 12-13 Densidad estimada usando la función density con diferentes valores

para el argumento kernel.

c:\tempPara ver el archivo: file.show(ç:\\temp\\morley.tab.txt")Leeremos los datos cono un “data-frame”. Se trata de 5 experimentos

(columna Exp.), cada un con 20 replicas (columna Run), siendo sl el valor

medido de la velocidad de la luz.

luz - read.table(ç:\\temp\\morley.txt")luz

# A continuación definiremos Expt y Run cono factores

luz$Expt - factor(luz$Expt)

luz$Run - factor(luz$Run)

summary(luz)

Expt Run Speed

1:20 1 : 5 Min. : 620.0

2:20 2 : 5 1st Qu.: 807.5

3:20 3 : 5 Median : 850.0

4:20 4 : 5 Mean : 852.4

5:20 5 : 5 3rd Qu.: 892.5

6 : 5 Max. :1070.0

(Other):70

# Volvemos al data-frame luz

attach(luz)

254 APÉNDICES

Page 263: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

0 20 40 60 80

0.0

00

.01

0.0

20

.03

density(x = precip, n = 1000)

N = 70 Bandwidth = 3.848

Den

sity

nrd0nrducvbcvSJ-steSJ-dpi

Figura 12-14 Resultados obtenidos con diferentes métodos de estimación de la

densidad.

:

plot(Expt, Speed, main="Velocidad de la luz", xlab=.Experimento Número")

Hacemos un estudio del experimento analizando con “runs” y “experi-

ments” como factores y analizamos los resultados:

fm - aov(Speed ~Run + Expt, data=luz)

summary(fm)

names(fm)

fm$coef

fm - aov(Speed ~Run + Expt, data=luz)

summary(fm)

Df Sum Sq Mean Sq F value Pr(F)

Run 19 113344 5965 1.1053 0.363209

Expt 4 94514 23629 4.3781 0.003071 **

Residuals 76 410166 5397

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Ejemplo 12.1 (Ejemplo del fertilizante) Se quiere averiguar si tres ferti-

lizantes, A,B y C presentan diferencias significativas en cuanto a sus efectos

sobre el aumento de la cosecha de maíz. Con este propósito se eligieron al azar

15 parcelas a las que se fertilizó aleatoriamente con cada uno de los fertilizantes

en cuestión. Los aumentos de cosecha obtenidos fueron los siguientes:

A 39 33 39 35 32

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 255

Page 264: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

1 2 3 4 5

700

800

90

01

00

0

Velocidad de la luz

Experimento Número

Figura 12-15 Comparamos los 5 experimentos mediante un gráfico de cajas

múltiple.

B 36 40 35 30 29

C 33 33 36 26 35

A la vista de estos datos y recortando =0’1. ¿Puede inferirse que existen

diferencias significativas entre los tres fertilizantes?

En primer lugar introducimos los datos en R:

diseno2-edit(data.frame())

diseno2

Al igual que en el diseño anterior indicamos cual es el factor y cual la

respuesta:

diseno2$resp

diseno2$fertiliz

is.factor(diseno2$fertiliz)

is.numeric(diseno2$resp)

diseno2$resp

[1] 39 33 39 35 32 36 40 35 30 29 33 33 36 26 35

diseno2$fertiliz

[1] A A A A A B B B B B C C C C C

Levels: A B C

is.factor(diseno2$fertiliz)

[1] TRUE

is.numeric(diseno2$resp)

[1] TRUE

256 APÉNDICES

Page 265: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Obtendremos algunas medidas y gráficos para estos datos, para ello es in-

teresante utilizar la orden attach con idea de poder usar las variables definidas.

search()

attach(diseno2)

diseno2.m - tapply(resp, fertiliz, mean)

diseno2.m

A B C

35.6 34.0 32.6

diseno2.v - tapply(resp, fertiliz, var)

diseno2.v

A B C

10.8 20.5 15.3

plot(diseno2)

points(diseno2.m, pch="x", col=2, cex=1.5)

boxplot(resp ~fertiliz)

A B C

26

28

303

23

436

38

40

Figura 12-16 Diagramas de caja para el anova de fertilizantes.

bartlett.test(resp, fertiliz)

Bartlett test for homogeneity of variances

data: resp and fertiliz

Bartlett’s K-squared = 0.3641, df = 2, p-value = 0.8336

Como resulta un p-valor de mayor de 0.8 podríamos aceptar la igualdad de

varianzas. Para hacer el análisis de la varianza (ANOVA) procederemos con la

orden aov.

INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 257

Page 266: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

En el objeto diseno2.anova guardamos los resultados del ANOVA realizado.

Se observa un p-valor de 0.5042 por lo que no rechazaríamos la igualdad de

la respuesta a los tratamientos de fertilizante. Vamos inspeccionar este objeto

más cuidadosamente y hacer también un estudio de los residuos:

Podríamos analizar el estudio de la normalidad de los residuos mediante el

test de shapiro-wilk:

shapiro.test(residuals(diseno2.anova)).

258 APÉNDICES

Page 267: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

Bibliografía

[1] Abu-Shawiesh MO, Abdullah MB. New robust statistical process control

chart for location. Quality Engineering 2000; 12: 149-159.

[2] Albin S. L., Kang L., Sheha G., (1997), An and EWMA chart for indi-

vidual observations. Journal of Quality Technology, 29, 1, 41-48.

[3] Albing M. Process capability indices for Weibull distributions and up-

per specification limits. Quality and Reliability Engineering International

2009; 25: 317-334.

[4] Alfaro Navarro J. L., Métodos multivariantes en control estadístico de la

calidad. Facultad de Ciencias Económicas y Empresariales de Albacete.

Universidad de Castilla-La Mancha.

[5] Alt F. B., (1985), Multivariate Control Charts in Encyclopedia of Statis-

tical Sciences, vol. 6. S. Kotz y N. L. Johson, Eds. Wiley, New York.

[6] Alwan L. C., (1986), CUSUM Quality Control-Multivariate Approach,

Communications in Statistics, 15, 3531-3543.

[7] Anderson, T.W. (1984). An Introduction to Multivariate StatisticalAnalysis. Wiley.

[8] Aparisi F., (1996), Hotelling’s T2 control chart with adaptive sample

sizes, International Journal of Production Research, 34, 2853-2862.

[9] Aparisi F., García Díaz J. Carlos, Aumento de la potencia del gráfico de

control multivariante T2 de Hotelling utilizando señales adicionales de

falta de control. Estadística española. Vol 43, Núm. 148, 2001, págs. 171

a 188.

[10] Artiaga, R., Cao, R. y Naya, S. Local Polynomial estimation of TGA

derivatives using logistic regression for pilot bandwidth selection. Actas

de la 5 Mediterranean Conference on Calorimetry and Thermal Analy-

sis, 86.

[11] Artiaga, R., García, A., Varela, A., Mier, J. L., Naya, S. y Graña,

M (2002). DMTA study of a nickel-titanium wire. Journal of Thermal

Analysis and Calorimetry, 70, 199-207.

[12] Bai, D. S. y Choi, I. S. (1995) X and R Control Charts for Skewed

Populations. Journal of Quality Technology, 27, pp. 120-131.

BIBLIOGRAFÍA 259

Page 268: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[13] Doganaksoy, N., Faltin, F. W. y Tucker. W.T. (1991), Identification of

out-of-control characteristics in a multivariate manufacturing environ-

ment, Communications in Statistics: Theory and Methods, Vol. 20, pp.

2775-2790.

[14] Blazek, L. W., Novic B. y Scott M. D. (1987): Displaying Multivariate

Data Using Polyplots. Journal of Quality Techonolgy. 19 (2) pp 69-74.

[15] Borges W, Ho LL. A fraction defective based capability index. Quality

and Reliability Engineering International 2001; 17: 447-458.

[16] Brook, D, Evans D (1972), An approach to the probability distribution

of cusum run length, Biometrika 59, 539-548.

[17] Breyfogle, F.W. (2003). Implementing Six Sigma, second edition. New

York: John Wiley and Sons.

[18] Box G. E. P. y Luceño A. (1997). Statistical Control by Monitoring and

Feedback Adjustment. Wiley. New York.

[19] Capilla C, Ferrer A, Romero R. y Hualda A. (1999). Integration of sta-

tistical and engineering process control in a continuous polymerization

process. Technometrics, 41, 14—28.

[20] Carot Alonso, V. (1996): Control Estadístico de Calidad. Servicio de

Publicaciones de la Universidad Politécnica de Valencia, Valencia.

[21] Castillo E. (2002). Statistical Process Adjustment for Quality Control.

Wiley. New York.

[22] Chakraborti, S., Van Der Laan, P. y Bakir, S. T. (2001) Nonparamet-

ric Control Charts: An Overview and Some Results. Journal of Quality

Technology, 33, pp. 304-315.

[23] Chandrasekaran, S. English, J. R.Disney R. L. (1995), Modeling and

analysis of EWMA control schemes with variance-adjusted control limits,

IIE Transactions 277, 282-290.

[24] Chen KS, Pearn WL. An application of non normal capability indices.

Quality and Reliability Engineering International 1997; 13: 355-360.

[25] Chou YM, Owen DB. On the distribution of the estimated process capa-

bility indices. Communications in Statistics. Theory and Methods 1989;

18: 4549- 4560.

[26] Chua M. K., Montgomery D. C., Investigation and characterization of a

control scheme for multivariate quality control. Quality and Reliability

Engineering International, 1992, 8: 37-44.

260 BIBLIOGRAFÍA

Page 269: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[27] Chung K., A Simplified Procedure for the Economic Design of Con-

trol Charts, International Journal of Production Research, Vol. 28, 1990,

pp.1239-1246.

[28] Crosier R. B. (1986), A new two-sided cumulative quality control scheme,

Technometrics 28, 187-194. xewma.arl for zero-state ARL computation

of EWMA control charts and xcusum.ad for the steady-state ARL.

[29] Crosier R. B., (1988), Multivariate Generalization of Cumulative Sum

Quality Control Schemes, Technometrics, 30, 291-303.

[30] Crowder S. V. (1987), A simple method for studying run-length distrib-

utions of exponentially weighted moving average charts, Technometrics

29, 401-407.

[31] Clements JA. Process capability indices for non normal calculations.

Quality Progress 1989; 22: 49-55.

[32] Dahlgaard, J.J. and Dahlgaard-Park, S.M. (1999). Lean production,

TQM and economic development. Proceeding of the Conference in Lean

Thinking, Stockholm, Sweden.

[33] Deming, W.E. (1986), Out of the Crisis, Massachusetts Institute of Tech-

nology, Center for Advanced Engineering Study, Cambridge, MA.

[34] Deming, W.E. (1993), The New Economics — for Industry, Government,

Education, Massachusetts Institute of Technology, Center for Advanced

Engineering Study, Cambridge, MA.

[35] Duncan A. J., The Economic Design of Charts when there is a multiplicity

of Assignable Causes, Journal of the American Statistical Association,

Vol. 66-333, 1971, pp. 107-121.

[36] Duncan A. J., Control de calidad y estadística industrial. Ed. Alfaomega.

México D.F. 1996.

[37] Duncan A. J. (1986): Quality Control and Industrial Statistics, Home-

wood, IL: Irwin.

[38] Eubank, R.L. (1988). Spline Smoothing and Nonparametric Regression.

Marcel Dekker, New York.

[39] Fuchs, C. y Kenett, R.S.(1998): Multivariate Quality Control. Marcel

Dekker, New York.

[40] George, S. (1992). The Baldrige Quality System, Wiley, New York, NY.

[41] George, M. L. (2003). Lean Sigma for service. New York: McGraw-Hill.

BIBLIOGRAFÍA 261

Page 270: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[42] Goel, A. L., Wu S. M.(1971), Determination of A.R.L. and a contour

nomogram for CUSUM charts to control normal mean, Technometrics

13, 221-230.

[43] Hoerl, R. W. (2001). Six Sigma Black Belts: what do they need to know?

Journal of Quality Technology 33 4:391—435.

[44] Hoerl, R. W., and R. D. Snee. (2002). Statistical thinking: improving

business performance. Pacific Grove, CA: Duxbury Press.

[45] Hotelling H., (1947), Multivariate Quality Control. Techniques of Statis-

tical Analysis, (Eds. C. Eisenhart, M. Hastay y W. A. Wallis, McGraw-

Hill), 111-184.

[46] Ishikawa, K. (1994): Introducción al Control de Calidad. Díaz de Santos.

[47] Huber P. Robust Statistics. John Wiley & Sons: New York, 1981.

[48] Jackson D. A., (1993), Stopping Rules in Principal Components Analysis:

A Comparison of Heuristical and Statistical Approaches. Ecology, 74, 8,

2204-2214.

[49] Jackson J. E. (1972). All Count Distributions Are Not Alike, Journal of

Quality Technology 4(2):86-92.

[50] Jackson J. E., (1985), Multivariate Quality Control, Communications in

Statistics, 14 , pp. 2657-2688.

[51] Jones, L. A. y Woodall, W. H. (1998) The Perfomance of Bootstrap

Control Charts. Journal of Quality Technology, 30, No 4, pp. 362-375.

[52] Juran, J.M. (1951). The Quality Control Handbook, 1 Ed., McGraw-

Hill, New York, NY.

[53] Juran, J. M. (1974). Jurans Quality Control Handbook, 3rd edition.

McGraw-Hill, New York.

[54] Juran, J.M. (1989). Juran on Leadership for Quality — An Executive

Handbook, The Free Press, New York, NY.

[55] Kane VE. Process capability indices. Journal of Quality Technology 1986;

18: 41-52.

[56] Kotz S, Johnson NL. Process Capability Indices. Chapman & Hall: Lon-

don, 1993.

[57] Kotz S, Johnson NL. Process capability indices-A review, 1992 — 2000

with discussion. Journal of Quality Technology 2002; 34: 2 - 53.

262 BIBLIOGRAFÍA

Page 271: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[58] Kotz S, Lovelace CR. Introduction to Process Capability Indices: Theory

and Practice. Arnold: London, 1998.

[59] Kourti T. and MacGregor J. F., (1996), Multivariate SPC methods for

process and product monitoring. Journal of Quality and Technology, 28:

409-428.

[60] Lin PC, Pearn WL. Testing process capability for one-sided specification

limit with application to the voltage level translator. Microelectronics

Reliability 2002; 42: 1975-1983.

[61] Liu R. 1995. Control Charts for Multivariate Processes. Journal of the

American Statistical Association, 90 (432): 1389-1387.

[62] Liu R, K Singh and J Tenkg. 2004. DDMA-charts: Nonparametric multi-

variate moving average control charts based on data depth. Allgemeines

Statistiches Archiv, 88: 235-258.

[63] Liu R. 1990. On a notion of data depth based on random simplices. The

Annals of Statistics, 18 :405-414.

[64] Liu R, J Parelius, K Singh, 1999. Multivariate analysis by data depth:

Descriptive statistics, graphics and inference (with discussions). The An-

nals of Statistics, 27: 783-858.

[65] Lorenzen T. y Vance L., The Economic Design of Control Charts: A

Unified Approach, Technometrics, Vol. 28, 1986, pp. 3-10.

[66] Lowry C. A., Montgomery D. C., A review of multivariate control charts.

IIE Transactions 1995, 27: 800-810.

[67] Lowry, C. A. , Woodall, W. H. , Champ, C. W. & Rigdon, S. E (1992):

A Multivariate Exponentially Weighted Moving Average Control Chart.

Technometrics, 34.

[68] Lucas, J. M. Crosier R. B. (1982), Fast initial response for cusum quality-

control schemes: Give your cusum a headstart, Technometrics 24, 199-

205.

[69] Lucas J. M.,Saccucci M. S. (1990), Exponentially weighted moving av-

erage control schemes: Properties and enhancements, Technometrics 32,

1-12.

[70] Luceño. A. (1996). A process capability index with reliable confidence

intervals. Communications in Statistics - Simulation and Computation.

25, 1, 235 — 245.

[71] Mason N. Tracy J. and Young R, (1992), Multivariate control charts for

individual observations. Journal of quality technology. 24, 2, 88-95.

BIBLIOGRAFÍA 263

Page 272: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[72] Mason R. L., Tracy N. D., Young J. C., A practical approach for interpret-

ing multivariate T2 control chart signals. Journal of Quality Technology,

1997, 29: 396-406.

[73] Mason R. L., Tracy N. D., Young J. C., Decomposition of T2 for multi-

variate control chart interpretation. Journal of Quality Technology 1995

27: 99-108.

[74] Mason R. L., Young J. C., Improving the sensitivity of the T2 statistic

in multivariate process Control. Journal of Quality Technology, 1999, 31:

155-165.

[75] Mc. Williams T. P., Economic Control Chart Designs and the In-Control

Time Distribution: A Sensitive Study, Journal of Quality Technology,

Vol. 21-2, 1989, pp. 103- 110.

[76] Mitra, A. (1998): Fundamentals of Quality Control and Improvement.

Prentice Hall.

[77] Montgomery, D. C. (2009). Introduction to Statistical Quality Control.

Sixth edition. John Wiley & Sons, Hoboken, NJ.

[78] Nelson LS (1994). A Control Chart for Parts-Per-Million Nonconforming

Items, Journal of Quality Technology 26(3):239-240.

[79] Nembhard H, Changpetch P. (2006). Detected monitoring using cuscore

charts for seasonal time series. Quality and Reliability Engineering In-

ternational. 10,766-786.

[80] Page E. S. (1954). Continuous inspection schemes. Biometrika, 41, 100-

15.

[81] Page E. S., (1955), Control Charts with Warning Limits, Biometrika, 42,

243-257.

[82] Page E. S., (1962). A modified Control Chart with warning lines, Bio-

metrika, 49, 171-176.

[83] Palmer K, Tsui K-L. A review and interpretations of process capability

indices. Annals of Operations Research 1999; 87: 31-47.

[84] Park, S.H. (2003), Six Sigma for Quality and Productivity Promotion,

Asian Productivity Organization, Tokyo.

[85] Pearn WL, Chen KS. One-sided capability indices Cpu and Cpl: Decision

making with sample information. International Journal of Quality and

Relability Management 2002; 19: 221-245.

264 BIBLIOGRAFÍA

Page 273: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[86] Pearn W, Kotz S, Johnson NL. Distributional and inferential properties

of process capability indices. Journal of Quality Technology 1992; 24:

216-231.

[87] Peña D. (1987). Estadística modelos y métodos. Modelos lineales y series

temporales. Alianza editorial. Madrid, 187-497.

[88] Pignatello J. J. JR., Y Runger G. C., (1990), Comparisons of multivariate

CUSUM charts, Journal of Quality Technology, 22, 173- 186.

[89] Plackett R.L. y Burman, J.P. (1946). The Design of Optimum Multifac-

torial Experiments", Biometrika 33 (4), 305-25.

[90] Prasad S, Bramorski T. Robust process capability indices. International

Journal of Management Science 1998; 26: 425-435.

[91] Knoth S. (2003), EWMA schemes with non-homogeneous transition ker-

nels, Sequential Analysis 22, 241-255.

[92] Knoth S. (2004), Fast initial response features for EWMA Control

Charts, forthcoming in Statistical Papers.

[93] Rhoads, T. R., Montgomery D. C., Mastrangelo C. M. (1996), Fast initial

response scheme for exponentially weighted moving average control chart,

Quality Engineering 9, 317-327.

[94] Ramsay, J. y Silverman, B. (1997). Functional Data Analysis. Springer-

Verlag, New York.

[95] Roberts S., (1959), Control Chart Tests Based on Geometric Moving

Averages. Technometrics 1, 239-250.

[96] Runger G. C., Alt F. B., Montgomery D. C., Contributors to a mul-

tivariate SPC chart signal. Communications in Statistics - Theory and

Methods, 1996, 25: 2203-2213.

[97] Ryan T. P., (2000). Statistical Methods for Quality Improvement; John

Wiley: New York.

[98] Seber G. A. F., (1984), Multivariate Observations, John Wiley & sons,

Eds., New York.

[99] Shewhart W. A., (1931). Economic Control of Quality of Manufactured

Products, New York, D. Van Nostrand Co., Inc.

[100] Shewhart, W. A. (1939): Statistical Methods from the Viewpoint of Qual-

ity Control. Graduate School of the Department of Agriculture, Wash-

ington, D.C.

BIBLIOGRAFÍA 265

Page 274: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[101] Shewhart W.A., (1941), Contribution of Statistic to the Science of En-

gineering. Fluid Mechanics and Statistical Methods in Engineering. Uni-

versity of Pennsylvania Press, Philadelphia, PA, pp. 97-124.

[102] Shewhart W.A., (1986): Statistical Methods from the Viewpoint of Qual-

ity Control. (Reprint). Dover Publications, New York.

[103] Shewhart, Walter A. Economic control of quality of manufactured prod-

uct. New York: D. Van Nostrand Company. pp. 501

[104] Sparks R. S., Adolphson A., Phatak A., Multivariate process monitoring

using the dynamic biplot. International Statistical Review, 1997, 65: 325-

349.

[105] Steiner S. H. (1999), EWMA control charts with time-varying control

limits and fast initial response, Journal of Quality Technology 31, 75-86.

[106] Taguchi G., Introduction to Quality Engineering-Designing Quality into

Products and Processes, 1986, Kraus International, Asian Productivity

Organisation, Japan.

[107] Timm N. H., Multivariate quality control using finite intersection tests.

Journal of Quality Technology, 1996, 28: 233-243.

[108] Tracy N. D., Young J. C. Y Mason R. L. (1992), Multivariate Control

Charts for Individual Observations, Journal of Quality Technology, 24,

88-95.

[109] Vermat, M. B., Ion, R., Does, R.J. y Klaassen, C. (2003) A Comparison

of Shewhart Individuals Control Chart Based on Normal, Non-Normal,

and Extreme Value Theory. Quality and Reliability Engineering Interna-

tional, 19, pp. 337-353.

[110] Chatfield, C., Collins, A. J. (1980). Introduction to multivariateanalysis. Chapman & Hall.

[111] Cuadras, C.M. (1991). Métodos de Análisis Multivariante. EditorialPPU.

[112] Drapper, N. y Smith, H. (1998). Applied Regression Analysis.Wiley.

[113] Fan, J. y Gijbels, I. (1996). Local Polynomial Modelling and its Ap-plications. Chapman and Hall, London.

[114] Goldstein M. y Dillon, W. R. (1984). Multivariate Analysis: Meth-ods and Applications. Wiley.

[115] Jambu, M. (1991). Exploratory and Multivariate Data Analysis. BostonAcademic Press.

266 BIBLIOGRAFÍA

Page 275: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[116] Jobson, J.D. (1992). Applied Multivariate Data Analysis. Springer-Verlag.

[117] John Verzani (2005). Using R for Introductory Statistics. Chapman &Hall.

[118] Mardia, K.V., Kent, J.T. y Bibby, J.M. (1994).Multivariate Analy-sis. Academic Press.

[119] Muirhead, R. J. (1982). Aspects of multivariate statistical theory. JohnWiley & Sons.

[120] Peña Sánchez de Rivera, D. (2002). Regresión y Diseño de Exper-imentos. Alianza Editorial.

[121] Rencher, A.C. (1998). Multivariate Statistical Inference and Applica-tions. Wiley.

[122] Silverman, B. W. (1985) Some aspects of the spline smoothing ap-proach to non-parametric curve fitting. Journal of the Royal Statistical

Society series B 47, 1—52.

[123] Venables, W. N. and Ripley, B. D. (1999)Modern Applied Statisticswith S-PLUS. Third Edition. Springer.

[124] Vilar Fernández, J.M. (2003). Modelos Estadísticos Aplicados. Pu-blicaciones de la UDC.

[125] Somerville, S. E. &Montgomery, D. C. (1996). Process Capability Indices

and Nonnormal Distributions. Quality Engineering, 9, 305-316.

[126] Shore H. A new approach to analysing non-normal quality data with

applications to process capability analysis. International Journal of Pro-

duction Research 1998; 36: 1917-1933.

[127] Tang LC, Than SE. Computing process capability indices for non normal

data: A review and comparative study. Quality and Reliability Engineer-

ing International 1999; 15: 339-353.

[128] US Military Handbook 217F, Reliability Prediction of Electronic Equip-

ment. USA, 1991.

[129] Vännman, K. (1995). A Unified Approach to Capability Indices. Statis-

tica Sinica, 5, 805-820.

[130] Vännman, K. (1998). Families of Capability Indices for One-sided Spec-

ification. Limits. Statistics, 31, 43-66.

BIBLIOGRAFÍA 267

Page 276: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[131] Vännman, K. (2001). A Graphical Method to Control Process Capability.

Frontiers in Statistical Quality Control, No 6, Editors: Lenz, H.-J. &

Wilrich, P.-TH. Physica-Verlag, Heidelberg, 290-311.

[132] Wasterhuis J. A., Gurden S. P, Smilde A. K., (2000), Generalized contri-

bution plots in multivariate statistical process monitoring. Chemometrics

and Intelligent Laboratory Systems, 51: 95-114.

[133] WESTERN ELECTRIC, (1956), Statistical Quality Control Handbook,

Select Code 700-444. Western Electric Corporation, Indianapolis, IN.

[134] Wierda S. J., Multivariate statistical process control-recent results and

directions for future research. Statistica Neerlandica, 1994, 48: 147-168.

[135] Woodall WH, Ncube MM. Multivariate CUSUM quality control proce-

dures. Technometrics, 1985, 27:285-292.

[136] Woodall, W.H. (1985). The statistical design of quality control charts.

The Statistician, 34. pp. 155-160.

[137] Waldmann K. H. (1986), Bounds for the distribution of the run length of

one-sided and two-sided CUSUM quality control schemes, Technometrics

28, 61-67.

[138] Voehl, F. (2000). Six sigma: a breakthrough strategy for results. The

STANDARD, Vol. 2000-1, The Newsletter of the Measurement Quality

Division, American Society for Quality.

[139] Welch, J. F. (2001). Jack: straight from the gut. New York: Warner Busi-

ness Books.

[140] Willeman, T. R. y Runger, G. C. (1996) Designing Control Charts Using

an Empirical Reference Distribution. Journal of Quality Technology, 28,

pp. 31-38.

[141] Womack, J.P. and Jones, D.T. (1996). Lean Thinking — Banish Waste

and Create Wealth in your Corporation, Simon & Schuster, London.

[142] Womack, J.P., Jones, D.T. and Roos, D. (1990). The Machine that

Changed the World, Maxwell Macmillan International, New York, NY.

[143] Woodall, W.H. (1985). The statistical design of quality control charts.

The Statistician, 34. pp. 155-160.

[144] Wu, H.-H. & Swain, J. J. (2001). A Monte Carlo Comparison of Capa-

bility Indices when Processes are Non-normally Distributed. Quality and

Reliability Engineering International, 17, 219-231.

[145] Zink, K. (1997), Succesful TQM — Inside Stories European Quality Award

Winners, Gower Publishing, London.

268 BIBLIOGRAFÍA

Page 277: Apuntes sobre Control de la Calidad y Fiabilidadeio.usc.es/eipc1/base/BASEMASTER/FORMULARIOS-PHP/... · 2014-02-12 · que nunca, si cabe, hablar de control estadístico de la calidad

[146] Zink, K. (1998), Total Quality Management as a Holistic Management

Concept. The European Model for Business Excellence, Springer, Ham-

burg.

BIBLIOGRAFÍA 269