Control Estadistico
description
Transcript of Control Estadistico
L3
4.1.2 CONTROL ESTADÍSTICO DE LA CALIDAD.
4.1.2.1 Definición de control de calidad
Existe mucha literatura en cuanto al concepto de control de calidad. En este
capitulo, cuya finalidad no es la profundización teórica sin no una revisión de las
definiciones más usadas y sencillas del control de calidad. Se trata concretamente
de las definiciones de K. Ishikawa, de las normas JIS japonesas sobre
terminología de la calidad y de J. M. Juran.
Según K. Ishikawa, el control de calidad consiste en el desarrollo, diseño,
producción y comercialización de productos y servicios con una eficiencia del
coste y una utilidad óptima, todo ello equilibrado con una compra satisfactoria por
parte de los clientes. Para alcanzar estos fines, toda las partes de una empresa
(alta dirección, oficina central, fabrica y departamentos individuales tales como
producción, diseño técnico, investigación, planificación, investigación de mercado,
administración, contabilidad, materiales, almacenes, ventas, servicio, personal,
formación, relaciones laborales y asuntos generales) tiene que trabajar juntos.
Todos los departamentos de la empresa tienen que empeñarse en crear sistemas
que faciliten la cooperación y en preparar y poner en práctica fielmente las normas
internas. Por esta razón, al control de calidad visto desde esta óptica se le
denomina control de calidad total o control de calidad para toda la empresa.
Esto sólo puede alcanzarse por medio del uso masivo de diversas técnicas tales
como los métodos estadísticos, las normas y reglamentos, los métodos
computarizados, el control automático, el control de instalaciones, la investigación
operativa, la ingeniería industrial y la investigación de mercado.
Por otro lado, según las Normas Industriales Japonesas (normas JIS), el
control de calidad se define como un sistema de métodos para la provisión coste
eficaz de bienes o servicios cuya calidad es adecuada a los requisitos del
comprador. También esta definición contempla el control de calidad como una
nueva manera de pensar en la dirección y de dirigir, y considera que la puesta en
práctica eficaz del control de calidad requiere de la participación y la cooperación
de todos los empleados de una empresa, desde la alta dirección, pasando por los
directivos medios y los supervisores, hasta los trabajadores de base. Esta
participación ha de reflejarse en todas las actividades de la empresa como la
investigación de mercado, investigación y desarrollo, planificación de productos,
diseño, preparación de la producción, compras y subcontratos, producción,
inspección, ventas y servicios pos venta, funciones financieras, de personal, de
formación y de educación. También la norma JIS contempla que el control de
calidad moderno ha de hacer uso de los métodos estadísticos, por lo que a
veces se le denomina control estadístico de la calidad.
En cuanto a literatura existe también mucha información. Entre los autores
más prestigiados tenemos a Juran, que definió la calidad como un conjunto de
características de un producto o servicio que satisface las necesidades de los
clientes y que en consecuencia hacen satisfactorio el producto o servicio. Por lo
tanto puede decirse que la calidad consiste en no tener deficiencias.
Por otra parte, La Sociedad Americana para el Control de Calidad
(A.S.Q.C.) define la calidad como el conjunto de características de un producto,
proceso o servicio que le confieren su aptitud para satisfacer las necesidades del
usuario o cliente en cuanto a seguridad (que el producto o servicio confiere al
cliente), fiabilidad (capacidad que tiene el producto o servicio para cumplir las
funciones especificas sin falló y por un período determinado de tiempo) y servicio
(medida en que el fabricante y distribuidor responde en caso de fallo del producto
o servicio).
Sólo obtendremos productos o servicios de calidad cuando se cumplan
totalmente los siguientes tres conceptos. Características de calidad o propiedad
de un producto o servicio que contribuye a su adecuación al uso (rendimiento,
sabor, fiabilidad, apariencia, cortesía, amabilidad, etc). Calidad de diseño o
adecuación de las características de calidad para la generalidad de usuarios y
Calidad de conformidad o calidad de fabricación que indica la fidelidad con que
un producto se ajusta a lo establecido en su diseño (proyecto)
A partir del momento en que se hace necesario el uso de especificaciones del
producto o servicio, el concepto de calidad genera otra serie de definiciones que
se describen en los siguientes aparatados.
4.1.2.2 Política de calidad
En numerosas ocasiones, los esfuerzos invertidos en mejorar la calidad se
han visto frustrados, precisamente, por una falta de convencimiento y por un tibio
apoyo de la alta dirección en la realización de las necesarias acciones
conducentes a la implementación de un eficaz sistema de calidad. La UNE – 66-
001-92 establece que, Política de Calidad son las directrices y objetivos de una
empresa, relativos a la calidad, expresados formalmente por la dirección general,
por lo tanto, de la misma forma que la empresa define su política de personal,
financiera o de producción, debe definir su política de calidad, redactada y
publicada. De esta manera la dirección general adquiere el compromiso de su
cumplimiento e involucra a todo el personal de la empresa.
4.1.2.3 Sistema de Calidad
Es condición necesaria, aunque no suficiente, que la dirección general
defina la política de calidad de la empresa. Deberá, además, realizar las acciones
y facilitar los recursos necesarios para que, mediante la gestión de la calidad, sea
posible alcanzar los objetivos marcados en la política de calidad mediante el
Sistema de Calidad que se define como el conjunto de actividades para
establecer una estructura de organización, de responsabilidades, de
procedimientos, de proceso y de recursos que se establecen para llevar a cabo la
gestión de la calidad.
4.1.2.4 Gestión de la Calidad
Se ocupa de la fijación de los objetivos de la calidad, de la organización de
los medios materiales y humanos, de la formación y la motivación del personal, de
la supervisión, auditorias y aseguramiento de la calidad. Lo que nos lleva a la
Gestión de la Calidad Total (Total Quality Management, TQM) cuyo objetivo
consiste en obtener un elevado y permanente nivel de competitividad de la
empresa sobre la base de adquirir un compromiso total de la gerencia y de todos
los demás empleados en la obtención de una total satisfacción del cliente
mediante una mejora continua de la calidad.
4.1.2.5 Aseguramiento de la calidad
Uno de los objetivos más importantes que se persiguen con la gestión de la
calidad total (TQM) consiste en suministrar confianza a nuestros clientes, tanto
internos como externos, motivando a unos y manteniendo como tales a los otros.
La UNE – 66-001-92, define el Aseguramiento de la Calidad como el conjunto
de acciones planificadas y sistemáticas que son necesarias para proporcional
confianza adecuada de que un producto o servicio satisfará los requisitos dados
sobre la calidad.
4.1.2.6 Mejora Continua de la Calidad
No sólo son los resultados sino, además, nuestra política, nuestro sistema
de calidad lo que suministrará a nuestros clientes la deseada confianza en
nuestros productos y servicios, pero no es suficiente conseguir una alta calidad, es
necesario también, desarrollar una Cultura de Calidad en nuestra empresa que
nos permita lograr una, por que esta no es un objetivo estático que una vez
alcanzado basta con mantenerlo, se trata de una Mejora Continua de la Calidad
estrategia a largo plazo que nos permita obtener de forma sostenida una
ventaja competitiva.
“ La calidad es un viaje no un destino” (Thomas H. Berry, citado por
Carolo)
4.2 Metodología estadística
En todos los procesos existe variación, la reducción de esta variación
conduce a una mejor calidad, por lo tanto a una mejor productividad y como
consecuencia una mayor rentabilidad de la empresa, este principio es el
fundamento para comprender e implementar el control estadístico de la calidad.
4.2.1 Estadística
Iniciaremos el estudio de la metodología estadística, definido la estadística
como la ciencia que se preocupa de la “recolección, organización, análisis,
interpretación y presentación de datos”.
La metodología estadística comprende una serie de técnicas estadísticas el
primer componente importante es la estadística descriptiva, la cual se encarga
de las técnicas de recolección, organización y descripción eficiente de los datos,
aquí las herramientas del control de calidad que se utilizan son hojas de
verificación, hojas de estratificación, histogramas de frecuencias y
diagrama de causa efecto. Las medidas de tendencia central (media, mediana y
moda) y las medidas de dispersión (rango, desviación estándar y coeficiente de
variación) dan importante información cuantitativa sobre la naturaleza de los datos,
útil para identificar problemas de calidad y es un medio para medir la mejora.
Un segundo componente es la inferencia estadística, proceso de extraer
conclusiones respecto a características desconocidas de una población, a partir de
la cual se han recolectado datos. Las técnicas que se utilizan son la prueba de
hipótesis, el diseño experimental y las herramientas de control de calidad que nos
pueden ayudar en este punto son el Diagrama de Pareto y los Gráficos de
Control.
El tercer componente en la metodología estadística es la estadística
predictiva, cuyo propósito es establecer posibles valores, con base en datos
históricos, el diagrama de dispersión (análisis de regresión , el de
correlación) y los gráficos de control son las herramientas de control de calidad
útiles, Frecuentemente, estas técnica pueden aclarar las características de un
proceso, así como establecer resultados futuros.
4.2.2. Variabilidad
Las técnicas estadísticas en el aseguramiento de la calidad han tenido una larga
historia. En 1924, Walter A. Shewhart, de Bell Telephone Laboratories, desarrolló
el concepto estadístico de los diagramas de control considerándose el inicio del
Control Estadístico de Calidad cuyo principal objetivo es la reducción sistemática
de la variabilidad en las características de calidad claves del proceso, producto y
/ o servicio (Montgomery, 1991).
Para definir la variabilidad partamos del principio “dos piezas de un mismo
producto fabricados bajo las mismas condiciones no son idénticas” a
Figura ¿?
La figura ¿? esquematiza el significado de la variación, si una característica
de calidad le asignamos un valor (estándar o normalizado) y al obtener el valor
real calculamos la diferencia entre estos dos valores encontraremos la magnitud
de la variación. Para decir si esta diferencia es importante desde el punto de vista
calidad y / o afecta la productividad se debe utilizar la metodología estadística.
4.2.3 Variable y distribución de probabilidad
Para realizar estudios sobre la calidad de cualquier proceso y / o servicio debemos
hacerlo en termino de características de calidad y de los factores que influyen
sobre de ellas, primero estudiaremos unos conceptos claves.
En control de calidad el término variable se designa a cualquier
características de calidad que puede medirse (longitud, voltaje, peso, volumen,
etc.), y se denomina atributo a las características de calidad que no se pueden
medir y solo se aplica el criterio pasa - no pasa b.
El conjunto colectivo de resultados de un evento constituyen un espacio de
muestra o un espacio muestral. Matemáticamente, al asignar valores numéricos
a todo resultado posible en un espacio muestral, se conoce como variable
aleatoria, la cual puede ser: a) Variable aleatoria discreta, cuando los valores
Característica de calidad
valor
Establecido como verdadero (estándar o
norma)
Realvalor
La diferencia VARIACIÓN
específicos que puede asumir son finitos y contables, un ejemplo podría ser el
número de defectos observados en una muestra. b) Variable aleatoria continua,
puede tomar cualquier valor real, a lo largo de un intervalo especificado de
números reales y requieren de un instrumento de medición y su precisión y
exactitud queda limitada al instrumento utilizado, un ejemplo, la densidad de una
sustancia.
Si podemos establecer que factores afectan a nuestras variables y
representarlos por una ecuación matemática estamos hablando de la
distribución de probabilidad, la cual nos dirá que posibilidades se tienen de que
al medir nuestra variable nos de un valor determinado.
La mayoría de los procesos (clínicos, agrícolas, metalúrgicos, de
alimentos, , etc) se estudian en base a las probabilidades de que ocurran por lo
que matemáticamente se les denominan no determinísticos, probabilísticos o
estocásticos.
4.3 Herramientas del control de la calidad
4.3.1 Herramientas estadísticas.
Recordemos que uno de los principios básicos del Control Total de Calidad
es “Tomar decisiones con base en hechos y datos”, como una forma para
evitar juicios equivocados. Esta forma de actuar, representa un enfoque científico
en la administración, cuyo instrumento fundamental es la estadística, la cual nos
enseña a inferir, a partir de unos cuantos datos.
Estadística: es la ciencia que se ocupa de recopilar, organizar, representar
y analizar un conjunto de datos, con el fin de inferir y generalizar la información
contenida en ellos.
En cualquier empresa se recogen muchos datos, cuyo análisis ordenado a
través de técnicas estadísticas nos permite estudiar y comprender la forma como
se esa trabajando y tomar decisiones para mejorar. Frecuentemente utilizamos
nuestra experiencia, nuestra intuición, o conceptos abstractos para tomar
decisiones (actuamos por instinto), pero no siempre resulta lo más adecuado. Por
lo tanto, es necesario que en nuestra rutina de trabajo incorporemos el uso de
datos, de tal manera que nos permita cierto grado de confiabilidad en nuestro
trabajo.
En este punto nos encontramos con las incógnitas ¿existen datos?, ¿para
qué recolectar?, ¿qué datos son los adecuados?. Estas preguntas solo se les
puede dar respuesta al definir los objetivos y propósitos que uno desea
alcanzar.
Como ejemplo de objetivos:
1. Investigar desviaciones respecto a un valor esperado o promedio.
2. Investigar cambios a través del tiempo.
3. Investigar el tipo, frecuencia de los defectos y fallas.
4. Investigar las causas de los defectos o errores.
Como ejemplo de propósitos:
1. Establecer la situación real de nuestro trabajo
2. Hacer ajustes para mejorarlo.
3. Controlar los procedimientos (métodos analíticos y administrativos).
4. Comprobar la calidad de los materiales y reactivos utilizados.
5. Mantener la precisión y exactitud en nuestras determinaciones.
6. Evaluar la efectividad de las medidas correctivas y preventivas
Cualquiera que sea el objetivo y propósito que se desean alcanzar, se aconsejan las
siguientes recomendaciones para trabajar con datos.
1. Definir el propósito de los datos y tener claro el objetivo sobre el cual se
actuará.
2. Conocer la historia de los datos:
¿Qué datos se recopilaron?
¿Cuál es el tipo de datos (medibles o contables)?
¿Por qué se recolectaron?
¿Cuándo se recolectaron?
¿Dónde se recolectaron?
¿Cómo y conque métodos se recopilan?
¿Quién los recopilo?
3. Recopilar datos que relacionan la calidad (resultados) con los factores que
influyen en ella.
4. Recopilar datos de una forma objetiva e imparcial.
5. Aplicar la herramienta estadística del control de calidad más adecuada.
Hoja de verificación
Estratificación
Diagrama de causa – efecto
Diagrama de Pareto
Histograma
Diagrama de dispersión
Gráficos de control
4.3.1.1 Histograma
En ocasiones se tiene un gran volumen de información que se desea
organizar de manera gráfica para observar la forma como se distribuyen los datos
según su frecuencia de ocurrencia y tomar decisiones con base en ello.
La herramienta indicada en estos casos es el histograma. Para trabajar
con el histograma, es necesario conocer primero cómo se organizan los datos, y
para este fin se construyen las tablas llamadas "distribuciones de frecuencia”
El histograma requiere que los datos en que se apoya sean del tipo
"variables continuas", es decir, aquellas que provienen de procesos de
medición. En caso de que los datos no sean de esta clase, y correspondan más
bien al tipo de "variable por atributos" o conteo, se recomienda utilizar la gráfica
de barras. Cada atributo será el equivalente de cada clase, pero no será
necesaria la contigüidad de las barras, y en algunos casos, no existirá una escala
numérica (con valores crecientes de la variable), ni un orden especificado. En
consecuencia, la lectura de la gráfica de barras debe efectuarse con cuidado, en
forma diferente a la que se efectúa del histograma.
Elaboración de la tabla de frecuencias
1. Obtenga el rango de los datos.
El rango es la diferencia que existe entre el dato mayor (X M) y el menor (X
m) de un conjunto de datos: R = XM – X m, e indica qué distancia cubren los datos si
se ordenan en una recta numérica.
2. Determine el número de clases
Para saber en cuántas clases conviene agrupar los datos, se acostumbra
tener como guía la siguiente tabla
Tabla 2. Guía para establecer el numero de clases
Datos o Valores de N No. De Clases o celdas (k)
Menos de 50 5 a 7
50 a 100 6 a 10
100 a 250 7 a 12
Más de 250 10 a 20
3. Determine la amplitud de cada clase.
Esto se lleva a cabo dividiendo el rango de los datos (R), aumentado en
una unidad de medición (U), entre el número establecido de clases: A = (R + U)/K.
Nota (1): Cuando se trabaja con números enteros, la unidad (U equivale a 1. Si es
con fraccionarios, la unidad es de la misma clase que la de las unidades
fraccionarlas que se maneja. Así, si se trabaja con décimas, la unidad es una
décima (0. l); si son centésimas, será una centésimas (0.01), etc.
Nota (2): Cuando se manejan datos enteros y el resultado del cálculo de la
amplitud incluye cifras decimales, éstas se suprimen, y el resultado se redondea
elevándolo en una unidad. Cuando se manejan datos que incluyen una decimal y
el resultado incluye dos o más cifras decimales, esta cantidad se redondea en una
única cifra decimal, inmediata superior a la primera decimal expresada en el
resultado; y así sucesivamente.
4. Establezca los valores límite de cada clase.
Estos son llamados las fronteras inferior (FI) y superior (FS) de cada una.
La frontera inferior de la primera clase se establece restando la mitad de una
unidad (U) al dato menor de todo el conjunto. La frontera superior se obtiene
sumando la amplitud (A) a la frontera inferior. Para las siguientes clases, se
copia la frontera superior de la clase anterior como frontera inferior y se repite el
proceso de sumar la amplitud para obtener la frontera superior de esta clase
5. Calcule el punto medio de cada clase. Este valor se denomina marca de clase;
se denota por Xi, y es la semisuma de las fronteras de la clase: X, = (FIi, + FSi)/2
6. Calcule las frecuencias absolutas
Cuente el número de datos que caen dentro de cada una de las clases;
estas cantidades se llaman frecuencias relativas, y se denotan con el símbolo fr,
La frecuencia absoluta (fa) para la primera clase es igual a su fr, la frecuencia
absoluta de la segunda clase es la suma de su fr con fr de la primera y así
sucesivamente.
7. Elabore la tabla de frecuencias
8. Grafique e interprete los resultados (este paso nos lleva a la elaboración del
histograma).
El histograma es una gráfica que resulta de la tabla de frecuencias de los
datos: está integrada por un conjunto de barras que representan los intervalos o
clases, ubicadas en un sistema de coordenadas.
Figura 7. Histograma
La línea vertical indica la cantidad de datos que contiene cada clase o
categoría. Por consiguiente, se gradúa teniendo en cuenta la frecuencia máxima
generalmente, incluye el cero como valor mínimo. En la línea horizontal se
disponen las fronteras o limites de todas las clases, correspondientes a la variable
bajo estudio. Las barras corresponden a cada clase, y su altura es proporcional al
valor de la frecuencia absoluta de la misma.
Después de construido el histograma, podemos responder en una forma
inmediata a las siguientes preguntas:
1) ¿Cuál es la forma de la distribución de los datos?
2) ¿Cuál es la relación con las especificaciones, los estándares o
metas propuestas? (ver anexo I)
3) ¿Es necesario un cambio en el proceso / servicio?
Debe mencionarse que si bien el histograma es útil al analizar un conjunto
de datos, su uso tiene algunas limitaciones:
a) El histograma muestra una condición a posterior¡ del proceso, es
decir, no involucra el paso del tiempo, la herramienta estadística que
se encarga de esto es la gráfica de control.
b) El número de datos que se necesita es relativamente grande. La
cantidad de datos depende de la situación particular, pero cantidades
típicas son 50, 100 ó más.
c) Es imposible distinguir entre las dos clases de variación (causas
comunes o causas especiales) presentes en todo proceso.
d) Por último, el histograma resulta incapaz de mostrar si el proceso
exhibe inestabilidad estadística (ver Gráficos de Control).
e) Es conveniente marcar los límites de especificación o de estándares en
el histograma, pues así resulta fácil reconocer la existencia de
problemas en el comportamiento de la variable en cuestión, o si se
comparan dos histogramas del mismo proceso, ver si hay cambios
(antes versus después) favorable - o desfavorable - en el mismo.
4.3.1.2 Diagrama de Pareto
El diagrama de Pareto es la herramienta que va a permitir identificar los
problemas reales de mayor importancia, que deben ser enfrentados
inmediatamente. Es una gráfica que representa en forma ordenada el grado de
importancia que tienen los diferentes factores en un determinado problema,
tomando en consideración la frecuencia con que ocurre cada uno de dichos
factores.
El nombre de este diagrama es en honor a Vilfredo Pareto, un economista
italiano que introdujo el concepto de los "pocos vitales" contra los "muchos
triviales". Los primeros se refieren a aquellos pocos factores que representan la
parte más grande o el porcentaje más alto de un total, mientras que los segundos
son aquellos numerosos factores que representan la pequeña parte restante. Esta
herramienta fue popularizada por Joseph Juran y Alan Lakelin; éste último formuló
la "regla 80-20" con base en los estudios y principios de Pareto.
Aproximadamente, el 80% de un valor o de un costo se debe al 20 % de los
elementos de éste.
a) El 80 % del volumen de ventas de una empresa se realizan a través
del 20% de sus productos.
b) El 80 % del total de tiempo de trabajo se consume con el 20% de las
actividades diarias.
c) El 80 % del valor de un inventario de artículos se debe al 200/o de
estos artículos.
d) El 80 % del total de defectos encontrados en un producto se debe al
20 % de los tipos de causas identificados.
El objetivo del diagrama de Pareto es identificar los "pocos vitales", o sea,
ese 20%, de tal manera que la acción correctiva se aplique donde produzca un
mayor beneficio, al organizar los factores por orden de importancia, facilita una
correcta toma de decisiones.
Aplicaciones del diagrama de Pareto
1. Canaliza los esfuerzos hacia los "pocos vitales".
2. Es el primer paso para la realización de mejoras, pues se aplica en todas
las situaciones en donde se pretende efectuar una mejora, en cualquiera de
los componentes de la Calidad Total.
3. Permite la comparación antes / después, ayudando a cuantificar el impacto
de las acciones emprendidas para lograr mejoras.
4. Se utiliza también para expresar los costos que implica cada tipo de defecto
y los ahorros logrados mediante el efecto correctivo llevado a cabo a través
de determinadas acciones.
El diagrama de Pareto se asemeja a un diagrama de barras, y su
construcción comprende los siguientes pasos:
1. Identifique el problema o área de mejora en la que se va a trabajar.
2. Elabore una lista de los factores que pueden estar principales causas que
pueden estar incidiendo en el problema.
3. Establezca el período de tiempo dentro del cual se recolectaran los datos
(días, semanas, meces, etc.)
4. Diseñe una hoja de verificación para la frecuencia con que ocurre cada
factor, dentro del período fijado, especificando el número total de casos
verificados.
5. Con base en los datos de la hoja de verificación, ordene los distintos
factores conforme su frecuencia, comenzando con el dato que se repite
más. Recuerde que el número de todas las frecuencias debe ser igual al
número de casos u observaciones hechas.
6. Obtenga el porcentaje relativo de cada causa o factor, con respecto al total.
7. Calcule el porcentaje acumulado, sumando en forma consecutiva los
porcentajes en que se presenta el problema.
8. Construya el diagrama de Pareto.
En ocasiones, se acostumbra realizar dos o más diagramas de Pareto para
darle seguimiento a un mismo proyecto a lo largo del tiempo. De esta manera es
posible realizar comparaciones y se puede llegar a una correcta toma de
decisiones, para esto son Importantes las siguientes recomendaciones:
a) Maneje la misma escala en los ejes verticales izquierdos de ambos
diagramas.
b) Seleccione una unidad de tiempo conveniente, tal como una semana,
un trimestre, etc., que sea la misma para los dos diagramas.
Figura 10.
4.3.1.3 Diagrama de dispersión
Con el propósito de controlar mejor el proceso y por consiguiente, de mejorarlo,
resulta a veces indispensable conocer la forma como se comportan algunas variables o
características de calidad entre sí, esto es, descubrir si el comportamiento de unas depende
del comportamiento de otras, o no, y en qué grado.
Los métodos gráficos tales como el histograma o las gráficas de control
tienen como base un conjunto de datos correspondientes a una sola variable (la
característica de calidad de interés), es decir, son datos univariados. El
diagrama de dispersión es una herramienta utilizada con frecuencia cuando se
desea realizar un análisis gráfico de datos bivariados, es decir, los que se
refieren a dos conjuntos de datos. El resultado del análisis puede mostrar que
existe una relación entre una variable y la otra, y el estudio puede ampliarse para
incluir una medida cuantitativa de tal relación. Los dos conjuntos pueden referirse
a lo siguiente:
Una característica de calidad y un factor que incide sobre ella
Dos características de calidad relacionadas, o bien
Dos factores relacionados con una sola característica.
Básicamente, el diagrama de dispersión ofrece los siguientes usos
1. Indica si dos variables (factores o bien características de calidad) están
relacionados.
2. Proporciona la posibilidad de reconocer fácilmente relaciones causa /
efecto.
El proceso de elaboración del diagrama de dispersión contiene los
siguientes pasos:
1. Recolectar n parejas de datos de la forma (Xi, Yi,), con i = 1, 2, ... -, n,
donde Xi, y Yi, representan los valores respectivos de las dos
variables. (los datos se suelen presentar en una tabla).
2. Diseñar las escalas apropiadas para los dos ejes, X y Y.
3. Graficar las parejas de datos. Si hay puntos repetidos, se mostrarán
como círculos concéntricos (o)
4. Documentar el diagrama, incluyendo lo siguiente: fecha, nombre del
departamento, personal involucrado, etc.
Figura 11. Diagrama de Dispersión
Aclaraciones:
1) Si los datos corresponden a un factor y una característica, se acostumbra
colocar el factor en el eje horizontal (X), siendo indistinto el orden para los otros
casos (característica / característica o factor / factor).
2) Algunos autores han señalado que se obtiene una mejor lectura del diagrama
si se disponen las escalas por rangos, es decir, los ejes cubriendo sólo los rangos
de valores de la tabla, y por tanto sin cruzarse.
La lectura del diagrama de dispersión se hace en función al tipo de relación
entre los datos, lo fuerte o débil de la relación, la forma de la relación y la posible
presencia de puntos anómalos (Ver anexo 2)
La relación entre los datos se denomina "correlación positiva" cuando
aumenta el valor de la variable X le acompaña un aumento en la otra variable: el
caso inverso da lugar a la llamada "correlación negativa”
Otros patrones generales que se pueden encontrar al graficar los datos son
los siguientes: el de la izquierda indica una posible correlación positiva,
mientras que en el de la derecha no se percibe relación alguna entre los datos, es
decir, no hay correlación.
El patrón de puntos puede asumir diversas formas, dependiendo de la
relación que existe entre las variables, si el patrón de puntos asume la forma
(quizá aproximada) de una línea recta, se dice que existe correlación lineal entre
las variables.
En ocasiones, algunos datos dan lugar a puntos anómalos, que se
presentan separados del patrón de puntos. El usuario debe dejar fuera del
análisis esos puntos, que quizá son debidos a lecturas equivocadas o a algún
cambio en las condiciones del proceso, etc.., pero se ganará conocimiento de este
último al estudiar las causas por las que se presentaron los puntos.
Un inconveniente del diagrama de dispersión es que no dice nada de por
qué existe la correlación, de modo que es imprescindible examinar la
“aparente” relación entre las variables desde el punto de vista científico o
técnico.
El uso del diagrama de dispersión debe completarse con las técnicas de
regresión y correlación, que involucran, respectivamente, la determinación de un
modelo matemático de la relación entre los dos conjuntos de datos y una medida
cuantitativa de su grado de relación.
El coeficiente de correlación lineal
El valor de un coeficiente (r), llamado coeficiente de correlación lineal
de Pearson, proporciona una medida del grado de relación entre dos variables, y
se calcula mediante la expresión:
(ec. 1) donde
(ec. 2)
(ec. 3)
(ec. 4)
Interpretación del coeficiente de regresión
El valor del coeficiente de correlación satisface la siguiente relación:
1. Si r = +1 ó r = -1 se tiene entonces una correlación perfecta, lo cual
significa que todos los puntos caen sobre una línea recta.
2. Un valor nulo de r , o sea r = 0, indicará la ausencia de relación entre las
variables; entre más cercano esté el valor absoluto de r a la unidad mayor
será el grado de correlación.
3. El diagrama de dispersión debe acompañarse del cálculo del coeficiente de
correlación, sirviendo éste último para verificar el grado de relación entre las
variables, que el usuario percibe de modo cualitativo en la gráfica.
Tabla 3. Valores de “r” y su interpretación
COEFICIENTE RELACIONDE CORRFLACION
0.8 < r < 1 Fuerte, positiva0.3 < r < O.8 Débil, positiva
-0.3 < r < 0.3 No existe relación-0.8 < r < -0.3 Débil, negativa-1.0 < r < -0.8 Fuerte, negativa
4.3.1.4 Gráficos de control
La gráfica de control es un diagrama que sirve para examinar si un
proceso se encuentra en una condición estable, o para asegurar que se
mantenga en esta condición. En estadística, se dice que un proceso es estable
(o está en control) cuando las únicas causas de variación presentes son las de
tipo aleatorio. En esta condición, se pueden realizar ingerencias con respecto a
la salida del proceso, esto es, a la característica de calidad que se esté midiendo.
En cambio, la presencia de causas asignables hace que el proceso se
desestabilice, impidiendo la predicción de su comportamiento futuro.
La estructura de las gráficas contiene una "línea central" (LC), una línea
superior que marca el "límite superior de control " (LSC), y una línea inferior que
marca el "límite inferior de control" (LIC). Los puntos contienen información
sobre las lecturas hechas, pueden ser promedios de grupos de lecturas, o sus
rangos, o bien las lecturas individuales mismas. Los límites de control marcan el
intervalo de confianza en el cual se espera que caigan los puntos.
Aunque existen diversos tipos de gráficas de control, todas presentan una
estructura similar, como se muestra en la siguiente figura.
Figura 12. Gráfico de Control
Las lecturas se hacen a partir de muestras por periodo, y los intervalos de
tiempo son generalmente iguales, por ejemplo, por media hora, por hora, por día,
etc.
1. Sirve para determinar el estado de control de un proceso.
2. Diagnostica el comportamiento de un proceso en el tiempo.
3. Indica si un proceso ha mejorado o empeorado.
4. Permite identificar las dos fuentes de variación de un proceso: causas
comunes y causas asignables.
5. Sirve como una herramienta de detección de problemas.
Propósitos de un gráfico de control:
Obtener información para establecer o cambiar estándares.
Obtener información para establecer o cambiar procedimientos.
Tener un criterio para decidir si conviene investigar causas de variación del
proceso.
Recomendaciones:
1. La variable a considerar debe ser siempre algo que pueda ser
cuantificado (medido o contado): tiempo, temperatura del lugar, humedad;
o bien, el número de partes calificados con pasa /no pasa.
2. Con respecto al tamaño de la muestra, es conveniente que los subgrupos
se formen de acuerdo con el tipo de gráfica, el volumen de producción, el
tiempo, etc. Por ejemplo, para una gráfica de promedios y rangos, el Dr.
Shewhart sugirió la elección de 4 elementos para cada subgrupo,
tomados en periodos que van entre media hora y dos horas; sin embargo,
parece ser que es mejor que los grupos se formen con 5 elementos
consecutivos.
3. Con menos de 5 elementos, la gráfica pierde sensibilidad con respecto a
la detección de problemas, mientras que con más de 5 se obtiene muy
poca información adicional.
Tipos de gráficas de control.
Las gráficas de control se elaboran según el tipo de datos que se recojan en
el sitio de trabajo.
a) Las gráficas de control para variables (dato medible) más frecuentemente
utilizadas son las siguientes:
Gráfica - R Promedios y rangos.
Gráfica - Promedios y desviación estándar.
Gráfica - S Media y desviación estándar
Gráfica X - RM Lecturas individuales y rango móvil.
b) Las gráficas de control por atributos (datos contables) más frecuentemente
utilizadas son las siguientes:
Gráfica p Porcentaje de oportunidad, trabajos o procesos defectuosos.
Gráfica np Número de oportunidad, trabajos o procesos defectuosos.
Gráfica c Número de defectos por área de oportunidad.
Gráfica u Porcentaje de defectos área de oportunidad.
Aplicación de los gráficos de control.
a) Gráfica X media: Se utiliza para evaluar la calidad de la media, en
presencia únicamente de causas aleatorias que distribuyen
normalmente con media y por lo que en el intervalo +/- 3
se encontrarán el 99.7 % de los datos.
b) Gráfica R: Se utiliza cundo se desea conocer la variabilidad de los
valores que conforman cada muestra.
c) Gráficas S y : Es adecuada cuando se quiera evaluar la
variabilidad de la calidad de los resultados a partir de la desviación
típica.
d) Gráficas p y np: Se usan para detectar la proporción de unidades
defectuosas en relación al tamaño “n” de la muestra o el número de
unidades defectuosas.
e) Gráficas c y u. Se utilizan para detectar el número de defectos
encontrados en la muestra, la cantidad de unidades que conforman
la muestra debe ser constante.
Elaboración de las graficas de control
1. Elija el gráfico mas adecuado según el diagrama de árbol y la
aplicación que le va a dar.
2. Calcule el valor de los limites (LI, LC y LS). Utilice las formulas del anexo 5
según el tipo de gráfico que se esta utilizando.
3. Construya la gráfica que relacione el parámetro de calidad seleccionado
contra el número de unidades que representan el tiempo de estudio.
4. Divida el grafico por zonas según el valor de los limites.
5. Interprete el grafico, utilice el patrón de comportamiento del anexo 6
Aclaraciones:
1. Cuando los valores de y son desconocidos, se estiman a partir de los
datos de 20 a 25 muestras de tamaño pequeño (4 a 5 datos cada una),
tomadas a intervalos regulares de tiempo.
2. Primero se construye la grafica de R, , S y RM, si las graficas presentan
un comportamiento estable (proceso en control) se procede a realizar las
respectivas graficas de medias o datos individuales.
3. Como en todas las gráficas, es necesario establecer la frecuencia para la
toma de datos, teniendo en cuenta que los intervalos cortos permiten una
rápida retroalimentación del proceso.
4.3.1.5 Diagrama de causa y efecto
A este diagrama se le conoce como el diagrama de pescado o esqueleto
de pescado, sirve como herramienta de análisis para:
Categorizar muchas causas potenciales de un problema o cuestión
de manera ordenada.
Analizar qué es lo que está sucediendo realmente con un proceso.
Capacitar a los equipos de trabajo y personas acerca de nuevos
procesos y procedimientos corrientes.
Pasos a seguir para elaborar un diagrama de causa y efecto.
1) Iniciar la sesión.
2) Identificar el efecto.
3) Identificar las principales causas.
4) Inferir por medio del brainstorming las causas potenciales del problema.
5) Utilice el método más adecuado para categorizar las principales causas.
Llegar a un acuerdo sobre las causas más probables.
4.3.2 Las herramientas administrativas
En el ambiente actual de los negocios las cosas parecen cambiar
rápidamente de un año para otro, de un mes a otro, de un día a otro, incluso en
pocas horas, por lo que es necesario que cada integrante de la empresa se
comprometa con la calidad y lleva acabo planes de calidad en forma individual y
grupal por lo que requieren conocer y aplicar, en la Administración por Calidad
Total (Total Quality Management = TQM) las denominadas Herramientas
administrativas:
Brainstorming
Diagrama matricial
Diagrama de afinidad
Diagrama de campo de fuerza
Diagrama de árbol
Calificación de criterios
Diagrama de flujo de proceso
Diagrama de causa y efecto
Planilla de verificación
Las últimas dos no tienen fundamento matemático, ni estadístico, pero se les agrupa en las herramientas estadísticas del control de calidad.
Algunas sirven para sintetizar el pensamiento de personas con diferentes puntos de vistas, lo que es frecuente en la resolución de problemas interdepartamentales o interfuncionales; otras ayudan a traducir las metas en procedimientos y medidas, a analizar datos y a presentar en forma gráfica los planes de acción.
4.3.2.1 Brainstorming
Es una herramienta de planteamiento que se puede utilizar para obtener ideas a
partir de la creatividad de un grupo, se emplea cuando:
Se desea determinar las posibles causas y / o soluciones a un problema
Planificar las etapas de un proyecto
Decidir en qué problema u oportunidad de mejora se trabajara
Se emplea a menudo para crear consenso, y en situaciones donde se necesita
generar un número elevado de ideas. Los pasos claves son:
Iniciar la sesión:
1) Se establece un límite de tiempo ( 30 minutos)
2) Designar uno o más registradores.
3) Establecer las reglas de juego:
a) No modificar lo que se dice y abstenerse de criticar ideas
b) Tratar de generar tantas ideas como sea posible.
c) Alentar las ideas disparatadas o exageradas (la clave es la
creatividad)
d) Edificar sobre las ideas de los demás (una idea puede generar otra
idea)
Elegir el tipo de método de brainstrorming que se utilizara: 1) Aleatorio
donde los integrantes del grupo enuncian todas las ideas a medida que se les
va ocurriendo y estas se enumeran mientras son emitidas. 2) Secuencial
Cada integrante emite su idea por turno, se puede “pasar”, se continúa hasta
que no se generan más ideas y todas las ideas son enumeradas a medida que
se emiten.
Al finalizar se procede a priorizar clasificar (si es necesario) y en ocasiones recopilar
información que fundamenten una idea.
4.3.2.2 Diagrama matricial
Es una herramienta de planeación que relaciona en forma gráfica características,
funciones y tareas en forma secuencial proporcionando conexiones lógicas. Se
recomienda su uso cuando:
1) Se requiera relacionar tareas con las personas, departamentos o funciones que
las llevaran acabo.
2) Mostrar la relación entre una tarea y la persona, departamento o función
responsable.
3) Cuantificar la intensidad de esa relación
4) Asignar responsabilidades y planear acciones
Existen muchos tipos de diagrama matricial el más común es el tipo
Pasos para elaborar una matriz tipo L:
1. Se identifican los aspectos a relacionar.
2. Se desarrollan en rubros cada uno de dichos aspectos.
3. Se procede a llenar cada uno de los espacios.
4.3.2.3 Diagrama de afinidad
Es un método estructurado de brainstorming, que puede ser utilizado en
actividades complejas y extensas, como ejemplo, el desarrollo de un balance o el
informe d una misión. Esta herramienta se basa en el hecho de que muchas opiniones
son afines entre si y por lo tanto se pueden agrupar en torno a unas cuantas ideas
generales.
Pasos para elaborar el diagrama:
1. Las opiniones se escriben en fichas.
2. Se agrupan las fichas que expresan la misma opinión pero con diferentes
palabras.
3. En una ficha de mayor tamaño se escribe la síntesis de las fichas que expresan
opiniones semejantes.
4. En fichas más grandes se escribe el consenso general.
4.3.2.4 Diagrama de campo de fuerza
El diagrama de campo de fuerza es una herramienta que pueden utilizar los
equipos de mejora (grupos pequeños de 5 a 7 integrantes) cuando quieran
alcanzar objetivos, requieran identificar las causas posibles y las soluciones a un
problema o a una oportunidad importante, o cuando no han logrado alcanzar sus
objetivos.
Pasos a seguir:
1) Iniciar la sesión:
a. Establezcan limite de tiempo para la sesión.
b. Crear un grafico como el indicado en la pagina siguiente.
c. Designe uno o más registradores.
d. Utilice las reglas del brainstrorming
2) Ponerse de acuerdo sobre lo que esta sucediendo, establezcan
los objetivos y las ideas.
3) Determinen las fuerza aceleradoras y las frenadoras
4.3.2.5 Diagrama de árbol
El diagrama de árbol es una herramienta de planificación utilizada para:
Esbozar el camino a seguir y las tareas que necesitan ser realizadas
a fin de alcanzar un objetivo primario y todos los sub-objetivos
relacionados con él.
Organizar la secuencias de tareas de un plan de ejecución
Verificar la lógica de un plan investigando posibles omisiones.
En la toma de decisiones
Pasos para elabora un diagrama de árbol
1) Iniciar con la sesión del equipo de trabajo.
a. Establecer un límite de tiempo (40 a 60 minutos) y el
numero de sesiones para trabajar.
b. Seleccionen al registrador.
c. Identifiquen su objetivo
2) Ejecutar un brainstorming
3) Identificar los encabezamientos principales del diagrama. Significa
seleccionar las tareas más importantes para construir el nivel
primario del árbol.
4) Crear el siguiente nivel de detalle
5) Revisar el diagrama de árbol, verificar la lógica secuencial del plan.
4.3.2.6 Clasificación de criterios
El formulario de clasificación de criterios es una herramienta de interpretación que se
puede utilizar para seleccionar ideas y solucionar entre varias opciones. Se utiliza
cuando:
Se tiene que seleccionar entre varias opciones.
Se tiene que tomar una decisión de forma objetiva
Cuando se requiere que el grupo llegue a un acuerdo.
Pasos a seguir:
1) Iniciar la sesión.
2) Generar por medio del brainstorming diversos criterios de decisión.
3) Determine la importancia relativa de cada criterio en termino de
porcentaje.
4) Establezca una escala de calificación; ponderar las alternativas.
5) Calcular el puntaje final.
6) Seleccionar la mejor alternativa.
4.3.2.7 Diagrama de flujo de procesos
Es una herramienta de planificación y análisis utilizada para:
Definir y analizar procesos de manufactura, ensamblado o servicio.
Construir un imagen del proceso etapa por etapa para su análisis,
discusión o con propósitos de comunicación.
Definir, estandarizar o encontrar áreas de un proceso susceptibles de
ser mejoradas.
El diagrama de flujo se concentra en una función o actividad específica. En
procesos administrativos se prefiere el Diagrama de Flujo de Secuencias.
Pasos para la elaboración de un diagrama de flujo:
1) Iniciar la sesión.
2) Identificar las principales tareas del proceso.
3) Trazar el diagrama de flujo aplicando la siguiente simbología.
a. Circulo alargado, para indicar el inicio y el final del diagrama
b. El cuadrado describe la tarea a realizar.
c. El diamante indica punto de decisión
d. El circulo con letra se utiliza para conectar tareas
e. El cuadrado de base ondulada indica transferencia o salida
física de un documento
f. La flecha recta indica la dirección del flujo
4) Analizar el diagrama.
4.3.2.7 Planilla de verificación
A
La planilla u hoja de verificación es una herramienta estadística para organizar la información, se aplica cuando:
Se requiere distinguir entre opiniones y hechos.
Recopilar información para verificar la reiteración de un problema
Recopilar información del tipo de problema que está ocurriendo.
Se pueden definir los siguientes tipos de hojas de dato:
a) Hoja para recolectar datos
b) Hoja de localización
c) Lista de verificación
Pasos para elaborar cualquiera de las hojas anteriores.
1) Iniciar sesión de trabajo, clasificar objetivos y determinar el tipo de hoja
a utilizar.
2) Definir cuáles factores hay que registrar
3) Crear la hoja la cual debe incluir información general tal como:
Fecha de elaboración
Responsable de la toma de datos.
Período de recolección de la información
Producto o servicio que se esta estudiando
Departamento
Personal que autoriza
4) Registrar los datos
5) Totalizar la información y verificar su fiabilidad
Tabla de herramientas recomendadas para cumplir 8 criterios de calidad
Criterio 1.0 Clientes
Estudios de Mercado
Encuestas
Momentos de Verdad
Grupos de Enfoque
Taguchi (Función perdida)
Garantías
Programa de retención de
Criterio 2.0 Aportacion Social
Tecnología limpia
Ecoeficiencia
Desarrollo sustentable
Normas y estandares
Programas para desarrollo de la comunidad
Criterio 3.0 Líderes Programas de
liderzgo Empowerment
Trabajo en equipo
Células de trabajo
Equipos autodirigídos
Programas de comunicación
Criterio 4.0Personal Compensación
variable Reconocimiento a
equipos de trabajo Planes de carrera
Sucesión de personal clave
Métodos interactivos de capacitación
Evaluación de clima organizacional
Evaluación 360°
cliente
Criterio 6.0 Conocimiento Organizacional Medición de
operación, eficiencia, efectividad, eficacia
Sistemas en línea
Entornos creativos
Estimulación de la creatividad
Administración del conocimiento
Ambientes de aprendizaje organizacional
Patentes y derechos de autor
Criterio 6.0 Planeación
FODAS
Escenarios
Análisis de sensibilidad
Proyecciones
Benchmarking
Visión sitémica
Calidad Total
Hoshin planning
Criterio 7.0 Procesos
QFD
Kaizen
Kan-Ban
Mejores prácticas
CEP, control estadístico de proceso
Seis sigma
Taguchi (procesos robustos)
Reingeniería
TPM
JTI (just in time)
Aseguramiento
Programa para desarrollo de proveedores
Criterio 8.0 Análisis de resultados BSC (Balance Score
Card) Estados financieros
Tablas, gráficas, mapas
Análisis comparativos, de equilibrio, causa-efecto
Estudios de imagen
Anexo II
Principios de probabilidad
Cada vez que realizamos un cálculo matemático para resolver un problema, lo que estamos haciendo es aplicar un modelo matemático a un fenómeno de la realidad.
Este fenómeno puede ser, por ejemplo, la caída de un objeto desde cierta altura, y en este caso utilizamos un modelo que es la Ley de Gravedad.
Qué es un modelo?
Al enfrentar un problema de física, química, ingeniería o de algún otro tipo, estamos analizando e investigando una parte o aspecto de la realidad material que nos rodea. Para resolver el problema, necesitamos modelar esa realidad, es decir, construir una representación en la mente de cómo ocurren los hechos, junto con ecuaciones matemáticas que permitan calcular los efectos de los mismos.
El modelo de fuerza gravitatoria o leyes de la gravedad permite estudiar la caída de un cuerpo en el vacío. Cuando aplicamos este modelo a la caída real de un cuerpo, estamos dejando de lado la influencia del aire, cuyo rozamiento en el
cuerpo disminuye su velocidad, pero lo hacemos a sabiendas que este rozamiento es muy pequeño y por lo tanto no va a afectar demasiado nuestros cálculos.
En ningún caso se debe confundir modelo con realidad. Un modelo es sólo una representación de la realidad, utilizado para estudiar y analizar dicha realidad.
Los modelos matemáticos que mencionamos hasta ahora, después de efectuar los cálculos nos dan un resultado numérico preciso, por ejemplo, que la velocidad de un automóvil es de 75,5 Km/Hora.
También podemos calcular la corriente eléctrica que circula por un cable con la Ley de Ohm y obtenemos, por ejemplo, un resultado como 5,7 Amperes:
Este tipo de modelos matemáticos se denominan determinísticos. Hay fenómenos que necesitan otro tipo de modelos matemáticos, que se denominan no determinísticos, probabilísticos o estocásticos.
Por ejemplo, supongamos que un agricultor necesita saber cuanta lluvia va a caer en los próximos meses, antes de decidir si le conviene sembrar o no esta temporada. El agricultor se informó en la oficina de meteorología acerca de la presión barométrica, la temperatura, velocidad del viento y otros datos meteorológicos de la zona en que vive.
Sin embargo, no hay una ecuación que con todos esos datos le permita calcular los milímetros de lluvia que van a caer en un mes en forma precisa.
De la misma manera, ningún operador puede calcular cuanto va a subir la Bolsa, ni siquiera si va a subir o bajar, aún cuando tenga a su alcance todas las variables económicas disponibles para el país. Este tipo de fenómenos No admiten un modelo determinístico, sino un modelo probabilístico, que como resultado nos dice la probabilidad de que llueva una cierta cantidad, o la probabilidad de que la Bolsa suba un cierto porcentaje. El resultado no es un valor determinado, sino la probabilidad de un valor.
Veamos algunos ejemplos de fenómenos o experimentos para los cuales es apropiado o conveniente utilizar un modelo probabilístico:
Experimento 1:
Se lanza un dado y se anota el número que aparece en la cara superior.
Experimento 2:
Se arroja una moneda cuatro veces y se cuenta el número total de caras obtenidas.
Experimento 3:
Se arroja una moneda cuatro veces y se anota la sucesión de caras y cecas obtenidas.
Experimento 4:
Se fabrican artículos en una línea de producción y se cuenta el número de artículos defectuosos producidos en 24 horas.
En todos estos casos, el resultado del experimento no se puede predecir con absoluta certeza. Hay varios resultados posibles cada vez que se realiza la experiencia.
Para cada experimento del tipo que estamos considerando, se define el Espacio Muestral como el conjunto de todos los resultados posibles que pueden producirse al realizar el experimento.
Experimento 1:
Se lanza un dado y se anota el número que aparece en la cara superior:
Experimento 2:
Se arroja una moneda cuatro veces y se cuenta el número total de caras obtenidas:
Experimento 3:
Se arroja una moneda cuatro veces y se anota la sucesión de caras (C) y cecas (X) obtenidas:
Experimento 4:
Se fabrican artículos en una línea de producción y se cuenta el número de artículos defectuosos producidos en 24 horas.
donde N es el número máximo que pudo ser producido en 24 horas.
Un Suceso, respecto a un espacio muestral S asociado con determinado experimento, es un subconjunto de resultados del espacio muestral.
Entonces, el subconjunto formado por un solo elemento del espacio muestral es un suceso.
El conjunto formado por todos los elementos del espacio muestral también es un suceso:
Y también lo es el conjunto vacío.
Hemos visto que dado un experimento cualquiera, hay un espacio muestral asociado cuyos elementos son todos los resultados que se pueden obtener de la experiencia. Un subgrupo o subconjunto de resultados es un suceso. Ahora, cómo podemos saber si la posibilidad de que ocurra un suceso es grande o pequeña? Por ejemplo, si arrojamos un dado, cómo podemos calcular la probabilidad de que salga un 2 ?. Para esto necesitamos un número asociado con cada suceso, al cual se lo denomina probabilidad del suceso. Entonces, la probabilidad P de un suceso es un número entre 0 y 1, que nos dice en que medida es posible que ocurra el suceso. Si la probabilidad es 1 significa que el suceso ocurrirá con toda certeza. Si la probabilidad es 0,5 significa que un suceso puede ocurrir o puede no ocurrir con
la misma probabilidad. Probabilidad 0 quiere decir que el suceso es imposible que ocurra. Cómo podemos calcular la Probabilidad de un suceso?
La respuesta a esta pregunta no siempre es sencilla y depende del experimento y de su espacio muestral asociado. Hay casos simples en los que el cálculo es relativamente sencillo. En primer término, supondremos que se trata de un experimento cuyo espacio muestral es finito y tiene un número pequeño de resultados posibles. En segundo término, supondremos que todos los resultados que integran el espacio muestral (sucesos elementales) tienen la misma probabilidad de ocurrir.
Con estas dos hipótesis, la fórmula para calcular la probabilidad es muy sencilla. Supongamos que se trata de un experimento cualquiera cuyo espacio muestral S tiene N elementos (N resultados posibles). Deseamos calcular la probabilidad de un suceso H (Un subconjunto H del espacio muestral S) que tiene m elementos. De acuerdo a lo dicho previamente, el número N tiene que ser pequeño y la probabilidad de cada suceso elemental tiene que ser la misma:
Entonces la probabilidad P de que ocurra el suceso H es:
Veamos algunos ejemplos. Supongamos que se arroja un dado sobre una mesa y apostamos a que salga un número igual o menor que 4. Sabemos que son igualmente posibles los números: {1, 2, 3, 4, 5 y 6} (Espacio muestral con 6 elementos).
Pero los números favorables a nuestra apuesta son: {1, 2, 3 y 4} (Suceso con 4 elementos). Entonces, la probabilidad de que ganemos es:
Es decir que tenemos a nuestro favor una probabilidad de 0,666.. (o sea aproximadamente del 67 %). Si apostamos a un sólo número, por ejemplo a que sale un as, la probabilidad de ganar sería:
Repitiendo, la probabilidad es un número entre 0 y 1, que nos dice en que medida es posible que ocurra un suceso.