Metodología de evaluación y mejora...

29
Metodología de evaluación y mejora continuada Unidad didáctica 6 La medida de la calidad: - Monitorización - Indicadores - Calidad y estadística Josep Davins Miralles

Transcript of Metodología de evaluación y mejora...

Metodología de evaluación y mejora continuada

Unidad didáctica 6

La medida de la calidad:

- Monitorización - Indicadores - Calidad y estadística

Josep Davins Miralles

Josep Davins © Calidad 2011. Indicadores 1

Índice

Dos definiciones: calidad y criterio de calidad ......................... 2

La calidad ¿se puede medir? .................................................... 2 Medir la calidad con indicadores .............................................. 3

Definición de indicador ............................................................. 4 Tipos de indicadores ................................................................. 4

Características de los indicadores ............................................... 6 ¿Para que sirven los indicadores? ............................................... 7

Reevaluar y Monitorizar ........................................................... 8 Herramientas para la monitorización: el indicador .................. 9

1. Delimitar el campo de actuación: ¿Qué hacemos en nuestro CS? 9 2 Identificar los aspectos importantes:¿Qué es lo más importante

de todo lo que hacemos? ........................................................ 10 3. Identificar indicadores: ¿Qué utilizaremos como medida para

cada aspecto identificado e importante de la atención? ............... 11

Partes que componen el diseño de un indicador .................... 12 Enunciado inicial del indicador. ............................................. 12

Definición de términos. ........................................................ 13 Identificación del tipo de indicador. ....................................... 13

Base del razonamiento. ....................................................... 13 Descripción de la población del indicador. .............................. 13

Fuente de los elementos de los datos. ................................... 14 Factores responsables. ........................................................ 14

Bases de datos existentes. ................................................... 15 Validación de un indicador ..................................................... 16

Validación y análisis de los indicadores ..................................... 16 Validez .............................................................................. 17

Fiabilidad ........................................................................... 18 Conceptos estadísticos relacionados con la medida de la

calidad ................................................................................... 20

Estimación del nivel de calidad: estadística descriptiva ............... 21 Medidas de posición: tendencia central y no central ................ 21

Medidas de dispersión ......................................................... 22 Coeficiente de correlación lineal ............................................ 23

Intervalos de confianza .......................................................... 24 Medida del nivel de calidad como mejora: contraste de hipótesis. 24

Medidas con muestras pequeñas y rápidas: muestreo por lotes ... 24 Bibliografía ............................................................................ 26

Resumen ............................................................................... 28

Josep Davins © Calidad 2011. Indicadores 2

Dos definiciones: calidad y criterio de calidad

La calidad es un conjunto de características o atributos de los productos o servicios

que, cuando es alta, denota superioridad en su género. La calidad es

multidimensional, y los diferentes componentes de la calidad son: satisfacción,

accesibilidad, efectividad, eficiencia, competencia profesional, continuidad de la

atención, oportunidad y adecuación.

De este hecho, la Joint Commission on Accreditation of Healthcare Organizations

(JCAHO) en 1990 dio la siguiente definición de calidad: ofrecer de forma

continuada unos servicios eficaces, efectivos y eficientes, adecuados a las

necesidades de los clientes, accesibles y aceptados por éstos; y todo ello,

según el estado actual de conocimientos.

Para centrar la calidad desde el punto de vista de su medida otra definición en la que

se introduce el concepto criterio como la expresión concreta de la calidad con un

objetivo: conjunto de atributos o características que hacen que un servicio o

profesional cumpla con su misión. Podemos decir entonces que la calidad se

concreta en lo que conocemos como criterio o atributo que refleja el ideal ante una

situación concreta.

Estos criterios se pueden definir como normas de buena práctica basadas en la

evidencia científica existente.

La calidad ¿se puede medir?

Aunque la calidad es intangible, podemos siempre aplicar una escala de medida para

aproximarnos a una estimación real de la misma.

La calidad se concretiza en los criterios. Estos criterios se podrían definir como las

normas de buena práctica que reflejan un ideal. Cada situación concreta del paciente

debe ser seguida por la atención adecuada por parte de los profesionales sanitarios, y

la variabilidad de las actuaciones de éstos denota una falta de calidad.

Un criterio puede ser lo más amplio o detallado posible. Pero su medida será más fácil

cuando más concreto sea. Será más fácil medir cuantos pacientes han sido

controlados de su hipertensión arterial, que el manejo de la hipertensión arterial en

conjunto.

Se entiende por criterios técnicos de calidad a las normas basadas en la evidencia

científica existente, establecidas por sociedades científico-profesionales o por grupos

de consenso, referidas a los procesos asistenciales clave. De esta forma, para

determinar una parte importante de nuestra calidad asistencial, deberemos evaluar el

nivel de adecuación de nuestra competencia profesional a las recomendaciones

aceptadas en función del mejor conocimiento existente en el aspecto medido. Estas

recomendaciones, en formato de calidad, son los criterios técnicos (lectura

recomendada 1). Por ejemplo, ante un paciente que presenta dolor precordial

opresivo se debe realizar un electrocardiograma inmediato. La ausencia de esta

exploración denota un nivel inaceptable de calidad asistencial, pues, la evidencia

científica ha demostrado que la probabilidad de presentar patología coronaria es

elevada en los pacientes con dolor precordial opresivo y que una exploración

accesible, inocua y efectiva para detectar isquemia, como la práctica de un

electrocardiograma inmediato, es obligada. Pero no siempre las intervenciones

Josep Davins © Calidad 2011. Indicadores 3

sanitarias se apoyan en estudios de rigor científico y eso dificulta la definición de

calidad técnica.

Una fuente habitual de los criterios de calidad técnica son las guías de práctica clínica,

ya que establecen la conducta diagnóstica y terapéutica adecuada a cada patología a

partir de la evidencia científica disponible. Las guías de práctica clínica son

declaraciones desarrolladas de forma sistemática, para ayudar a los profesionales y a

los clientes en la toma de decisiones en unas circunstancias clínicas concretas. Sería el

equivalente al manual de especificaciones de calidad de un producto

Medir la calidad con indicadores

Los indicadores son la medida instrumental del criterio de calidad de un aspecto

concreto de la atención. Es decir, un indicador es una herramienta de medida.

Para conseguir que las actividades de mejora de la calidad sean efectivas deben

llevarse a cabo de forma continuada. No deben limitarse a la realización de estudios

de evaluación finitos y puntuales, sino que deben consistir en medidas regulares y

sistemáticas de aspectos esenciales de la atención, para comprobar, no sólo si se ha

producido la mejora, sino también si ésta se mantiene en el tiempo1.

El sistema de medida de la calidad debe ir ligado a una planificación previa. Si no es

así, nos encontraremos ante un sistema que no responde a las preguntas de nadie. La

calidad se monitoriza porque en función de los resultados que obtengamos de esta

medida, nuestra actuación será una u otra.

Un sistema de monitorización se define como la medida continuada de aspectos

relativos a la calidad de la atención para identificar situaciones u oportunidades de

mejora. Para que el sistema de monitorización sea efectivo es necesario que sea

completo, abarque todas las actividades del centro de salud (CS) y todos los

componentes de la calidad de la atención, de forma sistemática y objetiva. La Joint

Commission on Accreditation of Healthcare Organizations (JCAHO) recomienda el

sistema de monitorización continuado como base de todo plan de mejora de la

calidad2,3.

El sistema de monitorización se fundamenta en el control estadístico de la calidad. Las

actividades de mejora de la calidad asistencial están orientadas al estudio de los

procesos buscando, sobre todo, las causas comunes de variación, con el objetivo de

hallar puntos susceptibles de mejoras potenciales4.

Los fracasos en conseguir el nivel de calidad deseado derivan de 2 fuentes: las

atribuibles al sistema, que no se pueden reducir sin cambiarlo (causas no asignables,

aleatorias, al azar, sistémicas, internas, intrínsecas o causas comunes no debidas al

individuo) y aquellas debidas a factores externos al proceso (causas asignables,

extrasistémicas, externas o extrínsecas). Las causas sistémicas producen una

variación aleatoria, homogénea y previsible a lo largo del tiempo; en cambio, las

extrasistémicas la producen de forma brusca y mantenida hasta que se elimina la

causa5, 6 (figura 1).

Según Deming sólo el 15% de las oportunidades de mejora o problemas de calidad

recae en los individuos, pero son de efectos fuertes y su eliminación puede realizarse

desde los propios implicados en el proceso7. En cambio, para eliminar el 85%

restante, que depende de déficits del sistema, es necesario cambiar el proceso entero

o parte importante de él, lo que suele ser responsabilidad de niveles de gestión

superiores.

Josep Davins © Calidad 2011. Indicadores 4

El estudio permanente de las causas de variabilidad nos permitirá un mejor

conocimiento del proceso y facilitará su mejora. En el sistema de monitorización se

utilizan como parámetros de medida los indicadores.

Debemos destacar cuatro aspectos relevantes o ideas clave en los indicadores:

• Los indicadores sólo indican

• Los indicadores nos fuerzan a ser explícitos

• Los indicadores son números y requieren de técnicas estadísticas

• Los indicadores no se deben asociar a “detectores de defectos” sino aprender de

los que tienen buenos resultados

Definición de indicador

Según la definición de la JCAHO, un indicador es una medida cuantitativa que nos

sirve para monitorizar y evaluar la calidad de aspectos importantes de la atención3. El

sistema de monitorización nos alerta cuando se produce alguna alteración en el

estado habitual de la atención por el cambio en la actividad del indicador. De esta

forma, nos señala dónde se puede estar produciendo una oportunidad de mejora de la

calidad. La monitorización no nos asegura que el problema o la oportunidad de mejora

exista, ni nos indica sus causas, sino que señala hacia donde dirigir nuestra atención

para determinar si existe o no un problema . Un indicador no es una medida directa

de la calidad, sino una herramienta que nos permite valorar las actuaciones e indica

que aspectos requieren un análisis más profundo.

Tipos de indicadores Existen diferentes tipos de indicadores que se pueden clasificar en función de tres

aspectos: la valoración positiva o negativa, la gravedad y el tipo de suceso

monitorizado. Los tres grupos clasificatorios no son excluyentes entre sí, sino que un

indicador puede ser ubicado en cada uno de ellos (tabla 1).

Tabla 1. TIPOS DE INDICADORES

Según el enfoque

- Indicador de SALUD

- Indicador de CALIDAD

Según el diseño

- Indicador SIMPLES

- Indicador COMPUESTOS ó SINTÉTICOS

Según los datos que se monitorizan

- indicador de ESTRUCTURA

- Indicador de PROCESO

- Indicador de RESULTADO

Según la gravedad del suceso monitorizado

- Indicador BASADO EN UNA PROPORCION

- Indicador DE SUCESO CENTINELA

Según si mide sucesos positivos o negativos

Josep Davins © Calidad 2011. Indicadores 5

- Indicador DESEABLE

- Indicador NO DESEABLE

Según la valoración positiva o negativa del suceso monitorizado

Indicador deseable. Se basa en un suceso considerado positivo o deseable.

Indicador no deseable. Se basa en un suceso considerado negativo o no

deseable.

La mayoría de sucesos pueden medirse con indicadores definidos tanto en sentido

positivo como negativo. Por ejemplo, para medir en el campo de la hipertensión el

aspecto relativo a su control, se puede utilizar el indicador deseable “pacientes

hipertensos controlados”, y el indicador no deseable “pacientes hipertensos no

controlados”.

Según la gravedad del suceso monitorizado

Indicador basado en un suceso centinela. Mide un suceso lo bastante grave del

proceso o del resultado de la atención como para realizar una revisión individual de

cada caso que se produzca. Es conveniente analizar si existe una causa prevenible

o mejorable en el proceso de la atención. Por definición, un indicador centinela

siempre es un indicador negativo, puesto que mide un suceso grave e indeseable.

Ejemplos de indicadores centinela son “pacientes muertos en el CS”, “pacientes

menores de 65 años muertos en el domicilio”, “pacientes con reacción anafiláctica

grave”, “pacientes con graves efectos adversos a medicamentos”, “mujeres

gestantes menores de 16 años”, “pacientes que reclaman por el retraso de un aviso

domiciliario urgente”.

Indicador basado en una proporción. Mide un suceso que requiere una revisión

detallada sólo si la proporción de casos que no cumplen el criterio del indicador

sobrepasa un umbral establecido mediante control estadístico de la calidad. Mide un

suceso del que esperamos que un cierto porcentaje de los casos lo incumplan.

Ejemplos de indicadores basados en una proporción son “pacientes hipertensos

controlados”, “pacientes usuarios de droga por vía parenteral (UDVP)

correctamente inmunizados de la hepatitis B”, “pacientes con información clínica

adecuada en la hoja de interconsulta al especialista”, “pacientes con catarro de vías

altas tratados con antibióticos”.

Según el tipo de datos valorado en el suceso monitorizado

Indicador de proceso. Mide la actividad llevada a cabo, de forma directa o indirecta,

durante la atención al cliente. Un buen indicador de proceso es áquel que se basa

en actividades relacionadas estrechamente con el resultado de la atención. Los

indicadores de proceso suelen reflejar los estándares o criterios de adecuación de la

atención consensuados por los profesionales o extraídos de la literatura.

Ejemplos de indicadores de proceso son “pacientes con información clínica

adecuada en la hoja de interconsulta a especialistas”, “pacientes con catarro de

vías altas tratados con antibióticos”, “pacientes hipertensos con evaluación del

riesgo cardio-vascular”, “pacientes hipertensos en tratamiento con diuréticos y

control del ionograma en el último año”, “pacientes diabéticos con fondo de ojo

realizado en el último año”.

Josep Davins © Calidad 2011. Indicadores 6

Indicador de resultado. Mide el efecto de la atención en el cliente. El grado en que

este resultado está influenciado por otros factores independientes del proceso

asistencial determinará la utilidad del indicador.

Todo proceso de la atención persigue un buen resultado por lo que sería lógico

utilizar indicadores orientados a medir éste último. Sin embargo, en muchas

ocasiones es difícil medir resultados y conocer la influencia de otros factores ajenos

al proceso. Los indicadores de resultado orientan sobre los aspectos que pueden

necesitar un abordaje más profundo pero aportan poca información sobre las

causas de los problemas de calidad u oportunidades de mejora. Es recomendable

utilizar indicadores de proceso, por la mayor facilidad de obtención, medida e

interpretación. Aún así, para medir la satisfacción del cliente, aspecto

imprescindible en todo sistema de monitorización, son necesarios los indicadores de

resultado.

Son ejemplos de indicadores de resultado “pacientes hipertensos muertos de

accidente vascular cerebral”, “pacientes diabéticos con ceguera”, “pacientes

satisfechos con el trato de los profesionales”, “pacientes satisfachos con el proceso

asistencial”, “pacientes muertos en el CS”, “pacientes menores de 65 años muertos

en el domicilio”.

Características de los indicadores

Para ser efectivos, facilitar la recogida de datos y aumentar su fiabilidad los

indicadores deben cumplir las siguientes características9 (tabla 2):

Concretos. Deben estar bien definidos, describirse de forma clara y completa. Cuanto

más definido sea el enunciado del indicador, menos errores se cometerán al recoger

los datos. En el indicador “pacientes hipertensos controlados” debe definirse de forma

clara que se entiende por “hipertensos” y por “controlados”.

Completos. Deben dirigirse en conjunto a todos los aspectos importantes de la

atención en un CS. El sistema de monitorización, para que sea efectivo debe ser

amplio y completo. Es necesario desarrollar indicadores en cada uno de los

componentes de la calidad asistencial (accesibilidad, continuidad, efectividad,

eficiencia, adecuación, satisfacción...).

Objetivos. Debemos evitar aquellos indicadores que se basen en un juicio subjetivo y

así facilitar la recogida de datos. Los indicadores deben contener las especificaciones

necesarias para asegurar una uniformidad de los datos recogidos.

Clínicamente válidos. Deben estar basados en la literatura existente, en los expertos o

en la experiencia de los profesionales. Los indicadores basados en sucesos

controvertidos según el estado actual de conocimientos científicos no identifican

oportunidades de mejora. El indicador “pacientes mayores de 50 años con

determinación de sangre oculta en heces en el último año” no es útil para monitorizar

la prevención de la neoplasia colo-rectal dado que no existe suficiente evidencia

científica que demuestre la efectividad de esta práctica de cribado.

Sensibles. En el sentido que reflejen los cambios producidos por una situación.

Específicos. Para evitar medir cambios producidos por factores externos. El indicador

debe identificar aquellos casos que, en realidad, presentan una oportunidad de

mejora.

Josep Davins © Calidad 2011. Indicadores 7

Relevantes. Deben monitorizar lo importante de cada aspecto de la atención o del

ámbito para el que se han creado. Por ejemplo, en la diabetes es más importante

monitorizar la realización del fondo de ojo para la prevención y tratamiento de la

retinopatía, que aspectos menos relevantes como la realización de autocontroles de

cetonuria.

Eficientes. Que nos proporcionen información valiosa y no duplicada. Debe evitarse la

recogida de datos complicada y laboriosa.

¿Para que sirven los indicadores?

• Medir la calidad, para mejorarla.

• Conocer el sistema (rol conocer/entender) para mejorarlo.

• Monitorizar la calidad.

• Tomar decisiones.

Josep Davins © Calidad 2011. Indicadores 8

Reevaluar y Monitorizar

La monitorización es el ejemplo de una mejora de la calidad sin punto final, donde

siempre se puede mejorar, incluso lo que hacemos bien.

La mejora de la calidad no finaliza con la implantación de las soluciones. Falta

comprobar el efecto del proyecto de mejora mediante el seguimiento o monitorización

de la oportunidad seleccionada, para aseguramos que tenemos el proceso bajo control

y que las acciones escogidas son las adecuadas.

Es importante informar periódicamente de la situación para el conocimiento del

resultado de nuestro esfuerzo. Los procesos tienden a empeorar si no adoptamos las

medidas necesarias para mantener los beneficios obtenidos. Para hacerlos duraderos

es necesario comprobar el funcionamiento del nuevo proceso y preguntarnos si la

solución a la que hemos llegado a partir del análisis del proceso, ¿es aplicable a través

del tiempo a la realidad del día a día?. Para ello es necesario monitorizar. En este

punto pasamos del concepto de "proceso de mejora de la calidad" al de "control de la

calidad", es decir, del esfuerzo de mejorar los procesos al de mantenerlos estables y

predecibles en los niveles de mejora conseguidos. La función del control será hallar los

primeros indicios de zozobra y descubrir aquellas causas de variación impredecibles.

Delimitar el campo de actuación

Identificar aspectos importantes

Construir los indicadores

Establecer límites de

control

Recoger

datos

Proceso fuera de control

Análisis del

proceso

Intervención para la

mejora

Proceso controlado

Josep Davins © Calidad 2011. Indicadores 9

Herramientas para la monitorización: el indicador

La monitorización se realiza mediante unos parámetros denominados indicadores que

son criterios o normas con los que se compara una actuación o proceso.

Los indicadores son valores que miden el nivel de calidad alcanzado en un producto o

proceso determinado a lo largo del tiempo. Sirven para seguir la evolución del nivel de

calidad de una forma cuantificada y objetiva. De esta forma se puede saber si se está

mejorando, o al contrario, no se obtienen buenos resultados. Es necesario establecer

unos objetivos de calidad para poder comparar la evolución de los indicadores. Es

aconsejable que los objetivos sean alcanzables (para evitar frustraciones) pero

también estimulantes (que alcanzarlos requiera cierto esfuerzo). Tienen la ventaja de

la objetividad y el inconveniente de la subjetividad.

Es necesario identificar una medida fiable (indicador) de la evolución del problema que

se está tratando. Se deben establecer los procedimientos de medida, la periodicidad,

cómo se presentan los resultados a lo largo del tiempo y a quién distribuir esta

información. Se determina un umbral o estándar que debe cumplir el indicador. En

caso de incumplimiento, nos indica una posible oportunidad de mejora que requerirá

un análisis más profundo.

La evolución del indicador en el tiempo nos indicará la existencia, o no, de un proceso

estable, y nos alertará cuando pueda estar produciéndose una causa extrasistémica

(externa al sistema o proceso analizado) que dispare la actividad del indicador.

Cada proceso tiene un porcentaje de errores como consecuencia de sus

características. En estas ocasiones, para conseguir mejorar se debe revisar el proceso,

en su globalidad.

INDICADORES EN UN SISTEMA DE MONITORIZACIÓN: FASES

Como en todas las actividades de mejora de la calidad, la implicación directa de los

profesionales responsables de la atención en el diseño y puesta en marcha del sistema

de monitorización es fundamental para su efectividad1-3,10,11. Favorece la mayor

fiabilidad, utilidad y validez del indicador, la aceptación del sistema de monitorización

y que la mejora de calidad sea real y permanente11.

El sistema de monitorización debe ser completo por lo que el proceso de diseño y

construcción de los indicadores debe seguir las siguientes fases y actividades (figura

2).

1. Delimitar el campo de actuación: ¿Qué hacemos en nuestro CS?

En primer lugar, debemos conocer que servicios prestamos o, a quien van dirigidos los

indicadores que vamos a construir. Se debe definir el espectro general de la atención

que abarca el CS. En otras palabras, hay que saber con exactitud que se supone que

debemos hacer en el CS, lo que nos llevará a realizar un inventario de funciones. Este

inventario debe incluir los tipos de atención dispensada (medicina general, pediatría,

odontología, etc.), el tipo de pacientes (edad, sexo, grupos de riesgo, etc.), el tipo de

profesionales implicados (médicos, diplomados de enfermería, asistentes sociales,

etc.), los sucesos más frecuentes (atención al niño sano, al embarazo, a pacientes

Josep Davins © Calidad 2011. Indicadores 10

crónicos, etc.), los lugares en que se presta la atención (atención domiciliaria,

atención urgente, etc.) y los horarios de ésta (atención continuada, programada,

etc.)1. Este listado nos permitirá determinar los aspectos más importantes de la

atención prestada, para escoger de entre ellos, los que nos interesa monitorizar.

Aunque la atención proporcionada a la población por los CS es, básicamente, siempre

la misma, existen algunas diferencias, tanto en algún tipo de atención concreta, como

en los profesionales que se ocupan de ella. Por ejemplo, los médicos de cabecera de

zonas rurales pueden ocuparse de la atención a la embarazada, de la planificación

familiar o de la atención a niños, mientras que en áreas urbanas la atención a la

mujer se realiza con frecuencia, no sólo por profesionales diferentes, sino en una

ubicación física separada y, en ocasiones, por una institución ajena, y la atención a los

niños es responsabilidad de los pediatras. Así, los médicos rurales deberán

preocuparse de mejorar su efectividad en la atención a la embarazada, mientras que

los urbanos deberán monitorizar la continuidad de la atención entre ellos y el obstetra.

2 Identificar los aspectos importantes:¿Qué es lo más importante de todo lo que hacemos?

Una vez definido el campo de actuación debemos identificar aquellos aspectos que

tengan un mayor impacto en la atención recibida por la población. Hemos de tener en

cuenta que el número de actividades que se realizan en un CS es elevado. Por ello,

hemos de decidirnos por aquellas que nos darán mayor información respecto a las

oportunidades de mejora.

La selección de los aspectos más importantes de la atención puede hacerse en base a

los siguientes criterios12:

2.1. Volumen: ¿Qué actividades se llevan a cabo con tanta frecuencia que

queremos estar seguros de que se realizan bien?

Son los aspectos que comportan un gran volumen de trabajo, ya porque se realizan a

menudo, o porque afectan a un número importante de clientes. Son ejemplos de

aspectos de gran volumen la detección y control de la hipertensión, la comunicación

entre niveles asistenciales, la accesibilidad a la atención urgente, las vacunaciones, la

atención al niño sano, la prescripción farmacológica.

2.2. Riesgo: ¿Qué actividades tienen un impacto potencial tan importante en

los clientes que un error en ellas sería muy grave?

Son los aspectos que comportan un alto riesgo para los clientes si no se realizan de

forma adecuada o efectiva, o si, a pesar de ello, tienen un riesgo intrínseco en sí

mismos. Por ejemplo, la accesibilidad a la atención urgente, el manejo del dolor

torácico, la prevención del SIDA, la prevención del cáncer son aspectos de la atención

con riesgo para el cliente.

2.3. Complejidad: ¿Qué actividades son tan complejas que son propensas a

presentar problemas?

Son los aspectos que han ocasionado problemas anteriormente, que sabemos que no

se están haciendo lo mejor posible o que suelen ser problemáticos en todas partes.

Por ejemplo, la comunicación entre niveles, la atención urgente, la atención

domiciliaria y el registro en la historia clínica pueden ser aspectos propensos a

presentar problemas.

Josep Davins © Calidad 2011. Indicadores 11

Si bien es cierto que cada CS debe construir un sistema de monitorización a su

medida, existen algunas actividades que, sin lugar a dudas, deben monitorizarse, ya

que forman parte muy importante de las características o funciones de la atención

primaria. Entre ellas destacan las actividades de prevención, la prescripción

farmacológica, el seguimiento de pacientes con patología crónica, la atención al niño

sano, la atención domiciliaria, la atención urgente, el trato y satisfacción del cliente, la

accesibilidad y la continuidad de la atención.

3. Identificar indicadores: ¿Qué utilizaremos como medida para cada aspecto identificado e importante de la atención?

Una vez delimitado nuestro campo de actuación y los aspectos más importantes en

que trabajamos podremos empezar a definir y desarrollar los indicadores, como

medida indirecta de la calidad o sistema de alarma que nos señala que aspectos

requieren un estudio en profundidad.

Antes de empezar la recogida de datos, deberá establecerse por parte del personal

responsable, el límite a partir del cual se disparará la señal de alarma. Para ello

utilizaremos el control estadístico de la calidad (capítulo III.3). Cuando no se dispone

de datos o su obtención es demasiado compleja, se puede utilizar la opinión de

expertos, la experiencia de otros centros o los datos de la literatura, si bien, corremos

el riesgo de fijar un umbral inadecuado en nuestro CS.

Cuando no se esté dentro de los límites preestablecidos, se evaluará el proceso y se

identificarán los problemas y oportunidades de mejora y se emprenderán los cursos

de acción consiguientes. Después de un período de tiempo, se volverá a medir el

proceso para comprobar que las medidas correctoras han surtido el efecto deseado

(figura 2).

El proceso de medida y mejora de la calidad no finalizará una vez se hayan puesto en

práctica las oportunidades de mejora, sino que seguirá su curso con el fin de detectar

nuevas desviaciones o la repetición de las mismas deficiencias en el futuro.

3.1. Construcción de un indicador: Información básica y especificaciones

para la medición de indicadores.

Para la construcción de indicadores es útil el esquema propuesto por la JCAHO3

detallado en la tabla 3. Este nos permite conocer previamente a la utilización del

indicador lo que, en realidad, estamos midiendo y la potencialidad de mejora que

ofrece. Esta forma sistemática de abordar la construcción de un indicador aporta

mayor claridad sobre aspectos del indicador que, de otra forma, pasarían inadvertidos

y consigue que podamos darnos cuenta de posibles errores, tanto en la fiabilidad

como en la validez aparente. Además, un formato como éste permite intercambiar

indicadores con otros CS con la seguridad de que serán comprendidos.

Josep Davins © Calidad 2011. Indicadores 12

Partes que componen el diseño de un indicador

Formato para la construcción de un indicador según la Joint Commission3

Aspecto y criterio de calidad que mide:

I. Enunciado del indicador

II. Definición de los términos

III. Tipo de indicador

IV. Base del razonamiento

A: Validez aparente

B: Bibliografía

C:Componentes de la atención valorados

V. Descripción de la población del indicador

A. Subcategorías

B. Lógica del indicador

C. Formato de los datos

VI Fuentes para la recogida de los datos

VII. Factores responsables

A. Factores dependientes del cliente

B. Factores no dependientes del cliente

1.- Factores del profesional

2.- Factores de la organización

VIII. Bases de datos existentes

Enunciado inicial del indicador.

Describe la actividad o suceso a monitorizar. Es importante basarse en un criterio de

calidad consensuado. El enunciado debe ser simple, claro, concreto y objetivo.

Si decidimos monitorizar el campo de la atención al paciente drogodependiente y el

aspecto de la prevención de infecciones un posible indicador es: “pacientes usuarios

Josep Davins © Calidad 2011. Indicadores 13

de drogas por vía parenteral (UDVP), no portadores del virus de la hepatitis B,

correctamente inmunizados”.

Definición de términos.

Los términos que se utilizan en el enunciado del indicador que no resultan del todo

claros y son susceptibles de diferentes interpretaciones deben ser detallados y

definidos con precisión para evitar cometer errores en la fase de recogida de datos.

En el ejemplo anterior, debemos definir “inmunización correcta” (dosis completa de la

vacuna contra la hepatitis B administrada en tres dosis, inicial, al mes y a los 6

meses) y “no portador” (serología antihepatitis B negativa).

Identificación del tipo de indicador.

Determina el tipo de suceso según su valoración o signo (deseable o no deseable),

gravedad (centinela o basado en una proporción) y tipo de datos monitorizado

(proceso o resultado).

El indicador sobre atención al drogodependiente utilizado como ejemplo es deseable,

basado en una proporción y de proceso.

Base del razonamiento.

Describe la base de la validez aparente del indicador y su utilidad como medida de

calidad en el aspecto de la atención que queremos monitorizar. Incluye las referencias

bibliográficas y los componentes de la calidad que mide el indicador, ponderados

según su importancia.

En el ejemplo utilizado, el indicador monitoriza un aspecto de riesgo para el paciente y

complejo o propenso a presentar problemas, como es la prevención de infecciones en

UDVP. La utilidad del indicador se basa en el conocimiento de que los pacientes UDVP

forman parte del grupo de conductas de riesgo de infección por el virus de la hepatitis

B y de la evidencia científica de su prevención mediante inmunización. Los

componentes de la calidad valorados por el indicador son la continuidad, la efectividad

y la adecuación.

Descripción de la población del indicador.

Define la población objetivo del indicador, indicando si es necesario establecer

subcategorías, según diversas características como edad, sexo, tipo de visita, etc.

Esto nos permite obtener grupos más homogéneos y realizar un ajuste por estas

variables al introducirlas de forma directa en el indicador.

Se describe la lógica del indicador o secuencia a seguir para localizar la población y

obtener la información requerida por el indicador, así como el formato definitivo. En el

caso de un indicador basado en una proporción, debemos definir la población del

numerador (que coincide con el enunciado del indicador) y la del denominador

(población objetivo del indicador).

Josep Davins © Calidad 2011. Indicadores 14

En el indicador del ejemplo se puede subcategorizar según si los pacientes UDVP

están incluidos o no, en el programa específico de atención al drogodependiente (en el

caso de que exista en el CS).

La lógica del indicador será localizar el número de historia, nombre y apellidos de los

pacientes UDVP mediante la base de datos del registro de factores de riesgo y el

registro de pacientes pertenencientes al programa de atención al drogodependiente

(siempre que éstos existan, sean informatizados o no). Luego se debe comprobar en

la historia o en un sistema de registro específico de la vacunación de la hepatitis B, el

estado inmunitario de estos pacientes.

El formato del indicador ejemplo es:

UDVP no portadores del virus de la hepatitis B, correctamente inmunizados

UDVP no portadores del virus de la hepatitis B

Fuente de los elementos de los datos.

Lista y enumera todos los datos que se necesitan con la fuente de información para

cada uno de ellos.

En el ejemplo, los pacientes UDVP se obtendrán del registro de factores de riesgo y

del programa de atención al drogodependiente; el estado inmunitario (portador del

virus de la hepatitis B y administración de las tres dosis de vacuna) de la historia

clínica y del registro específico de vacunaciones.

Factores responsables.

Tratan de identificar los factores más importantes que pueden producir variaciones en

la actividad del indicador. Estos factores pueden depender del cliente, de la

organización, del profesional o de factores externos.

Para la determinación de los factores responsables se puede utilizar el diagrama

causa-efecto de Ishikawa13,14 (capítulo II.2.).

Los factores externos y los dependientes del cliente (edad, sexo, comorbilidad y

severidad de la enfermedad, cumplimiento, cultura, actitud) son más complicados de

mejorar. Cuantos menos factores de este tipo modifiquen la actividad del indicador,

más oportunidades de mejora tendremos si se altera, por lo que el indicador será más

válido.

Los factores que dependen de la organización y del profesional son en realidad el

objetivo de la monitorización. Si se altera el indicador, estos factores orientan hacia

dónde debemos dirigir las actividades de mejora.

En el ejemplo, como factores dependientes del cliente están la negativa a la

administración de la vacuna, el incumplimiento de las visitas, la ausencia del paciente

por cambio de domicilio, encarcelamiento o desaparición y la coexistencia de

enfermedad severa o terminal. Como factores dependientes del profesional están el

desconocimiento de la indicación de la vacuna, la actitud ante la medida preventiva y

la actitud ante este tipo de pacientes. Como factores de la organización están la falta

de la vacuna, la complejidad del circuito para la vacunación, la falta de protocolo de

Josep Davins © Calidad 2011. Indicadores 15

actuación, la falta de métodos recordatorios o de recaptación de incumplidores, el

infrarregistro en la historia clínica, etc.

Si alguno de los factores que dependen del cliente tiene un impacto importante en la

variabilidad del indicador es necesario introducir este factor en el enunciado del

indicador con el objetivo de aumentar la validez de éste. Así, en el ejemplo, si se diera

el caso que una parte importante de los pacientes UDVP no residen en nuestra zona o

son portadores de enfermedad terminal deberíamos modificar el enunciado del

indicador de la siguiente manera: “pacientes usuarios de drogas por vía parenteral

(UDVP), no portadores del virus de la hepatitis B, residentes en el ámbito de nuestro

CS, que no presentan enfermedad terminal y están correctamente inmunizados”.

Para este nuevo enunciado se debe identificar la fuente de los datos de los factores

introducidos. Deberíamos comprobar la residencia mediante contacto telefónico,

postal o personal y la presencia de enfermedad terminal en la historia.

Bases de datos existentes.

Indica si existen bases de datos conocidas sobre el indicador, externas o del propio

centro. Estas nos pueden aproximar a una valoración inicial del posible

comportamiento del indicador. En el ejemplo se pueden utilizar estudios de evaluación

previos sobre inmunización en pacientes UDVP, propios o de otros CS.

Josep Davins © Calidad 2011. Indicadores 16

Validación de un indicador

Validación y análisis de los indicadores

La utilidad de un indicador como sistema de medida viene determinada por el análisis

de su validez (sensibilidad y especificidad)3 y fiabilidad. Este análisis debe realizarse

de forma sistemática durante el proceso de construcción del indicador, con el objetivo

de poder mejorarlo antes de su implementación generalizada. Al igual que no

utilizaríamos un test diagnóstico sin conocer su sensibilidad y especificidad, no

debemos emplear indicadores sin probarlos previamente.

Los indicadores con poca fiabilidad y validez aportan información confusa, irrelevante

e inútil y consumen recursos organizativos que podrían ser utilizados para otras

actividades.

Tabla: Validez, precisión y fiabilidad

• Validez (ausencia de error sistemático; sesgos)

– Interna (exactitud con la población estudiada)

– Externa (generalización a otras poblaciones)

• Sesgo de selección (diseño, selección, pérdidas,

supervivencia...)

• Sesgo de clasificación

• Sesgo de observación o información (recuerdo, entrevistador

• Factores de confusión

• Precisión (ausencia de error debido al azar)

– Depende del tamaño de la muestra. A más muestra, intervalos de

confianza más precisos.

• Fiabilidad: reproducibilidad

La validez y la fiabilidad de un indicador están interrelacionadas. El grado de validez

depende, en parte, del grado de fiabilidad para identificar oportunidades de mejora.

La validez de un indicador es el grado en que una situación o instrumento de medida,

mide lo que realmente pretende o quiere medir (“exactitud”).

Tipos de validez

• Validez de constructo: Alude a la relación existente entre el indicador y el

constructo teórico o conceptual que mide éste. Es decir, la relación conceptual

que mide el indicador se corresponde con lo que se quiere medir.

• Validez de criterio: Es una comparación entre nuestra situación de medida y la

situación real (o más exacta posible) al que se le llama “gold estandard”.

• Validez de criterio concurrente.

• Validez de criterio predictivo.

• Validez de contenido: grado en que el indicador refleja el concepto o variable

medida (adecuada revisión bibliogràfica).

• Validez aparente (face validity): Es el grado en que una situación de medida

parece que es válida desde el punto de vista del observado.

Josep Davins © Calidad 2011. Indicadores 17

En muchas ocasiones, en atención primaria no se dispone de la información necesaria

o es muy difícil, complejo y costoso obtenerla, para probar de forma científica la

validez y fiabilidad de un indicador. Por ello, la JCAHO3 aconseja confiar en la validez

aparente (face validity), basada en la opinión de los profesionales que utilizarán la

información resultante, según la cual el indicador tiene sentido y parece que cumple

su propósito.

En el caso de la fiabilidad, debemos intentar su estudio y valorar siempre si el

esfuerzo requerido para ello no sobrepasa el resultado que vamos a obtener. En la

mayoría de indicadores será más eficiente realizar una prueba piloto y valorar hasta

que punto identifica los casos que realmente requieren una revisión y hasta que punto

nos es útil para mejorar la calidad de la atención.

Validez

Validez. Se define como el grado en que el indicador identifica sucesos que merecen

una revisión más profunda, ya que la mejora es posible3. El estudio de la validez

cuantifica la capacidad del indicador para identificar problemas de calidad u

oportunidades de mejora reales.

En el caso de un indicador centinela, podemos establecer su validez si analizamos el

grado de concordancia entre todos los casos identificados y los que precisaban en

realidad un estudio más detallado. Cuanto mayor grado de concordancia, más válidez

tendrá el indicador.

En el caso de un indicador basado en una proporción, es necesario analizar una

muestra de los casos a revisar y averiguar si realmente son útiles para mejorar la

calidad. El indicador “pacientes con tratamiento antibiótico de segunda elección”,

tendrá poca validez si en nuestra población existen muchos casos de alergia o

excepción al antibiótico de primera elección. El indicador detectará muchos casos que

no son problema.

Cuando un indicador no tiene una validez aceptable, debemos averiguar el motivo. Un

indicador tendrá poca validez si depende en gran parte de factores no controlables por

nosotros, entre los que destacan los factores dependientes del cliente (que pueden

explicar por sí solos el suceso, sin que exista un problema de calidad real).

El no tener en cuenta algunas circunstancias que pueden justificar una actividad que

no siga la norma (excepciones) nos puede determinar también la poca validez de un

indicador. Como ejemplo, el indicador “mujeres que se han realizado una mamografía

en el CS en los dos últimos años” tendrá poca validez pues identificará muchos casos

de pacientes que se realizan la exploración en servicios privados alternativos, sin que

representen un problema de calidad real. El indicador aumentaría su validez al

definirlo como “mujeres que consta en su historia clínica la realización de una

mamografía, sea en el CS o en otros servicios alternativos, en los dos últimos años”.

Otro motivo frecuente de falta de validez de un indicador es la poca fiabilidad de los

datos, ya por deficiencias en la definición de los términos contenidos en el enunciado

(numerador), por la falta de una definición clara de la población monitorizada por el

indicador (denominador), por problemas en la disponibilidad de los datos o por

errores producidos en su recogida.

Josep Davins © Calidad 2011. Indicadores 18

El análisis de la validez de criterio cuantifica la capacidad del indicador para identificar

los casos que requieren ser revisados entre todos aquellos a riesgo de ser

identificados.

La validez de un indicador está directamente relacionada con la calidad de los datos

requeridos por éste.

El análisis de la validez de criterio de un indicador que mide una variable dicotómica

(que es el caso de la mayoría de los indicadores de calidad asistencial) comprende el

estudio, en conjunto, de la sensibilidad y la especificidad.

Cuando es indicador es sobre una variable continuas se realiza mediante el coeficiente

de correlación de Pearson entre nuestra medida real y la del indicador.

Sensibilidad. Es el grado en que el indicador es capaz de identificar todos aquellos

casos en que existe un problema real de calidad o verdadero positivo. Un indicador

muy sensible identificará pocos falsos negativos.

El indicador “pacientes con sospecha de neoplasia seguidos antes de tres meses desde

la sospecha” no identificará los casos que han tardado más de dos meses y menos de

tres (falsos negativos). Para aumentar la sensibilidad debemos disminuir el período de

seguimiento, por ejemplo, a 15 días.

Especificidad. Es el grado en que el indicador es capaz de identificar sólo aquellos

casos en que existe un problema real de calidad, es decir, un indicador muy específico

identificará pocos falsos positivos. En cambio, un indicador poco específico detectará

como problemáticos casos que, en realidad, no lo son.

El indicador “pacientes a los que se ha prescrito antibiótico para un catarro de vías

altas” es poco específico ya que detecta muchos casos de pacientes con broncopatía y

cardiopatía en los que podría estar indicado el tratamiento antibiótico. Si añadimos al

enunciado del indicador la condición “que no presenten enfermedad cardio-pulmonar”,

aumentamos su especifidad.

Para el estudio de la fiabilidad debemos revisar una muestra de los casos identificados

por el indicador para cuantificar los verdaderos positivos y una muestra de los no

identificados para cuantificar los verdaderos negativos. Así obtendremos la relación

entre sensibilidad y especificidad, es decir, la fiabilidad:

Verdaderos positivos + Verdaderos negativos

Verdaderos positivos + Verdaderos negativos + Falsos positivos + Falsos negativos

Al igual que con la validez, debemos examinar los motivos que determinan la

falta de fiabilidad que, habitualmente, se centran en la calidad de los datos: falta de

precisión de los elementos del indicador; gran variabilidad en la recogida de los datos;

falta de accesibilidad a los datos; errores en la codificación; errores en la entrada de

datos; deficiencias en la construcción de la hoja de recogida de datos.

Fiabilidad.

Fiabilidad es la consistencia interna de la medida, entendida como equivalencia. No es

del instrumento sino de la situación de cómo mide este instrumento.

Se pueden medir tres aspectos, si bien, en calidad, el más utilizado es el primero:

1.- Fiabilidad como equivalencia entre observadores Índice kappa de concordancia:

Josep Davins © Calidad 2011. Indicadores 19

K = Po – Pe / 1 – Pe

2.- Fiabilidad del test-retest (reproducibilidad).

3.- Fiabilidad como consistencia interna (α DE Cronbach).

¿Cómo mejorar la validez y fiabilidad de un indicador?

Una vez identificados los motivos de falta de validez o fiabilidad del indicador debemos

preguntarnos si éstos son solucionables.

En general, para aumentar la validez y fiabilidad de un indicador podemos redefinir el

indicador, delimitar la población, evitar imprecisiones en sus términos, aclarar el

circuito de información y la lógica del indicador, revisar la hoja de recogida de datos,

tener en cuenta los factores dependientes del cliente y las excepciones al indicador,

etc. Cuando esto no es posible, debemos pensar en la construcción de un nuevo

indicador.

Los motivos de falta de validez y fiabilidad de los indicadores se encuentran, con

frecuencia, en el proceso de recogida de datos. Así pues, es esencial que este proceso

se realice de manera coordinada e integrada por todos los servicios o estamentos

afectados por el indicador y se disponga de sistemas de registro adecuados y

completos. Para que los profesionales entiendan la importancia de registrar toda la

actividad que realizan es esencial implicarles en su propia monitorización.

Para cada indicador debe determinarse la fuente de datos, el tamaño de la muestra, el

método de recogida de información, la frecuencia con que debe realizarse y el

responsable de esta recogida.

Sobre la fuente de datos, debemos evitar la creación de nuevos registros. Al iniciar las

actividades de monitorización en un CS suele ser más sencillo utilizar las historias

clínicas como fuentes de datos. También podemos utilizar otros sistemas de registro

existentes en el CS. Sin embargo, para aspectos de la calidad como la satisfacción

será necesario obtener información mediante cuestionarios u otros sistemas de

información.

>0.70

>0.90 Bueno

Aceptable

Valoración del índice α

Valor de α Fuerza

>0.70

>0.90 Bueno

Aceptable

Valoración del índice α

Valor de α Fuerza

Josep Davins © Calidad 2011. Indicadores 20

Conceptos estadísticos relacionados con la medida de

la calidad

En función de lo que nos interese medir deberemos utilizar diferentes técnicas o

herramientas estadísticas que seguidamente se detallan, sin pretender realizar un

exhaustivo curso de estadística, para lo que emplazamos al lector a los tratados y

bibliografía recomendada al final del capítulo.

• Evaluación (estimación) del nivel de calidad:

• Estadística descriptiva:

– proporciones,

– medias y

– sus intervalos de confianza

• Reevaluación tras intervenir:

• Comparar proporciones ( 2) de dos evaluaciones

• Comparar medias de dos evaluaciones (t de Student)

• Monitorización:

• Nivel de cumplimiento medido de forma sucesiva

• Aceptación o rechazo sin estimar el nivel de cumplimiento

(LQAS)

• Comprobación de causas

• Dos cuantitativas continuas:

– Correlación de Pearson

– Correlación no paramétrica de Sperman

• Cuantitativa y categórica

– Análisis de la varianza (ANOVA)

– Comparar medias (t de Student)

– U de Mann-Whitney

• Dos categóricas:

– Comparar proporciones ( 2)

• Métodos de representación gráfica

• Diagramas de cajas (blox-spot)

• Diagrama de sectores

• Diagrama de Pareto

• Gráfico lineal

• Gráfico de estrella o de radar

Josep Davins © Calidad 2011. Indicadores 21

Estimación del nivel de calidad: estadística descriptiva

Para estimar el nivel de calidad de un requisito o criterio se utiliza la estadística

descriptiva, y en especial, el cálculo de proporciones o de una media.

La estadística descriptiva es una ciencia que analiza series de datos (por ejemplo,

edad de una población) y trata de extraer conclusiones sobre el comportamiento de

estas variables. En calidad estas variables se miden con los indicadores.

Las variables pueden ser de dos tipos:

• Variables cualitativas o atributos: no se pueden medir numéricamente

(por ejemplo: nacionalidad, color de la piel, sexo).

• Variables cuantitativas: tienen valor numérico (edad, precio de un producto,

ingresos anuales).

Por su parte, las variables cuantitativas se pueden clasificar en discretas y

continuas:

• Discretas: sólo pueden tomar valores enteros (1, 2, 8, -4, etc.). Por ejemplo:

número de hermanos (puede ser 1, 2, 3....,etc, pero, por ejemplo, nunca

podrá ser 3,45).

• Continuas: pueden tomar cualquier valor real dentro de un intervalo. Por

ejemplo, la velocidad de un vehículo puede ser 80,3 km/h, 94,57 km/h...etc.

En el proceso de medición de estas las variables cualitativas, se pueden utilizar dos

escalas:

• Escalas nominales: ésta es una forma de observar o medir en la que los datos se

ajustan por categorías que no mantienen una relación de orden entre sí (color de

los ojos, sexo, profesión, presencia o ausencia de un factor de riesgo o

enfermedad, etcétera).

• Escalas ordinales: en las escalas utilizadas, existe un cierto orden o jerarquía

entre las categorías (grados de disnea, estadiaje de un tumor, etcétera).

Una vez que se han recogido los valores que toman las variables de nuestro estudio

(datos), procederemos al análisis descriptivo de los mismos. Para variables

categóricas, como el sexo o el estadiaje, se quiere conocer el número de casos en

cada una de las categorías, reflejando habitualmente el porcentaje que representan

del total, y expresándolo en una tabla de frecuencias.

Para variables numéricas, en las que puede haber un gran número de valores

observados distintos, se ha de optar por un método de análisis distinto, respondiendo

a las siguientes preguntas:

a. ¿Alrededor de qué valor se agrupan los datos?

b. Supuesto que se agrupan alrededor de un número, ¿cómo lo hacen? ¿muy

concentrados? ¿muy dispersos?

Medidas de posición: tendencia central y no central

Las principales medidas de posición central son las siguientes:

1.- Media: es el valor medio ponderado de la serie de datos. La media

aritmética se calcula multiplicando cada valor por el número de veces que se

Josep Davins © Calidad 2011. Indicadores 22

repite. La suma de todos estos productos se divide por el total de datos de la

muestra.

2.- Mediana: es el valor de la serie de datos que se sitúa justamente en el

centro de la muestra (un 50% de valores son inferiores y otro 50% son

superiores).

3.- Moda: es el valor que más se repite en la muestra.

Las medidas de posición no centrales permiten conocer otros puntos característicos de

la distribución que no son los valores centrales. Entre otros indicadores, se suelen

utilizar una serie de valores que dividen la muestra en tramos iguales:

1. Cuartiles: son 3 valores que distribuyen la serie de datos, ordenada de

forma creciente o decreciente, en cuatro tramos iguales, en los que cada

uno de ellos concentra el 25% de los resultados.

2. Deciles: son 9 valores que distribuyen la serie de datos, ordenada de

forma creciente o decreciente, en diez tramos iguales, en los que cada uno

de ellos concentra el 10% de los resultados.

3. Percentiles: son 99 valores que distribuyen la serie de datos, ordenada de

forma creciente o decreciente, en cien tramos iguales, en los que cada uno

de ellos concentra el 1% de los resultados.

Medidas de dispersión

Estudia la distribución de los valores de la serie, analizando si estos se encuentran

más o menos concentrados, o más o menos dispersos.

Existen diversas medidas de dispersión, entre las más utilizadas podemos destacar

las siguientes:

1.- Rango: mide la amplitud de los valores de la muestra y se calcula por diferencia

entre el valor más elevado y el valor más bajo.

2.- Varianza: Mide la distancia existente entre los valores de la serie y la media. Se

calcula como sumatorio de las difrencias al cuadrado entre cada valor y la media,

multiplicadas por el número de veces que se ha repetido cada valor. El sumatorio

obtenido se divide por el tamaño de la muestra.

La varianza siempre será mayor que cero. Mientras más se aproxima a cero, más

concentrados están los valores de la serie alrededor de la media. Por el contrario,

mientras mayor sea la varianza, más dispersos están.

3.- Desviación típica: Se calcula como raíz cuadrada de la varianza.

Como medidas de variabilidad más importantes, conviene destacar algunas

características de la varianza y desviación típica:

Josep Davins © Calidad 2011. Indicadores 23

• Son índices que describen la variabilidad o dispersión y por tanto cuando los

datos están muy alejados de la media, el numerador de sus fórmulas será

grande y la varianza y la desviación típica lo serán.

• Al aumentar el tamaño de la muestra, disminuye la varianza y la desviación

típica. Para reducir a la mitad la desviación típica, la muestra se tiene que

multiplicar por 4.

• Cuando todos los datos de la distribución son iguales, la varianza y la

desviación típica son iguales a 0.

• Para su cálculo se utilizan todos los datos de la distribución; por tanto,

cualquier cambio de valor será detectado.

4.- Coeficiente de varización de Pearson: se calcula como cociente entre la

desviación típica y la media. El interés del coeficiente de variación es que al ser un

porcentaje permite comparar el nivel de dispersión de dos muestras. Esto no ocurre

con la desvación típica, ya que viene expresada en las mismas unidas que los datos

de la serie.

Coeficiente de correlación lineal

En una distribución bidimensional (dos variables) puede ocurrir que las dos variables

guarden algún tipo de relación entre si.

Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy

posible que exista relación entre ambas variables: mientras más alto sea el alumno,

mayor será su peso.

El coeficiente de correlación lineal mide el grado de intensidad de esta posible

relación entre las variables. Los valores que puede tomar el coeficiente de

correlación "r" son: -1 < r < 1

Si "r" > 0, la correlación lineal es positiva (si sube el valor de una variable sube el de

la otra). La correlación es tanto más fuerte cuanto más se aproxime a 1.

Por ejemplo: altura y peso: los alumnos más altos suelen pesar más.

Si "r" < 0, la correlación lineal es negativa (si sube el valor de una variable

disminuye el de la otra). La correlación negativa es tanto más fuerte cuanto más se

aproxime a -1.

Por ejemplo: peso y velocidad: los alumnos más gordos suelen correr menos.

Si "r" = 0, no existe correlación lineal entre las variables. Aunque podría existir otro

tipo de correlación (parabólica, exponencial, etc.)

De todos modos, aunque el valor de "r" fuera próximo a 1 o -1, tampoco esto quiere

decir obligatoriamente que existe una relación de causa-efecto entre las dos variables,

ya que este resultado podría haberse debido al puro azar.

Josep Davins © Calidad 2011. Indicadores 24

Intervalos de confianza

Toda determinación de un parámetro en una muestra tiene una precisión que

depende del tamaño de ésta. A más tamaño, más precisión.

Se puede calcular un intervalo que tenga el 95% de probabilidades de contener el

valor real de la población, con un error debido al azar de un 5%. A éste se le

denomina intervalo de confianza al 95%.

Existen calculadoras estadísticas que facilitan su cálculo.

En un indicador, mediante una muestra determinaremos un valor concreto, que en

función del tamaño de la muestra, puede variar alrededor de esta determinación en

un grupo de valores más o menos amplio. Mediante diferentes calculadoras

estadísticas se nos facilita el cálculo de esta precisión, mediante el cálculo de los

intervalos de confianza.

Medida del nivel de calidad como mejora: contraste de hipótesis.

En este caso se trata de comparar dos valores de medición para concluir si el según

valor es o no significativamente mejor que el primero.

En caso de tratarse de variables categóricas se realiza como test el 2 y para las

cuantitativas, el test de la t de Student. Su cálculo, mediante programas como el

SPSS resulta fácil.

Medidas con muestras pequeñas y rápidas: muestreo por lotes

Entendemos por monitorización la medición sistemática, repetida y planificada de

indicadores de calidad; una actividad conducente a controlar que estamos a unos

niveles preestablecidos y que tiene como objetivo identificar la existencia o no de

situaciones problemáticas que hay que evaluar o sobre las que hay que intervenir. Los

indicadores a monitorizar pueden derivarse de ciclos de mejora, de actividades de

diseño de los servicios, o ser fruto de una selección de aspectos o servicios relevantes

cuya calidad nos interesa controlar. El interés que podamos tener en una estimación

del nivel de calidad existente y la periodicidad de medición son decisiones de

importancia para la elección de los métodos para monitorizar.

El muestreo de aceptación de lotes (LQAS) y el control estadístico (gráfico) de la

calidad son métodos originados y desarrollados en la industria, que pueden resultar de

gran utilidad para la monitorización en servicios de salud si renunciamos a tener una

estimación del nivel de cumplimiento de los indicadores y nos centramos en el

conocimiento de la existencia o no (aceptación/rechazo) de unos niveles de

cumplimiento preestablecidos. El control estadístico de la calidad precisa de

mediciones frecuentes, (mínimo mensuales) para ser útil, mientras que el LQAS y

otros métodos de evaluación rápida basados en la distribución binomial pueden ser

aplicados a planes de mediciones más espaciadas. La práctica de monitorización

utilizando LQAS, aún poco extendida en los servicios de salud, es, sin embargo, muy

sencilla; sólo precisa en última instancia entender y manejar unas tablas ya

Josep Davins © Calidad 2011. Indicadores 25

construidas para fijar cuál es el número máximo de incumplimientos del indicador que

es aceptable en una muestra determinada (y normalmente pequeña) para aceptar a

su vez un determinado nivel de cumplimiento del indicador. En este artículo se revisan

los fundamentos estadísticos y el detalle de las implicaciones prácticas del uso de la

distribución binomial y del LQAS en la monitorización de servicios de salud.

Cuando la variable que mide el indicador es de tipo dicotómico (presencia/ausencia de

una determinada cualidad), como ocurre en la mayoría de los indicadores de calidad

que se construyen en los servicios de salud, la utilización de las probabilidades de la

distribución binomial nos proporciona una forma rápida y eficiente de decidir si

estamos o no ante una situación problemática, utilizando un tamaño de muestra

relativamente pequeño (máximo 30 casos).

Supongamos que para un determinado indicador de interés, nuestro estándar

histórico de cumplimiento se sitúa en el 85%. Sin embargo, en la actualidad,

sospechamos que no estamos a ese nivel. Nos interesa saber si la situación es o no

problemática para decidir si debemos o no evaluar qué está pasando, o intervenir

sobre ella. Una opción sería realizar un muestreo aleatorio suficientemente grande y

estimar el nivel al que nos encontramos. Sin embargo, nos puede resultar

conveniente considerar si nuestra situación cumple los requisitos en los que es

aplicable la distribución binomial, a saber:

• Lo que se evalúa (el indicador) tiene sólo dos valores posibles (cumple/no

cumple).

• Cada una de las unidades de estudio (casos a evaluar)es independiente de la

otra.

• Evaluamos en una muestra aleatoria de “n” casos.

• La probabilidad general que existe de encontrar un valor u otro (cumple/no

cumple) es la misma para cada uno de los casos de la muestra.

Esta última condición se cumple siempre que el tamaño de la muestra, n, sea inferior

al 10% del universo o marco muestral de donde la hemos extraído.

Si es aplicable la distribución binomial, como ocurrirá en la gran mayoría de los casos,

podemos extraer una muestra aleatoria pero pequeña (un tamaño conveniente,

siempre menor de 30 casos) e interpretar el resultado que obtengamos en términos

de la probabilidad de que sea compatible con la existencia real del estándar.

Monitorización esporádica y sistemática utilizando la distribución binomial.

Los resultados de una evaluación puntual, esporádica, pueden ser interpretados en la

forma que lo hemos hecho con las tablas de distribución binomial, pero no sería

correcto mantener el mismo proceder como método de monitorización sistemática, o

cuando no sepamos el nivel de cumplimiento histórico, habitual, del indicador. En este

caso lo correcto sería considerar para nuestra decisión, no la probabilidad del

resultado concreto que hemos encontrado en la muestra puntual (tal como hemos

hecho) sino la probabilidad de todos los resultados posibles simultáneamente

(probabilidad acumulada), para el tamaño de muestra que hemos decidido utilizar;

establecemos de igual manera una probabilidad límite para aceptar o rechazar (que

puede seguir siendo . 0,05), pero su cálculo implica la suma de las probabilidades de

que encontremos un determinado número de incumplimientos y cualquier número de

incumplimientos inferior. Buscaríamos un número límite de incumplimientos de forma

que la probabilidad de encontrar ese número de incumplimientos o más sea . 0,05.

Sólo aceptaríamos como buenos los resultados con número de incumplimiento por

debajo de ese límite. Si en vez de incumplimientos quisiéramos valorar cumplimientos

el razonamiento es semejante aunque naturalmente, en sentido opuesto: buscaríamos

un número mínimo de cumplimientos de forma que la probabilidad de encontrar ese

Josep Davins © Calidad 2011. Indicadores 26

número o más fuese >0,95; así identificaríamos como problemático todo resultado

que tuviera un número de cumplimientos inferior al que hemos señalado como límite

para la decisión. La decisión se toma, como se ve, en función de la probabilidad

acumulada de los diversos resultados posibles. Para ello debemos utilizar las tablas de

la distribución binomial con probabilidades acumuladas.

Los parámetros que definen el plan de muestreo son el tamaño del lote, el tamaño de

la muestra a evaluar, y el número para la aceptación o número decisional, una vez

que hemos definido los estándares con relación al nivel de calidad asumido (llamados

índices de calidad en la literatura de la industria), y los riesgos (alfa y beta) del

muestreo. El tamaño del lote tiene poco efecto sobre la probabilidad de aceptación: en

general, el tamaño del lote no importa a menos que el tamaño de la muestra sea

mayor que el 10% del tamaño del lote. Sin embargo se aconseja que cuanto más

grandes sean los lotes, más pequeños deben ser los riesgos o errores admitidos para

la decisión, de forma que se minimicen las consecuencias de decisiones incorrectas.

En los servicios de salud, conviene recordar que más que el tamaño de lote, que

puede ser definido de muchas maneras (grupos poblacionales, área cubierta por

centros hospitalarios o de atención primaria, grupos de profesionales, casos ocurridos

en un determinado periodo de tiempo, tipo de paciente, etc.), a lo que siempre hay

que prestarle atención es a la homogeneidad del lote: debe estar constituido por el

mismo tipo de casos con relación a lo que se evalúa: igual que en la industria

se inspeccionan lotes del mismo producto, y no mezclas de ellos. El tamaño de la

muestra y el número decisional dependen en gran medida de la definición de los

índices de calidad y los riesgos que se acepta asumir con las decisiones. La

combinación de tamaño de muestra y número decisional más eficientes para las

características que queremos que tenga nuestro plan de monitorización, pueden

encontrarse de dos formas en la literatura de la industria en tablas y en gráficos

(Curvas de Características Operativas, Operating Characteristics Curves, OC). Tablas y

gráficos no exentos de una cierta dificultad de comprensión y manejo, pero que

podemos simplificar para nuestros propósitos entendiendo sus raíces y mecánica de

construcción. Las curvas OC representan la probabilidad de aceptación de diversos

niveles de calidad, para un determinado tamaño de muestra y número de decisión.

Hay, pues, una curva OC para cada número de decisión, una vez fijado el tamaño de

la muestra. Son, esencialmente, la representación gráfica de las probabilidades

binomiales acumuladas que corresponden a un determinado número decisional, en un

determinado tamaño de muestra, dependiendo del valor real de incumplimientos que

pueda tener el lote de donde se extrae la muestra. Las curvas OC, aunque aportan

más información y posibilitan escoger cualquier valor de los riesgos alfa y beta, son

más complicadas de usar e interpretar que las tablas, por lo cual nos centraremos en

la determinación del tamaño de muestra y número de decisión utilizando las tablas.

Bibliografía

• Sackett, D.L., Haynes, R.B., Guyatt, G.H., Tugwell, P. Epidemiología clínica.

Ciencia básica para la medicina clínica. 2ª ed. Madrid: Médica Panamericana;

1994.

• Fletcher RH., Fletcher SW., Wagner E.H. Epidemiología clínica. 2ª ed.

Barcelona: Masson, Williams & Wilkins; 1998.

• Dawson-Saunders B, Trapp RG. Bioestadística Médica. 2ª ed. México: Editorial

el Manual Moderno; 1996.

• Milton JS, Tsokos JO. Estadística para biología y ciencias de la salud. Madrid:

Interamericana McGraw Hill; 2001.

Josep Davins © Calidad 2011. Indicadores 27

• Martín Andrés A, Luna del Castillo JD. Bioestadística para las ciencias de la

salud. 4ª ed. Madrid:NORMA; 1993.

• Argimón Pallás JM, Jiménez Villa J. Métodos de investigación clínica y

epidemiológica. 2ª ed. Madrid: Harcourt; 2000.

• Sentís J, Pardell H, Cobo E, Canela J. Bioestadística. 3ª ed. Barcelona: Masson;

2003.

• Colton T. Estadística en medicina. Barcelona: Salvat; 1979.

• Armitage P, Berry G. Estadística para la investigación biomédica. Barcelona:

Doyma; 1992.

• Departamento de Medicina y Psiquiatría. Universidad de Alicante. Tratado de

Epidemiología Clínica. Madrid: DuPont Pharma; 1995.

• Altman DG. Practical Statistics for Medical Research. London: Chapman & Hall;

2004.

• Vélez R, Hernández V. Cálculo de Probabilidades I. Madrid: UNED; 1995.

• Quesada V, García A. Lecciones de Cálculo de Probabilidades. Madrid: Díaz de

Santos; 1988.

• Silva LC, Benavides A. El enfoque bayesiano: otra manera de inferir. Gac Sanit

2001; 15(4): 341-346.

• Silva LC, Suárez P. ¿Qué es la inferencia bayesiana? JANO 2000; 58: 65-66.

• Silva LC, Muñoz A. Debate sobre métodos frecuentistas vs bayesianos. Gac

Sanit 2000; 14: 482-494.

• Pértega Díaz S, Pita Fernández S. Pruebas diagnósticas. Cad Aten Primaria

2003; 10: 120-124. [Texto completo]

• Joint Commission. Quality Assurance in Ambulatory Care. Chicago: Joint

Commission on Accreditation of Healthcare Organizations, 1990.

• Joint Commission. Ambulatory Health Care Standars Manual. Chicago: Joint

Commission on Accreditation of Healthcare Organizations, 1990.

• Joint Commission. Primer on Indicator Development and Application.

Measuring Quality in Health Care. Chicago: Joint Commission on Accreditation

of Healthcare Organizations, 1990.

• Duncan R, Fleming EC, Gallati TG. Implementing a Continuous Quality

Improvement Program in a Community Hospital. QRB 1991; 17: 106-112.

• Kume H. Herramientas estadísticas básicas para el mejoramiento de la calidad.

Serie Desarrollo Gerencial. Barcelona: Parramón-Norma, 1992.

• Vachette JL. Mejora Continua de la Calidad. Control Estadístico del Proceso. 1.ª

ed. Barcelona: Ediciones CEAC, 1992.

• Walton M. The Deming Management Method. New York: The Putnam

Publishing Group, 1986.

• Berwick DM. Sounding Board: Continuous improvement as an ideal in health

care. N Engl J Med 1989; 320: 53-56.

• Eylenbosch WJ, Noah ND. Indicators. Surveillance in Health and Disease.

Oxford: Oxford University Press, 1988.

• Donabedian A. Institutional and professional responsabilities in Quality

Assurance. Quality Assurance in Health Care 1989; 1: 3-11.

• Donabedian A. Una aproximación a la monitorización de la calidad (segunda

parte). Control de Calidad Asistencial 1991; 6: 31-39.

• Benson DS, Miller JA. Quality Assurance for Primary Care Centers.

Indianapolis: Methodist Hospital of Indiana, Inc, 1988.

• Ishikawa, K. ¿Qué es el Control Total de Calidad? La modalidad japonesa.

Bogotá: Norma Ed, 1986.

• Ishikawa, K. Guía de Control de Calidad. New York: Unipub, 1985.

Josep Davins © Calidad 2011. Indicadores 28

Resumen

Para conseguir que las actividades de mejora sean efectivas deben llevarse a cabo de

forma continuada y consistir en medidas regulares y sistemáticas de aspectos

esenciales de la atención.

Un sistema de monitorización se define como la medida continuada de aspectos

relativos a la calidad de la atención para identificar situaciones u oportunidades de

mejora. En el sistema de monitorización se utilizan como parámetros de medida los

indicadores.

Un indicador es una medida cuantitativa que nos sirve para monitorizar y evaluar

aspectos importantes de la atención. El cambio en la actividad del indicador nos

señala dónde se puede estar produciendo una oportunidad de mejora de la calidad.

Un indicador no es una medida directa de la calidad.

Existen diferentes tipos de indicadores que se pueden clasificar en función de tres

aspectos: la valoración positiva o negativa (deseable o no deseable), la gravedad

(basado en una proporción o en un suceso centinela) y el tipo de suceso monitorizado

(proceso o resultado). Los tres grupos clasificatorios no son excluyentes entre sí, sino

que un indicador puede ser ubicado en cada uno de ellos.

Para ser efectivos, facilitar la recogida de datos y aumentar su fiabiliadad los

indicadores deben ser concretos, completos, objetivos, clínicamente válidos, sensibles,

específicos, relevantes y eficientes.

El sistema de monitorización debe ser completo por lo que el proceso de diseño y

construcción de indicadores debe seguir las siguientes fases: delimitar el campo de

actuación, identificar los aspectos importantes (volumen, riesgo y complejidad),

identificar indicadores, analizarlos.

En la construcción de un indicador es útil seguir el esquema de la Joint Commission:

enunciado del indicador, definición de términos, identificación del tipo de indicador,

base del razonamiento, descripción de la población, fuente de los elementos de los

datos, factores responsables y bases de datos existentes.

En el análisis de un indicador se valora su validez y fiabilidad.