Enfoques de modelización de accidentes en sistemas socio ...

8
26 El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011 Resumen La creciente complejidad de la tecnología en procesos y acti- vidades relacionados con plan- tas de energía nuclear, la indus- tria química y del petróleo, ex- plotación de minas, y extracción de petróleo, etc. están generando nuevos problemas de seguridad conectados a errores y fallos que desencadenan desastres o acci- dentes mayores. Los enfoques tradicionales, que habían permi- tido modelar los accidentes en circunstancias anteriores, son actualmente incapaces de anali- zar los accidentes que ocurren en los sistemas y condiciones socio- técnicas modernas, donde sus causas no son el resultado de simples fallos de un componen- te individual o un error humano. Los factores humanos son citados frecuentemente como la cau- sa fundamental de los peligros dentro de los sistemas relaciona- Enfoques de modelización de accidentes en sistemas socio-técnico complejos* CIRO MARTÍNEZ OROPESA** * Departamento de Ciencias Sociales, Facultad de Ingeniería y Administración, Universidad Nacional de Colombia, sede Palmira ** Economista Industrial, Magíster en Dirección, Máster en Prevención de Riesgos Laborales. Departamento de Operaciones y Sistemas, Facultad de Ingeniería, Uni- versidad Autónoma de Occidente. Fecha de recepción: Julio 13/11 • Fecha de aceptación: Octubre 14 /11

Transcript of Enfoques de modelización de accidentes en sistemas socio ...

Page 1: Enfoques de modelización de accidentes en sistemas socio ...

26 El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

Resumen

La creciente complejidad de la tecnología en procesos y acti-vidades relacionados con plan-tas de energía nuclear, la indus-tria química y del petróleo, ex-plotación de minas, y extracción de petróleo, etc. están generando nuevos problemas de seguridad conectados a errores y fallos que desencadenan desastres o acci-dentes mayores. Los enfoques tradicionales, que habían permi-tido modelar los accidentes en circunstancias anteriores, son actualmente incapaces de anali-zar los accidentes que ocurren en los sistemas y condiciones socio-técnicas modernas, donde sus causas no son el resultado de simples fallos de un componen-te individual o un error humano. Los factores humanos son citados frecuentemente como la cau-sa fundamental de los peligros dentro de los sistemas relaciona-

Enfoques de modelización de accidentes en sistemas socio-técnico complejos*

Ciro MArtíneZ oropesA**

* Departamento de Ciencias Sociales, Facultad de Ingeniería y Administración, Universidad Nacional de Colombia, sede Palmira** Economista Industrial, Magíster en Dirección, Máster en Prevención de Riesgos Laborales. Departamento de Operaciones y Sistemas, Facultad de Ingeniería, Uni-

versidad Autónoma de Occidente. Fecha de recepción: Julio 13/11 • Fecha de aceptación: Octubre 14 /11

Page 2: Enfoques de modelización de accidentes en sistemas socio ...

27El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

dos con la seguridad, a diferencia de los sistemas de seguridad, de los cuales casi nunca se hace mención. Este artículo describe nuevos enfoques teóricos de los sistemas y condiciones socio-téc-nicas para el modelado y análisis de los accidentes en sistemas de seguridad crítica.

Palabras clave: Análisis de tareas y seguridad crítica, siste-mas sociotécnicos, análisis so-ciológico, análisis de errores hu-manos, modelos sistémicos de accidente.

Abstract

The increasing complexity of technology in processes and ac-tivities related to nuclear power plants, chemical and petroleum industry, mining and oil extrac-tion, etc.. are creating new secu-rity problems connected to errors and failures that trigger disasters or major accidents. Traditional approaches to model the acci-denthad been allowed in previous circumstances are currently una-bleto analyze accidents that occur in systems and socio-modern techniques conditions, where the causes of accidents are not the simple result of a single compo-nent failure or human error.Hu-man factors are frequently cited as the fundamental cause of the dangers within the safety-related systems, unlike securitysystems which are rarely mentioned. This article describes new theoretical approaches of the systems and socio-technicalconditions for the modeling and analysis of ac-cidents in safety-critical systems

Keywords: Task Analysis and critical security, socio te-chnical systems, sociological analysis, human error analysis, systemic models of accident.

1. Introducción

Los sistemas de seguridad son generalmente considerados como los sistemas que evitan le-siones o pérdida de vidas huma-nas, daños a la propiedad, y reac-ciones con consecuencias adversas para el medio ambiente IEC 61508 (1998 -2000). Sistemas de alta tec-nología como los que caracterizan la aviación, actividades marítimas, el control de tránsito aéreo, las telecomunicaciones, las plantas de energía nuclear, la industria química y de procesos de extracción y proce-samiento de petróleo son cada vez más complejos y pueden presentar fallos potencialmente desastro-sos. Desastres notables como la liberación de gases tóxicos Bhopal (Srivastava, 1992), el de la NASA con la explosión del transborda-dor Challenger (Vaughn, 1996), o la más reciente que se produjo en la central nuclear de Fukushima del Japón, después de ser golpeada por un terremoto y un tsunami. En todos estos casos los mandos y sistemas de control son semánti-camente complejos (por lo general requieren de una gran cantidad de tiempo para obtener un conoci-miento relevante) donde las opera-ciones se han llevado a cabo bajo la presión del tiempo u otras limi-taciones de recursos (Woods et al., 1994). En tales sistemas, las causas de los accidentes se desarrollarán gradualmente durante un tiempo a través de la conjunción de diversas y pequeñas fallas, de la máquina y de los seres humanos (Perrow, 1984).

Los modelos de accidentes pro-porcionan una conceptualización y una base de análisis para distinguir las características de los accidentes, lo que permite mostrar el resultado de la relación entre las causas y los efec-tos. Se explica por medio de ellos el por qué ocurren los accidentes, para evaluar los riesgos durante el fun-cionamiento de los sistema y retros-

Enfoques de modelización de accidentes en sistemas socio-técnico complejosCiro Martínez Oropesa

Page 3: Enfoques de modelización de accidentes en sistemas socio ...

28 El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

pectivamente para el estudio de las causas de los accidentes.

Los modelos de análisis se-cuenciales y epidemiológicos de los accidentes son incapaces para cap-turar las interacciones dinámicas y no lineales entre los componentes de los sistemas socio-técnico comple-jos, se requieren nuevos modelos de análisis de accidente, basados en la teoría de sistemas (modelos de análisis sistémico de accidentes) , los cuales describen el comportamien-to típico del sistema ‘conjunto’ en lugar de interesarse en el nivel especí-fico causa-efecto ‘mecanismos’ (Ho-llnagel, 2004). Una de las principales diferencias entre los modelos sistémi-cos y modelos de análisis secuenciales de accidentes consiste en que los primeros describen un proceso de ac-cidente, mediante una red compleja e interconectada de acontecimientos, mientras que en el último lo descri-be como una cadena simple de causas y efectos de eventos.

La tecnología moderna y la auto-matización han cambiado significati-vamente la naturaleza del trabajo hu-mano, de tareas predominantemente manuales a actividades intensivas en conocimiento y tareas cogni-tivas. Esto ha creado nuevos pro-blemas para el rendimiento de los operadores (tales como la carga cog-nitiva) y los nuevos tipos de modos de falla en los sistemas hombre-máquina. Los Sistemas Cognitivos de Ingeniería (Hollnagel, 1983) han surgido como un marco para mo-delar el comportamiento de los sistemas hombre-máquina en el con-texto en el que el trabajo se lleva a cabo. La cultura organizacional por su parte influye en la seguridad ge-neral, la fiabilidad y la eficacia de las operaciones en una organización. La seguridad es una parte de la cultura organizacional, y son los líderes de la organización los que tienen una fuerte influencia en la forma como funciona, y es la toma de decisiones,

en particular la que determina si las prácticas y actitudes que muestra una organización conforman una cul-tura de seguridad (Hopkins, 2005).

2. Los enfoques tradicionales de modelización de accidentes

Los modelos de análisis de acci-dentes secuenciales explican las cau-sas de los mismos como el resultado de una cadena de eventos discre-tos que ocurren en un orden tempo-ral en particular. Uno de los mode-los de accidentes secuenciales es el contenido en la teoría Dominó pro-puesta por Heinrich (Ferry, 1988). De acuerdo con esta teoría hay cinco factores que intervienen en la se-cuencia del accidente: El medio am-biente social (las condiciones que nos hacen tomar o aceptar los riesgos), la culpa de la persona, los actos o condiciones inseguros (la mala plani-ficación, equipos inseguros, peligroso medio ambiente), el accidente y la lesión. Estos cinco factores están dis-puestos en forma de dominó y al pro-ducirse la caída de los primeros se ge-nera como resultado la caída de toda la fila. Esto demuestra que cada factor de riesgo lleva a la siguiente fase con el resultado final de la lesión. El reconocimiento de factores latentes apoya la comprensión de que las causas de los accidentes van más allá de las causas inmediatas, y que resulta fructífero el análisis de sistemas com-plejos que pueden presentar o exterio-rizar múltiples posibilidades de fallo.

Los modelos epidemiológi-cos como los secuenciales, siguen los mismos principios (Hollnagel, 2004), ya que hay la dirección de la causalidad de una forma lineal. Por otra parte, los vínculos causales entre condiciones latentes distantes (factores de organización) y los resultados del accidente son com-plejos y conectados débilmente (Shorrock et al., 2003).

Enfoques de modelización de accidentes en sistemas socio-técnico complejosCiro Martínez Oropesa

Page 4: Enfoques de modelización de accidentes en sistemas socio ...

29El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

3. El error humano

Desde una perspectiva técni-ca, ‘el error humano’ puede te-ner diferentes enfoques: puede centrarse en la causa de un resulta-do, en una acción que conduce a un resultado, o en el propio resultado (Hollnagel, 1998). El ‘error hu-mano’ se puede definir, además, como una omisión o ejecución in-correcta de una serie de activida-des mentales o físicas programadas (Reuth, 2003). Las personas son parte dinámica de todo sistema, este incluye a su vez todas las otras partes del entorno laboral como lo son: equipos, tecnología, ambiente, organización, capacitación, políti-cas y procedimientos. Por ello lo que comúnmente denominamos error humano es realmente error del sistema. El error humano se basa en la insuficiencia de los sis-temas o la organización para evitar el error durante la ejecución de un proceso, o en el caso que ocurriera, no existiera una falta de prevención antes del error, que permitiera que se convirtiera en un problema.1

3.1 El error humano como una variable aleatoria

En el análisis de riesgos, los comportamientos humanos se con-siderarán como una variable alea-toria, ya que hay muchas variables desconocidas que influyen en los comportamientos humanos y hacen difícil determinar con precisión de qué forma actuará una persona en un escenario dado. Esta incertidumbre obliga a considerar el error humano en términos probabilísticos. Solo al asociar la incertidumbre con el error humano se considerará un evento aleatorio. Según L.V.Utkinand et al., 2007, las causas de los errores humanos son difíciles de especificar, el tratamiento de errores humanos

con un enfoque probabilístico es indispensable si se quieren obtener análisis más realistas acerca de sus factores disparadores o antecedentes.

3.2 ¿Qué determina el error humano?

Hay una amplia evidencia cien-tífica que demuestra que se puede hacer mucho para disminuir la probabilidad del error humano. Un conjunto conocido e importante de variables que afectan la probabili-dad de error humano puede estar bajo el control de diseñadores de equipos y administradores de pro-gramas.

Variables que afectan al ope-rador: equipo, formación, procedi-mientos, administración y ambiente operativo. Un pequeño cambio en el valor de algunas de estas va-riables puede producir dramáticas desviaciones de comportamientos, que cuentan con el potencial para desencadenar incrementos del índice de errores humanos en la compañía. Desde el punto de vista probabilístico, se pueden lograr pro-nósticos confiables sobre los errores humanos, si las variables múltiples son bien conocidas.

3.3 La naturaleza del error

Si partimos de que los errores humanos constituyen un factor causal de las catástrofes provocadas por los sistemas tecnológicos es fun-damental el estudio de su naturaleza Esto es posible porque, desde el pun-to de vista psicológico, los errores no son tantos, ni tan distintos y, por ende, es posible su sistematización y generalización y, en consecuencia, su predicción y prevención, aunque no de forma determinista. La predicción de los errores depende, en gran me-dida, de nuestra comprensión de los factores que los ocasionan.

Enfoques de modelización de accidentes en sistemas socio-técnico complejosCiro Martínez Oropesa

1. Proyecto de Investigación. El proceso de seguridad basada en los comportamientos: Actuación de los supervisores en empresas de manufactura. Ciro Martínez Oropesa. 2009-2011.

Page 5: Enfoques de modelización de accidentes en sistemas socio ...

30 El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

Es decir, los tres aspectos de la producción de errores: las caracte-rísticas de la tarea, los mecanismos que rigen la actividad y las particu-laridades del sujeto (Estany 2008). La clasificación de incidentes en relación con la taxonomía de los errores humanos, es esencial a fin de averiguar por qué pasó el error humano y cómo se puede prevenir en el futuro (Reuth, 2003).

Según Reason, 1990, existen tres tipos de errores:

• ‘Deslices’ (slips) y ‘lapsos’ (lap-ses) son errores en la ejecución de la acción prevista. Los resba-lones son acciones que no salen según lo planeado, mientras que los lapsos son fallas de memoria.

• ‘Equivocaciones’ (mistakes) son fallos en el plan de ac-ción. Incluso si la ejecución del plan es correcta, no sería po-sible alcanzar el resultado desea-do. Planes que conducen a erro-res pueden ser deficientes, planes buenos pueden ser inadecuados, torpes o peligrosos.

El error humano se manifiesta en la planeación y ejecución de una acción y sucede cuando las personas cometen errores o fallas como los siguientes: Un supervisor emite las instrucciones correctas pero al trabajador equivocado, se mezclan químicos explosivos o combustibles en la obtención de determinado producto, pero no se informa a mantenimiento de la escalera o herramienta dañada. Los seres humanos tienen capacidades limitadas, para saber por qué los errores pasan se debe mirar más allá de la persona que los cometió.

3.4 Errores de memoria o atención

Los mecanismos de recupera-ción de la memoria están íntima-mente relacionados con los tipos de

error. Así, los deslices y los lapsos corresponden al nivel de actividad de los automatismos. Entre las equivocaciones podemos distinguir aquellas que corresponden al nivel de actividad basado en reglas (po-ner en funcionamiento el aparato de video) y las que corresponden al nivel de actividad basado en los conocimientos (recurrir a los cono-cimientos generales que tenemos sobre cocina cuando no logramos que nos salga bien un plato). La falta de atención también juega un papel importante en la comisión de errores, muy especialmente en los deslices y lapsos. Esto es así por las características de la cognición humana. (Estany, 2008). Todo lo anterior supone un enorme reto para la ingeniería en el diseño conceptual de la nueva tecnología, al considerar las diversas limitaciones, no solo físicas del ser humano, sino cogni-tivas y psíquicas que pudieran esta-blecerse como barreras a los proce-sos comunicativos y de tratamiento de la información. Hay que tener muy en cuenta, sin embargo, que la información o la formación por sí sola no puede inmunizar a una per-sona o una organización contra los errores. Los errores llegan a controlarse por medio del perfeccio-namiento constante de los sistemas que garanticen que los mismos sean cada vez menos probables y sus consecuencias menos graves.

4. Sistemas socio-técnico complejos

En los sistemas complejos mo-dernos, los seres humanos inte-ractúan con la tecnología para obtener resultados como conse-cuencia de su colaboración, tales resultados no pueden ser alcanza-dos por cualquier persona o tipo de tecnología si funcionan de manera aislada. Estos sistemas, integrados por agentes humanos y artefactos técnicos, a menudo son incorpora-dos dentro del complejo social, for-

Enfoques de modelización de accidentes en sistemas socio-técnico complejosCiro Martínez Oropesa

Page 6: Enfoques de modelización de accidentes en sistemas socio ...

31El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

mado por estructuras y elementos como las metas organizacionales, políticas y la cultura económica, jurídica, política y ambiental. De esta forma, el estudio de los siste-mas complejos modernos requie-re comprender las interacciones e interrelaciones entre los aspectos técnico, humano, social y de orga-nización del propio sistema.

Las interacciones lineales son las que se esperan en las secuencias de producción o mantenimiento, y son muy visibles, aunque no plani-ficadas (en diseño), mientras que en el caso de las complejas (no lineales) estas interacciones son secuenciales, no planificadas (in-esperadas), y no son visibles o inmediatamente comprensibles (Perrow, 1984). Dos o más fa-llos discretos pueden interactuar de forma inesperada, de modo tal que los diseñadores no podrían pre-decir y los operadores no pueden comprender o controlar, sin un modelado exhaustivo o de prueba.

Enfoques más novedosos para la modelización de los acciden-tes adoptan un enfoque sistémico, un punto de vista que considera el desempeño del sistema como un conjunto. En los modelos se pro-duce cuando varios factores causa-les (por ejemplo, humanos, técnicos y del medio ambiente) coinciden en un tiempo y espacio específicos (Hollnagel, 2004).

5. Sistemas cognitivos con enfoques de ingeniería

Los enfoques basados en la tecnología de automatización han creado nuevos problemas para el funcionamiento del operario y nue-vos modos de fallo en los sistemas hombre máquina, que muchas veces han desencadenado accidentes ca-tastróficos en los campos de la avia-ción, plantas de energía nuclear, etc. (Parasuraman, 1997). Hollnagel & Woods introducen un nuevo para-

digma en los sistemas cognitivos conjuntos que describen las funciones humanas y de la tecnología como sis-temas mixtos, en lugar de interesarse sólo en cómo los seres humanos in-teractúan con las máquinas.

Los esfuerzos para hacer que el trabajo se haga con seguridad de-ben partir de una comprensión de la variabilidad normal de los sistemas cognitivos y las conexiones con el rendimiento, en vez de suposiciones altamente especulativas “mecanis-mos de error” (Hollnagel & Woods, 2005). Se han elaborado dos mode-los sistémicos de la seguridad y de análisis de accidentes sobre la base de los principios de ingeniería de los sistemas cognitivos: Método de análisis de la fiabilidad cognitiva y error (con siglas en inglés: CRE-MA), y el modelo de accidente de la resonancia funcional (con siglas en inglés: FRAM). CREMA se basa en el modelado de aspec-tos cognitivos de la actuación humana para una evaluación de las consecuencias del error humano en la seguridad de un sistema (Hollna-gel, 1998). Dos versiones del CRE-MA se han desarrollado para mo-delar accidentes: DREAM (con el controlador de confiabilidad y el método de análisis de error) para el análisis de los accidentes de tráfi-co, y DORADA para su uso en aná-lisis de accidentes marítimos (Ho-llnagel, 2006). FRAM es un mo-delo cualitativo de análisis de accidentes que describe cómo las funciones de los componentes del sistema, pueden resonar y crear pe-ligros que pueden quedar fuera del alcance del control y provocar un accidente (Hollnagel, 2004). FRAM se basa en la premisa de que la variabilidad del desempeño, interna y externa del sistema son normales, en el sentido de que el desempeño nunca es estable en un complejo sistema socio-técnico, como lo es una planta química o de energía nuclear.

Enfoques de modelización de accidentes en sistemas socio-técnico complejosCiro Martínez Oropesa

Page 7: Enfoques de modelización de accidentes en sistemas socio ...

32 El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

6. Marco socio-técnico de Rasmussen

La complejidad y los rápidos avances de la tecnología han dado lugar al desarrollo de sistemas para evaluar los riesgos desde el punto de vista socio-técnico, característicos de las organizaciones complejas que operan en entornos dinámicos influenciados por las presiones de competencias de mercado, econó-micas, políticas, de legislación y el aumento de la concienciación so-cial sobre la seguridad (Rasmussen, 1997). Estos factores han trans-formado el carácter dinámico de la sociedad moderna y continúan influyendo en las prácticas de tra-bajo y el comportamiento humano como parte esencial del funciona-miento de los sistemas complejos. En entornos dinámicos y complejos no es posible establecer procedi-mientos para todas las condiciones y requerimientos posibles, en parti-cular, en el caso de emergencias de alto riesgo y las situaciones impre-vistas (Rasmussen, 1997). En estos, donde las tareas y procedimien-tos son estrictamente prescritos, las violaciones de las instrucciones han sido repetidamente observadas (Vicente et al., 2004).

7. Análisis sociológicos y organizacionales sobre las causas de los accidentes

L o s a c c i d e n t e s g r a v e s , como los sucedidos en la central nuclear de Chernóbil (Ucrania) el 26 de abril de 1986, o el acci-dente del transbordador espacial Challenger que se produjo el 28 de enero de 1986, han demostrado que “en la búsqueda de las causas de los sistemas complejos de acciden-tes, se debe tener en cuenta la inte-racción y la interdependencia entre la tecnología y los sistemas de la organización” ( Shrivastava, 1992). El autor sostiene que los accidentes de trabajo tienen causas identifi-

cables, a saber: humanos, orga-nizativos y tecnológicos, y son consecuencia de la demanda de nuevas políticas destinadas a pre-venir la crisis en el futuro. Otros autores (Dwyer y Raftery, 1991) consideran las relaciones sociales en el foco central de explicación de los accidentes, y reducen el papel de las variables individuales que han sido acentuadas por otros modelos como los de secuencias de dominó y de procesamiento cogni-tivo. Sin embargo, aún hay quién (Hasen, 1989) trata de explicar los accidentes básicamente conside-rando aspectos de la personalidad y características individuales. Este modelo renuncia a considerar tanto los aspectos sociales como los as-pectos de condiciones inseguras que consideran prácticamente todos los modelos, este modelo tiene interés porque ha sido expresamente some-tido a contraste empírico utilizando modelos causales. En algunos de estos modelos se ha brindado aten-ción a la acción de la empresa sobre la seguridad. Este concepto ha sido recogido de diversos modos con la denominación de clima, cultura de seguridad y ergonomía participati-va. Según Goldberg et al.. 1991, el modelo causal organizacional con-sidera variables relacionadas con el clima organizacional referente a la seguridad (apoyo del supervisor, de la dirección y de los compañeros) así como variables psicológicas (ansiedad, fatalismo), junto a un indicador de riesgo percibido. Sin embargo, este modelo no trata de explicar la accidentalidad, sino la disposición a participar en progra-mas de mejoras de la seguridad. Detrás del accidente de la central nuclear de Chernóbil se identifican importantes elementos causales relacionados con aspectos organi-zacionales (culturales): Una cul-tura de grupos de trabajo (forma en que las personas interactúan en el trabajo). Una cultura de la pro-

Enfoques de modelización de accidentes en sistemas socio-técnico complejosCiro Martínez Oropesa

Page 8: Enfoques de modelización de accidentes en sistemas socio ...

33El Hombre y la Máquina No. 37 • Julio-Diciembre de 2011

ducción construida desde el trabajo, influencias organizacionales e insti-tucionales, y una cultura determina-da por la forma de trasmisión de la información y los datos del sistema.

8. Discusión y conclusiones

Los modelos secuenciales y epidemiológicos han contribuido a la comprensión de los acciden-tes; sin embargo, no son suficien-tes para captar las complejidades y la dinámica de los sistemas socio-técnicos modernos. Por su parte, los modelos sistémicos permiten analizar accidentes provocados por fenómenos emergentes, que sur-gen debido a las complejas interac-ciones no lineales entre los compo-nentes del sistema. Generalmente los modelos de análisis de acciden-tes que se utilizan para la predic-ción de los accidentes durante el desarrollo de los sistemas críticos de seguridad, son fundamentados en modelos secuenciales. Por otra parte, las técnicas de seguridad tradicionales para el análisis de ries-gos, tales como el análisis de árbol de fallos y probabilístico, no son suficientes para explicar la comple-jidad de los sistemas socio-técnico modernos, incluso entender la pro-pia causalidad de los accidentes.

Las investigaciones futuras tie-nen que proyectarse a evaluar de forma exhaustiva la aplicabilidad de nuevos modelos sistémicos, a través de una más amplia revisión de los tipos de sistemas socio-técnicos, y condiciones en que operan. La Ingeniería de la Resiliencia emerge como un nuevo paradigma en la gestión de la seguridad, donde el “éxito” se basa en la capacidad de las organizaciones, grupos e indivi-

duos para anticipar a la variabilidad del riesgo antes que los fracasos y daños se produzcan (Hollnagel et al., 2006). La complejidad de los sistemas socio-técnicos modernos plantea la necesidad de investi-gaciones interdisciplinarias sobre las teoría de desarrollo y funcio-namiento de las organizaciones, y de la psicología cognitiva, lo que determina la necesidad de que los investigadores salgan de sus límites tradicionales para captar la complejidad de los sistemas socio- técnicos modernos, con una amplia visión sistémica que les permita comprender los aspectos multidi-mensionales de la seguridad.

Bibliografía[1] Dwyer T. y Raftery A.E. (1991) In-

dustrial accidents are produced by social relations of work: A sociolo-gical theory of industrial accidents. Applied Ergonomics, Vol. 22, No. 3, p. 167-178.

[2] Estany, A. (2008). La convergencia de lo cognitivo y lo social en los errores humanos. Revista Filosofía. No. 35, p. 9-36.

[3] Ferry, T.S. (1988): Modern Accident Investigation and Analysis. Second Edition, New York, Wiley.

[4] Goldberg A.I., Dar-El E.M. y Rubin A.E. (1991) Threat perception and the readiness to participate in safety programs. Journal of Organizational Behavior, Vol. 12, No. 2, p. 109-122.

[5] Hollnagel, E. & Woods, D.D. (1983): Cognitive Systems Engineering: New wine in new bottles. Internatio-nal Journal of Man-Machine Studies, Vol. 18, p.583-600.

[6] Hollnagel, E. (1998): Cognitive Reliability and Error Analysis Method. (CREAM). New York: Elsevier Science Ltd. 287 p. ISBN: 978-0-08-042848-2

[7] Hollnagel, E. (2004): Barriers and Accident Prevention. New York: As-

Enfoques de modelización de accidentes en sistemas socio-técnico complejosCiro Martínez Oropesa

hgate Publishing, Ltd. 226 p. ISBN: 9780754643012

[8] Hollnagel, E. & Woods, D. D. (2005): Joint Cognitive Systems: Founda-tions of Cognitive Systems Enginee-ring. Florida: Taylor & Francis. 223 p. ISBN: 9780849328213

[9] Hollnagel, E., Woods, D.D. & Leve-son, N. (2006): Resilience Enginee-ring: Concepts and Precepts. New York: Ashgate Publishing, Ltd., 397 p. ISBN: 9780754646419

[10] L.V.Utkinand and F.P.A.Coolen (2007): Imprecise Reliability: An Introductory Overview¨. Springer-Verlag Berlin Heidelberg, Computa-tional Intelligence in Reliability En-gineering (SCI), Vol. 40, p. 261-306.

[11] Parasuraman, R. (1997): Humans and Automation: use, misuse, disuse, abuse, Human Factors, Vol. 39, No. 2, p. 230-253.

[12] Perrow, C. (1984): Normal Acci-dents: Living with High- Risk Te-chnologies. New Jersey, Princeton University Press, 451 p. ISBN: 9780691004129.

[13] Rasmussen, J. (1997): Risk Mana-gement in a Dynamic Society: A Modelling Problem. Safety Science, Vol. 27, No. 23, p. 183-213.

[14] Reason, J. (1990): Human Error. New York: Cambridge University Press. 316 p. ISBN: 9780521314190

[15] Shrivastava, P. (1992): Bhopal: Anatomy of a Crisis. London, Paul Chapman. Second Edition, 169 p. ISBN: 9781853961922

[16] Vaughn, D. (1996): The Challenger Launch Decision: Risky Technology, Culture and Deviance at NASA. Chi-cago, University of Chicago Press. 575 p. ISBN: 9780226851761

[17] Vicente, K.J., Mumaw, R.J. & Roth, E.M. (2004): Operator monitoring in a complex dynamic work environ-ment: A qualitative cognitive model based on field observations. Theore-tical Issues in Ergonomics Science, Vol. 5, No. 5, p. 359-384.