Sistema de realidad virtual para la gestión del dolor

73
Trabajo Fin de Grado GRADO DE INGENIERÍA INFORMÁTICA Sistema de realidad virtual para la gestión del dolor crónico en niños y jóvenes con enfermedades raras MIGUEL SÁNCHEZ Tutor Francisco J. Perales Escola Politècnica Superior Universitat de les Illes Balears Palma, 20 de junio de 2018

Transcript of Sistema de realidad virtual para la gestión del dolor

Page 1: Sistema de realidad virtual para la gestión del dolor

Trab

ajo

Fin

de

Gra

do

GRADO DE INGENIERÍA INFORMÁTICA

Sistema de realidad virtual para la gestión del dolorcrónico en niños y jóvenes con enfermedades raras

MIGUEL SÁNCHEZ

TutorFrancisco J. Perales

Escola Politècnica SuperiorUniversitat de les Illes Balears

Palma, 20 de junio de 2018

Page 2: Sistema de realidad virtual para la gestión del dolor
Page 3: Sistema de realidad virtual para la gestión del dolor

ÍNDICE GENERAL

Índice general i

Índice de figuras iii

Índice de cuadros v

Acrónimos vii

Resumen ix

1 Introducción 11.1 Contexto y objetivos del proyecto . . . . . . . . . . . . . . . . . . . . . . . 11.2 Estructura del documento . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Estado del arte 32.1 Enfermedades raras y dolor crónico . . . . . . . . . . . . . . . . . . . . . 32.2 Ondas cerebrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42.3 Otros parámetros biológicos . . . . . . . . . . . . . . . . . . . . . . . . . . 62.4 Biofeedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3 Marco tecnológico 93.1 Realidad Virtual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3.1.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.1.2 Head-Mounted Display (HMD) . . . . . . . . . . . . . . . . . . . 123.1.3 Desarrollo de aplicaciones de Realidad Virtual (RV) . . . . . . . 14

3.2 Motor gráfico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.3 Pulsos biaurales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.4 Pulseras inteligentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4 Análisis del proyecto 214.1 Definición del sistema y arquitectura . . . . . . . . . . . . . . . . . . . . . 214.2 Requisitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4.2.1 Requisitos de usuario . . . . . . . . . . . . . . . . . . . . . . . . . 224.2.2 Requisitos funcionales . . . . . . . . . . . . . . . . . . . . . . . . . 234.2.3 Requisitos no funcionales . . . . . . . . . . . . . . . . . . . . . . . 24

4.3 Metodología de trabajo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

5 Desarrollo del proyecto 27

i

Page 4: Sistema de realidad virtual para la gestión del dolor

ii ÍNDICE GENERAL

5.1 Arquitectura de scripts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275.2 Funcionalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

5.2.1 Menú principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305.2.2 Modo libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325.2.3 Modo sesión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5.3 Versiones específicas para el testeo de funcionalidades. . . . . . . . . . . 405.3.1 Versión VAR for Good . . . . . . . . . . . . . . . . . . . . . . . . . 415.3.2 Versión CEA Bioingeniería . . . . . . . . . . . . . . . . . . . . . . 425.3.3 Versión estudio preliminar . . . . . . . . . . . . . . . . . . . . . . 42

6 Pruebas, estudios y resultados 456.1 Estudio VAR for Good . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466.2 Estudio CEA Bioingeniería . . . . . . . . . . . . . . . . . . . . . . . . . . . 466.3 Estudio International Conference Information Visualisation . . . . . . . 486.4 Estudio preliminar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

7 Conclusiones 497.1 Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497.2 Mejoras y trabajo futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

A Apéndice 53A.1 Código de ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53A.2 Activos de Unity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Bibliografía 57

Page 5: Sistema de realidad virtual para la gestión del dolor

ÍNDICE DE FIGURAS

2.1 Captura y presentación de un Electroencefalograma (EEG) . . . . . . . . . . 42.2 Clasificación de las ondas cerebrales . . . . . . . . . . . . . . . . . . . . . . . 52.3 Ejemplo de biofeedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3.1 Arquitectura de RV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.2 Tipos de RV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113.3 Ejes calculados por un HMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.4 Estructura de un motor gráfico . . . . . . . . . . . . . . . . . . . . . . . . . . 153.5 Estimulación monoaural y estimulación biaural . . . . . . . . . . . . . . . . 183.6 Pulsera Empatica E4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4.1 Arquitectura del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224.2 Ejemplo de la pizarra de Trello . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

5.1 Arquitectura de scripts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295.2 Menú principal - Logos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305.3 Menú principal - Opciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305.4 Menú principal - Menú de sesiones . . . . . . . . . . . . . . . . . . . . . . . . 315.5 Menú principal - Información de una sesión . . . . . . . . . . . . . . . . . . 325.6 Modo libre - Entorno virtual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325.7 Modo libre - Cronómetro y parámetros biológicos . . . . . . . . . . . . . . . 335.8 Modo libre - Menú in game . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335.9 Modo libre - Opciones de pulsos biaurales . . . . . . . . . . . . . . . . . . . . 355.10 Modo libre - Opciones de música . . . . . . . . . . . . . . . . . . . . . . . . . 355.11 Modo libre - Entornos de lago y prado . . . . . . . . . . . . . . . . . . . . . . 365.12 Modo libre - Entornos de oficina y aula . . . . . . . . . . . . . . . . . . . . . . 365.13 Modo libre - Entornos de sala de reuniones y estudio . . . . . . . . . . . . . 365.14 Modo libre - Opciones de entorno . . . . . . . . . . . . . . . . . . . . . . . . . 375.15 Modo libre - Opciones de color . . . . . . . . . . . . . . . . . . . . . . . . . . 385.16 Modo libre - Opciones de figura . . . . . . . . . . . . . . . . . . . . . . . . . . 395.17 Modo libre - Ejemplo de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . 395.18 Modo sesión - Menú in game . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405.19 Versión VAR for Good - Menú de selección de estado . . . . . . . . . . . . . 415.20 Versión estudio preliminar - Ejemplo de fichero CSV . . . . . . . . . . . . . . 42

iii

Page 6: Sistema de realidad virtual para la gestión del dolor
Page 7: Sistema de realidad virtual para la gestión del dolor

ÍNDICE DE CUADROS

3.1 Comparación de especificaciones de HMD . . . . . . . . . . . . . . . . . . . 133.2 Comparación de los sensores accesibles en pulseras inteligentes . . . . . . 19

5.1 Modo libre - Modos de los pulsos biaurales . . . . . . . . . . . . . . . . . . . 345.2 Modo sesión - Características de las sesiones de relajación . . . . . . . . . . 405.3 Modo sesión - Características de las sesiones de concentración . . . . . . . 40

6.1 Decisiones de la sesión con pulsos biaurales . . . . . . . . . . . . . . . . . . 476.2 Decisiones de la sesión con pulsos no biaurales . . . . . . . . . . . . . . . . . 47

v

Page 8: Sistema de realidad virtual para la gestión del dolor
Page 9: Sistema de realidad virtual para la gestión del dolor

ACRÓNIMOS

RV Realidad Virtual

UIB Universitat de les Illes Balears

TFG Trabajo Final de Grado

JUGUEMOS JUeGos híbridos basados en interfaces mUltimodales EMOcionales yagentes Sociales

UGIVIA Unitat de Gràfics i Visió per Computador i Inteligència Artificial

INeDITHOS Investigación e Intervención para la Inclusión Educativa y Tecnológica enPedagogía Hospitalaria

EEG Electroencefalograma

IPO Interacción Persona-Ordenador

BCI Brain Computer Interfaces

HMD Head-Mounted Display

LCD Liquid Crystal Display

OLED Organic Light-Emitting Diode

AMOLED Active-Matrix organic Light-Emitting Diode

SDK Software Development Kit

API Application Programming Interface

IEEE Institute of Electrical and Electronics Engineers

vii

Page 10: Sistema de realidad virtual para la gestión del dolor
Page 11: Sistema de realidad virtual para la gestión del dolor

RESUMEN

El presente Trabajo Final de Grado (TFG) consiste en la realización del diseño y eldesarrollo de una aplicación de software de Realidad Virtual (RV) enfocada a la valo-ración del dolor crónico en niños y jóvenes con enfermedades consideradas comoraras, facilitándoles la gestión y la regulación de su dolor a través de estímulos visuales,auditivos y vibrotáctiles.

Para conseguir esto, dicha aplicación modifica los estados emocionales y psico-lógicos del usuario, utilizando la combinación de diversas tecnologías tales como larealidad virtual, sonidos, rango de colores e, incluso, la introducción de un dispositivono invasivo de medición de parámetros biológicos en tiempo real, evitando de estemodo la posible interpretación subjetiva del usuario.

Además, este proyecto está combinado con otro perteneciente al grado de psicolo-gía de la Universitat de les Illes Balears (UIB), en el cual, a partir de dicha aplicación,se estudia la efectividad de la combinación de estimulación auditiva y visual y de larealidad virtual para la mejora de la regulación y la autorregulación del dolor crónicoen enfermedades raras.

ix

Page 12: Sistema de realidad virtual para la gestión del dolor
Page 13: Sistema de realidad virtual para la gestión del dolor

CA

TU

LO

1INTRODUCCIÓN

El siguiente apartado tiene como objetivo ofrecer una visión global del proyecto, elcontexto en el que se enmarca y el alcance del mismo. Además, se expondrá la estructurade este documento.

1.1 Contexto y objetivos del proyecto

En los últimos años, la RV se ha convertido en una tecnología popular en el sector delentretenimiento. De hecho, su notoriedad está creciendo cada vez más gracias a losbeneficios que muestra, no solo en los videojuegos o en las aplicaciones de ocio, sinotambién en campos como la medicina, la psicología o la rehabilitación [1, 2, 3]. Es enestos ámbitos dónde se sitúa este proyecto.

Concretamente, este trabajo está centrado en la gestión del dolor. Cabe mencionarque diversos estudios se han hecho con anterioridad donde se utiliza la RV para eltratamiento y la gestión del dolor y el control de los estados emocionales [4, 5, 6, 7, 8]. Ladiferencia con los trabajos expuestos es que en este proyecto se utiliza la combinaciónde diversas tecnologías y estudios, entre los que se encuentran la RV en sí, los pulsosbiaurales, la psicología del color o la música.

Por lo tanto, el objetivo de este proyecto es el diseño y el desarrollo de una apli-cación de software que utiliza los beneficios de la RV juntamente con las tecnologíasmencionadas anteriormente para influir en el estado emocional de los usuarios y mo-dificar la percepción que tienen sobre el dolor o cualquier otra sensación negativa.Principalmente, esta aplicación está enfocada a niños y jóvenes que padecen enfer-medades raras y sufren de dolor crónico, pero puede ser perfectamente utilizada porcualquier tipo de usuario que desee modificar su estado anímico (por ejemplo, unapersona que desee relajarse), sin la presencia necesaria de la percepción de dolor.

Para medir los posibles cambios biológicos que sufre un usuario al utilizar la aplica-ción, se hará uso de una pulsera inteligente, la cual está integrada en la misma y permitela visualización de los datos biométricos del portador en tiempo real. De esta forma, se

1

Page 14: Sistema de realidad virtual para la gestión del dolor

1. INTRODUCCIÓN

facilita la posible utilización de técnicas de biofeedback, permitiendo la autogestión delos estados emocionales.

Este TFG pertenece al proyecto TIN2015-67149-C3-2-R con título JUeGos híbridosbasados en interfaces mUltimodales EMOcionales y agentes Sociales (JUGUEMOS),del grupo Unitat de Gràfics i Visió per Computador i Inteligència Artificial (UGIVIA),que tiene como objetivo el desarrollo de juegos y aplicaciones que permitan estudiarel potencial terapéutico y educativo de los mismos en ámbitos relacionados con lainfancia [9]. Además, este trabajo se realiza en colaboración con otro TFG del gradode psicología de la UIB, realizado por Laia Riera i Negre, el cual se enfoca en, a partirde la aplicación desarrollada, valorar la efectividad de estímulos visuales y auditivos yla RV para la mejora de la regulación del dolor crónico en enfermedades raras. Cabemencionar también la participación del grupo Investigación e Intervención para laInclusión Educativa y Tecnológica en Pedagogía Hospitalaria (INeDITHOS), dedicadoa la mejora de la calidad de vida de niños y jóvenes en situación de enfermedad [10].

1.2 Estructura del documento

Este documento presenta la siguiente estructura:

• En el capítulo 2, se presenta el estado del arte relacionado con las enfermedadesraras, el dolor crónico, las ondas cerebrales y el biofeedback.

• En el capítulo 3, se explican las diversas tecnologías presentes en el proyecto,como son la RV, el motor gráfico utilizado, los pulsos biaurales o las pulserasinteligentes.

• En el capítulo 4, se realiza una definición del proyecto, exponiendo los requisitosy la arquitectura del sistema desarrollado y la metodología de trabajo utilizadapara llevarlo a cabo.

• En el capítulo 5, se muestra el desarrollo del sistema y las soluciones implanta-das para cumplir con los requisitos presentados en el capítulo 4, así como dosversiones alternativas del sistema.

• En el capítulo 6, se recoge una lectura de las pruebas realizadas del proyecto y losestudios efectuados.

• En el capítulo 7, se ofrecen las conclusiones obtenidas en la realización delproyecto, mostrando la resolución de los objetivos y exponiendo planteamientosfuturos.

2

Page 15: Sistema de realidad virtual para la gestión del dolor

CA

TU

LO

2ESTADO DEL ARTE

En este capítulo se presentan una serie de conocimientos y conceptos necesarios paraentender en su totalidad este proyecto.

Para contextualizar este trabajo, primeramente, se expone una visión global de lasenfermedades raras y el dolor crónico que normalmente va ligado a ellas. A continua-ción, se explica cómo este dolor puede afectar a las ondas del cerebro y, en general, aotros parámetros biológicos como el pulso o la sudoración. Finalmente, se analiza elconcepto de biofeedback.

2.1 Enfermedades raras y dolor crónico

Como se ha mencionado a lo largo de este documento, este proyecto está enfocadoen las enfermedades raras. Una enfermedad rara es definida, principalmente, comoaquella que presenta una baja prevalencia. Dependiendo de la situación geográfica yclínica, su definición varía. Así pues, en Estados Unidos una enfermedad rara es aquellaque afecta a menos de 200.000 personas, en Japón a menos de 50.000 pacientes y en laUnión Europea a 1 de cada 2.000 individuos [11].

Generalmente, estas enfermedades tienen un origen genético y pueden ser here-dadas, motivo por el que suelen aparecer en la edad pediátrica [12]. Pocas de ellasdisponen de un tratamiento efectivo y de un protocolo de estudio, ya que son pococonocidas por los equipos médicos, por lo que se convierten en enfermedades crónicase incurables. Es más, presentan una alta tasa de mortalidad infantil: un 30% de losafectados fallece a una edad anterior a los 5 años[13].

Las enfermedades raras presentan una gran diversidad de síntomas, incluso unamisma enfermedad rara puede tener manifestaciones clínicas diferentes entre dospacientes afectados [11]. Este tipo de enfermedades pueden afectar tanto la capacidadfísica de sus pacientes como la capacidad mental e intelectual, pudiendo provocardiscapacidades distintas en un paciente. Además, en un 20% de los casos los individuosafectados presentan dolor crónico reconocible.

3

Page 16: Sistema de realidad virtual para la gestión del dolor

2. ESTADO DEL ARTE

Según la Organización Mundial de la Salud, el dolor es definido como una sensacióndesagradable que comprende componentes sensoriales y emocionales asociada a unalesión actual o potencial de los tejidos, afectada por factores psicológicos, ambientalesy conductuales [14]. Cuando un individuo padece dolor después de un periodo prolon-gado de tiempo, aparece el dolor crónico. Este tipo de dolor es caracterizado por unadificultad en la regulación de movimientos físicos y por la constante afección al estadode ánimo del individuo [15].

El principal objetivo del tratamiento del dolor crónico es impedir que este se adueñede la vida del paciente, dificultándole así la obtención de un bienestar físico y psicoló-gico [16]. A parte de los fármacos que se emplean para el tratamiento del dolor crónico,existen otros métodos no farmacológicos para el alivio del dolor, como pueden ser lostratamientos físicos, los conductuales, los cognitivos y los de apoyo. Es en estos dosúltimos donde está presente la RV [15].

2.2 Ondas cerebrales

Una forma de conocer la existencia del dolor o del estado emocional de una personaen general es analizando sus ondas cerebrales. Las ondas cerebrales hacen referenciatoda aquella actividad electromagnética que tiene lugar en el cerebro generada por lasdiferencias de potencial existentes en la comunicación, principalmente, de las célulascerebrales (neuronas) [17].

Figura 2.1: Captura y presentación de un EEG

Las ondas cerebrales pueden ser registradas a través de un Electroencefalogra-ma (EEG), técnica que consiste en recoger la actividad eléctrica de la corteza del cerebroa través de unos electrodos especiales que se disponen en el cuero cabelludo, ampli-ficando las señales eléctricas que penetran en la piel y en el cráneo. Para su lectura einterpretación, estas señales se guardan y se presentan en un papel, una pantalla o encualquier dispositivo de monitorización en forma de onda [18]. En la figura 2.1 [19] sepuede ver un ejemplo visual de un EEG. En el área de la informática y la InteracciónPersona-Ordenador (IPO) y, específicamente, en Brain Computer Interfaces (BCI), el

4

Page 17: Sistema de realidad virtual para la gestión del dolor

2.2. Ondas cerebrales

estudio y la interpretación de las ondas cerebrales están muy presentes. BCI es el pa-radigma que implementa una interfaz tecnológica entre el cerebro y un dispositivoque genera o modifica actividades motoras a partir de procesos cerebrales [20]. En BCI,existen varias técnicas de recogidas de señal, entre las cuales EEG es la más utilizada, yaque es fácil de implementar, no presenta riesgo alguno y no se necesita entrenamientomédico [21].

Regularmente, las ondas cerebrales tienen un patrón de onda sinusoidal cuyafrecuencia se sitúa entre 3 y 46 Hz. Dependiendo de su valor, dichas ondas se puedendividir en cinco grupos [22], tal y como muestra la figura 2.2 [23]:

• Delta (0-4 Hz): son aquellas ondas asociadas a un estado de actividad reducidadel cerebro. Se manifiestan en personas que duermen profundamente o que seencuentran en un estado meditativo profundo, teniendo mayor presencia enniños y en meditadores avanzados.

• Theta (4-7 Hz): presentes cuando se consigue una profunda relajación o cuandose duerme de forma no profunda. Se manifiestan también en individuos quepadecen trastorno por déficit de atención e hiperactividad.

• Alfa (8-12 Hz): ligadas a estados libres de tensión, dolor, nerviosismo o incomo-didad. Se encuentran en personas relajadas y sin inquietudes.

• Beta (12-36 Hz): asociadas a la ansiedad, al dolor y a la inquietud, aunque tam-bién se encuentran presentes en el pensamiento lógico, en la resolución deproblemas o en las conversaciones y debates.

• Gamma (>36 Hz): rango de ondas relacionadas con experiencias eufóricas oextáticas, donde se presenta una alta actividad mental y funciones motoras.

Figura 2.2: Clasificación de las ondas cerebrales

5

Page 18: Sistema de realidad virtual para la gestión del dolor

2. ESTADO DEL ARTE

Por tanto, las ondas delta, theta y alfa se asocian a estados de relajación y las dosrestantes a estados de inquietud, nerviosismo o de presencia de dolor. Con este pro-yecto, se quiere conseguir una modificación de las ondas del cerebro para conseguir lainducción de estados anímicos donde la percepción del dolor sea menor. Por ejemplo,si se desea conseguir un estado de relajación, hay que aumentar las ondas theta o alfa yreducir las ondas beta.

Así pues, se considera la siguiente hipótesis de trabajo: en un estado emocional derelajación se percibe menos dolor que en un estado de tensión. Por ello, al aumentar lapotencia de las ondas theta y alfa y al reducir las beta, el usuario percibirá una sensaciónde relajación y, consecuentemente, menos dolor.

2.3 Otros parámetros biológicos

A parte de las ondas cerebrales, existen otros parámetros biológicos de gran interéspara poder detectar estados de inquietud o de dolor. Estos son el pulso, la temperatura,la conductividad eléctrica de la piel y el movimiento:

• Ritmo cardíaco: es el número de cambios en el volumen de la sangre de las venas(asociada a los latidos del corazón) por unidad de tiempo. La presencia del dolorse correlaciona con un aumento del número de latidos del corazón y, por lo tanto,un aumento del ritmo cardíaco. Por el contrario, al desaparecer el dolor, el ritmodisminuye [24]. Su unidad es pulsos por minuto (ppm).

• Conductividad eléctrica de la piel: capacidad que tiene la piel para conducir laelectricidad. Cuando aumenta la sudoración, al estar la piel húmeda, aumentasu conductividad eléctrica. Así mismo, la sudoración puede equivaler a unarespuesta del cuerpo ante situaciones de peligro o estímulos dolorosos [25]. Suunidad son µS.

• Temperatura: es la cantidad de calor que emite una cierta cantidad de masa (eneste caso, el cuerpo humano). Variaciones irregulares en la temperatura puedenser un síntoma de que el cuerpo está reaccionando a alguna enfermedad o aalgún estímulo doloroso [26]. Se mide en grados Celsius, Kelvin o Fahrenheit.

• Movimiento: el movimiento físico es un claro ejemplo de inquietud e incomodi-dad, que puede estar relacionado con el dolor.

2.4 Biofeedback

El biofeedback es una técnica situada en el campo de la informática, la psicología yla medicina, que consiste en facilitar a un individuo información no asequible paraél sobre un sistema o proceso biológico que tiene lugar en su propio cuerpo y queestá fuera de su consciencia, utilizando uno o varios dispositivos electrónicos [27].Por ejemplo, disponer en tiempo real de la frecuencia cardíaca de un individuo en lapantalla de su reloj inteligente es un proceso de biofeedback. En la figura 2.3 [28] sepuede ver un ejemplo de biofeedback.

6

Page 19: Sistema de realidad virtual para la gestión del dolor

2.4. Biofeedback

Figura 2.3: Ejemplo de biofeedback

Una técnica tan sencilla como el biofeedback puede llegar a ser efectiva para laterapia y la gestión del dolor [16]. Gracias a esta información, el sujeto aprende mássobre sus propios procesos biológicos y puede llegar a controlar, de manera voluntaria,su funcionamiento mediante técnicas psicológicas como, por ejemplo, el condicio-namiento operante. De esta forma, se consigue una autorregulación fisiológica queconllevaría a una mejora de salud.

Para finalizar, es pertinente mencionar el neurofeedback, que consiste en aplicartécnicas de biofeedback en la actividad cerebral para, mayoritariamente, obtener infor-mación sobre las ondas cerebrales [27].

7

Page 20: Sistema de realidad virtual para la gestión del dolor
Page 21: Sistema de realidad virtual para la gestión del dolor

CA

TU

LO

3MARCO TECNOLÓGICO

Una vez explicado el contexto de este TFG en el capítulo anterior, se puede proceder apresentar y analizar las tecnologías utilizadas.

El punto central de este proyecto se trata de la RV, ya que permite a los usuariosuna inmersión profunda en un entorno virtual y una abstracción del entorno real e,incluso, del propio cuerpo material. Para el presente trabajo se ha utilizado Oculus Riftcomo hardware de RV.

Puesto que este proyecto consiste en el desarrollo de una aplicación de RV, senecesita un entorno visual donde el usuario pueda realizar las tareas pertinentes. Paraello, se ha utilizado el motor gráfico Unity.

Una de las formas de influir en las ondas cerebrales y cumplir con uno de losmayores propósitos de este proyecto (conseguir alcanzar estados anímicos modificandolas ondas del cerebro) es utilizando los pulsos biaurales.

Todo ello no tendría sentido si no se utilizasen técnicas de biofeedback para queel usuario conociese en todo momento cuál es su estado biológico. Por esta razón, seha incluido en este trabajo la integración de una pulsera inteligente (en concreto, unaEmpatica E4) con la aplicación de RV.

Después de aclarar todos estos aspectos de este trabajo, se presentan a continuaciónlas tecnologías utilizadas para el desarrollo de la aplicación de RV.

3.1 Realidad Virtual

3.1.1 Definición

La RV se define como un mundo o entorno realista e interactivo en tres dimensiones,creado por ordenador, el cual produce una experiencia sensorial tal que el usuario escapaz de olvidar que está tratando con un entorno artificial y puede percibirlo comouno real, dándole la sensación de que se encuentra en ese mundo tanto física comomentalmente. Por lo tanto, el principal objetivo de la RV es conseguir una inmersióntotal y una interacción natural [29].

9

Page 22: Sistema de realidad virtual para la gestión del dolor

3. MARCO TECNOLÓGICO

Que un entorno virtual sea percibido como uno real en RV no implica que se tenganque simular totalmente las físicas y propiedades del mundo real. Por ejemplo, unaaplicación de RV puede presentar un entorno donde los objetos flotan, y seguir siendoconfundido con el mundo real.

La RV presenta las siguientes características principales:

• Inmersión: es el grado de percepción que tiene un individuo al estar presente enun entorno virtual. La inmersión abarca también el concepto de presencia, ha-ciendo creer al cerebro que está en algún lugar en el que realmente no está. Todoesto se consigue gracias a medios físicos (inmersión física) o medios mentales(inmersión mental). Por lo tanto, la inmersión total se produce cuando el cuerpoy la mente del usuario olvidan por completo que tratan con un mundo virtual yno físico.

• Interacción: en el entorno virtual, se debe proveer al usuario de mecanismospara poder interactuar con él, haciéndolo de esta forma más realista y dotando ala RV de una mayor inmersión. Asimismo, el mundo virtual debe responder concierta naturalidad y rapidez a la interacción del usuario, ya que si no el cerebro lopercibirá como extraño y la sensación de inmersión disminuirá. La interacciónse realiza con dispositivos de entrada y salida como mandos, joysticks, teclados...

• Feedback sensorial: para favorecer nuevamente a la inmersión, la RV necesitasimular la mayor cantidad de sentidos humanos posibles. Así pues, se requierenestímulos visuales (pantallas o monitores), acústicos (sonidos envolventes), tácti-les (dispositivos hápticos), olfativos (aromas) y gustativos. Tecnológicamente, losdos últimos son los menos explorados.

Todo sistema de RV sigue una arquitectura general, que puede ser visualizada en lafigura 3.1 [30].

Figura 3.1: Arquitectura de RV

Los usuarios realizan tareas interactivas a través de dispositivos de entrada salida.Estos son los que permiten interactuar con el mundo virtual, el cual se ha generado a

10

Page 23: Sistema de realidad virtual para la gestión del dolor

3.1. Realidad Virtual

través de la computación, utilizando software específico para RV que puede incluir ono el ataque a bases de datos.

Existen varios tipos de tecnologías de RV dependiendo del grado de inmersión delcual dispongan, que se pueden ver en la figura 3.2 [31]. Principalmente, nos encontra-mos con la RV no envolvente, semi-envolvente y envolvente:

• No envolvente: posee una inmersión pobre. El mundo virtual se percibe a tra-vés de una pantalla o un monitor plano típicos de un entorno computacionalconvencional. La interacción se suele realizar con elementos de entrada y salidaclásicos como un ratón o unos altavoces. Esto hace que únicamente se estimulenlos sentidos de la vista y el oído de una forma poco envolvente.

• Semi-envolvente: el usuario se encuentra parcialmente inmerso en el entornovirtual. Aquí se mantiene el tipo de visualización del tipo anterior, pero se uti-liza una interacción más sofisticada, normalmente con controles que simulanelementos del mundo real, como por ejemplo los controles de la cabina de unavión.

• Envolvente: es la implementación de RV que consigue una mayor inmersión. Seprecisa de un equipo de hardware sofisticado. Para la visualización del entornovirtual, se necesita un casco o visor de RV también llamado Head-MountedDisplay (HMD). La interacción se lleva a cabo con mandos o guantes especialesque proporcionan feedback e, incluso, pretenden simular objetos reales. En estetipo de RV los sentidos de la vista, el oído y el tacto están totalmente explotados.

Figura 3.2: Tipos de RV

Principalmente, la RV está presente en el mundo de los videojuegos y del entre-tenimiento. Sin embargo, sus aplicaciones van mucho más allá. Esta tecnología esutilizada en campos como la medicina y la psicología, la arquitectura, el entrenamientomilitar, la educación, el turismo, la economía, la industria aeroespacial, el marketing ola industria automovilística [32].

Es necesario mencionar que, puesto que para este TFG se necesita una inmersiónelevada, se ha optado por utilizar la RV envolvente en la aplicación, por lo que de ahoraen adelante la lectura se centrará en ella.

11

Page 24: Sistema de realidad virtual para la gestión del dolor

3. MARCO TECNOLÓGICO

3.1.2 Head-Mounted Display (HMD)

Como se ha mencionado en el apartado anterior, es necesario el uso de un HMD paraconseguir una inmersión mayor en la RV envolvente. Un HMD es un dispositivo devisualización personal que provee al usuario de información que siempre es proyectadaa una distancia muy cercana a sus ojos [33]. Necesita recibir la información de unordenador (sobremesa, smartphone...) para mostrar el entorno virtual, por lo que estánconectados al mismo, ya sea a través de cables o de forma inalámbrica. Generalmente,los ordenadores preparados para soportar RV tienen una mayor capacidad de procesa-miento computacional que los smartphones, cosa que permite desarrollar entornosvirtuales más elaborados y, por ende, más envolventes.

Para la visualización de la información, los HMD utilizan lentes y pantallas. Laslentes se encuentran entre los ojos del usuario y las pantallas y su función es remodelary angular las imágenes mostradas en cada ojo, que están en 2 dimensiones, para simularla vista estereoscópica del mundo real y crear una sensación de profundidad. De estaforma, se consigue percibir un entorno tridimensional. Existen HMDs que permitencambiar las dioptrías y la posición de las lentes para adaptarse a la disposición ya las correcciones de los ojos del usuario. Por otro lado, las pantallas se encargande mostrar dichas imágenes. Típicamente, utilizan tecnología Liquid Crystal Display(LCD) o Organic Light-Emitting Diode (OLED) y reciben el contenido multimedia quemuestran de un ordenador.

Normalmente, los HMD son reactivos a los movimientos de la cabeza y del cuerpo(rotación, traslación e inclinación), simulando la forma en la que un individuo ve yexplora el mundo real. Para ello, disponen de sensores que calculan de forma conjuntala disposición de la cabeza del usuario. Los más conocidos son los magnetómetros,los acelerómetros y los giroscopios, aunque actualmente se utilizan leds infrarrojosde posicionamiento, cuya luz infrarroja es captada por unos sensores que calculan ladisposición del visor. Todo ello ayuda a calcular 6 ejes de movimiento y de orientación,que se pueden ver en la figura 3.3:

Figura 3.3: Ejes calculados por un HMD

12

Page 25: Sistema de realidad virtual para la gestión del dolor

3.1. Realidad Virtual

• Magnetómetro: utiliza los campos magnéticos para para detectar a que direcciónhace frente respecto a la superficie de la tierra.

• Acelerómetro: permite medir la aceleración de un dispositivo en el eje X, Y y Z y,por lo tanto, permite conocer la dirección a la que se mueve.

• Giroscopio: calcula la orientación y la velocidad angular del dispositivo.

Existen en el mercado varios tipos de HMD con aplicaciones y características di-ferentes [34]. En esta lectura, se analizarán los tres más utilizados y que gozan demayor fama, que son Oculus Rift, HTC Vive y Playstation VR. En el cuadro 3.1 [34] seencuentran sus especificaciones de forma resumida.

HTC Vive Oculus Rift Playstation VRResolución 2016x1200 2160x1200 1920x1080Refresco 90 Hz 90 Hz 120 HzCampo de visión 110º 110º 100ºSistema de posicionamiento Leds y láser Leds LedsPeso 555 g 470 g 610 gPantalla OLED OLED OLEDAuriculares No Sí NoPrecio 599 $ 399 $ 350 $

Cuadro 3.1: Comparación de especificaciones de HMD

Las Oculus Rift son unas gafas de realidad virtual desarrolladas por Facebook ypuestas en el mercado el 28 de marzo de 2016. Dispone de una pantalla OLED conuna resolución de 1080x1200 píxeles en cada ojo, haciendo una suma de 2160x1200.Ofrece una tasa de refresco de 90 Hz y un campo de visión de 110º, consumiendo 223millones de píxeles por segundo. Incorpora unos auriculares con sonido envolventetridimensional. Para detectar el posicionamiento de la cabeza, se utilizan dos estacionescon leds infrarrojos situadas en el escritorio del usuario. Estas estaciones recogen laluz emitida por los leds del casco, cosa que permite crear un espacio virtual 3D. El kitcompleto incluye dos mandos llamados Oculus Touch, que son incorporados al mundotridimensional gracias al sistema de posicionamiento mencionado. [35]. Tanto el visorcomo las estaciones se conectan al ordenador.

HTC y Valve Corporation desarrollaron su propio HMD, llamado HTC Vive, consalida al mercado el 5 de abril de 2016. Dispone de dos pantallas Active-Matrix organicLight-Emitting Diode (AMOLED) de 1080x1200 píxeles de resolución cada una, hacien-do una suma de 2160x1200. Posee una tasa de refresco de 90 Hz con un campo de visiónde 110º [36]. Para el posicionamiento del visor o de los mandos que incorpora, utilizados estaciones base con leds infrarrojos y emisores láser. Los leds destellan sesentaveces cada segundo y uno de los emisores emite un haz de luz. Cuando uno de losdispositivos detecta el flash emitido por los leds cronometra el tiempo que pasa hastarecibir uno de los láseres. Así pues, se utiliza la posición del sensor que detecta el lásery el tiempo transcurrido para calcular la posición del HMD o del mando [37].

Por otro lado, Sony Interactive Entertainment desarrolló Playstation VR, lanzándoloal mercado el 13 de octubre de 2016. Tiene una pantalla OLED de 1920x1080 píxeles

13

Page 26: Sistema de realidad virtual para la gestión del dolor

3. MARCO TECNOLÓGICO

de resolución a 120 Hz y un campo de visión de 100º. El visor dispone de 9 leds queemiten luz constantemente, necesaria para que la cámara de Playstation los detecte ydetermine la posición y la orientación de la cabeza [38].

Cabe destacar que existen HMD pensados para ser utilizados con smartphones,como por ejemplo Samsung Gear o Google Daydream View. A pesar de tener unapotencia de hardware más limitada, favorecen a la portabilidad y a la comodidad delusuario al no disponer de cables y al utilizar tecnologías de comunicación inalámbrica.

A la hora de elegir un HMD para desarrollar este proyecto, se tenía que tener encuenta si utilizar un visor potente, pero con cables, o uno con una potencia menor peroinalámbrico. Se optó por el primero para que, a la hora de desarrollar la aplicación y elentorno virtual, se tuviesen las menores limitaciones posibles en cuanto a hardware.Dentro de este tipo, en primera instancia, se descartaron las Playstation VR ya quetienen una resolución baja y, para llevar un desarrollo a cabo con este visor, se necesitauna licencia de programación de Sony. En cuanto a las HTC Vive o las Oculus Rift, seoptaron por estas últimas, ya que pesan menos (más cómodas), incorporan auricularesintegrados en el visor y son más asequibles económicamente.

3.1.3 Desarrollo de aplicaciones de RV

Para desarrollar aplicaciones o videojuegos en RV lo primordial es disponer de hardwarepreparado para ello. La RV requiere gran potencia como, por ejemplo, las Oculus Rift olas HTC Vive, cuyas especificaciones de hardware se muestran a continuación:

• Procesador: Intel Core i5-4590 o AMD FX 8350

• Tarjeta gráfica: NVIDIA GeForce GTX 1060 o AMD Radeon RX 480

• Memoria: 8 GB RAM

• Puertos: 3x USB 3.0

• Sistema Operativo: Windows 7 or superior

Puesto que el objetivo de la RV es crear entornos envolventes e interactivos, sonnecesarios conocimientos sobre geometría tridimensional y modelado 3D. Para ello,existen programas como Blender, Autodesk Maya o Autodesk 3ds Max que permiten lacreación de modelos en 3D. Existen también páginas web donde se pueden descargarmodelos 3D ya hechos como son TurboSquid, Free3D, CGTrader o Sketchfab. Cabemencionar que, con el surgimiento del escaneo 3D, se pueden encontrar programasque son capaces de obtener un modelo en 3D a partir de un objeto real utilizando unaimpresora 3D. DAVID SLS2, Da Vinci 1.0 AiO o Structure Sense son algunos ejemplos[39].

En cuanto a la programación, los lenguajes más utilizados son C#, C++ y Javascript[40]. El uso del lenguaje depende en gran medida del motor gráfico con el que sedesarrolle, cosa que se verá en el apartado 3.2. Cabe mencionar que los dispositivosde RV tienen Software Development Kit (SDK)s en prácticamente todos los motoresgráficos e, incluso, Google facilita SDKs para desarrollar en Android y iOS.

14

Page 27: Sistema de realidad virtual para la gestión del dolor

3.2. Motor gráfico

Además, existen soluciones para experimentar la RV en el propio navegador como,por ejemplo, WebVR, el cual se trata de un estándar libre con una Application Pro-gramming Interface (API) en Javascript. Para usar gráficos en 3D en el navegador, esnecesario conocer la librería Three.js que, como su propia extensión indica, está hechaen Javascript.

Ya que para este proyecto se utiliza el visor de RV Oculus Rift, se requiere el uso deun motor gráfico para desarrollar la aplicación en cuestión.

3.2 Motor gráfico

Un motor gráfico o motor de videojuego es una colección de módulos de código desimulación que permiten gestionar la creación de entornos, ya sean bidimensionales otridimensionales. Se encarga de las físicas y dinámicas del espacio virtual, del input y deloutput, que entre otras tareas incluye la renderización 3D, el dibujado bidimensional,el sonido...

La estructura de un motor gráfico se puede observar en la figura 3.4 [41]. En la partemás alta se encuentra el escenario virtual sobre el cual el usuario interactúa y se ejecu-tan ciertas físicas y dinámicas. A continuación, se presenta el código de juego, el cualgestiona las mecánicas principales del juego o del entorno, las animaciones, las físicas...Seguidamente se halla el motor de renderizado, responsable de renderizar la vista delusuario a partir de un modelado complejo utilizando un código muy elaborado. Elmotor de renderizado no puede ser modificado por los usuarios. También se dispone deun código de red encargado de gestionar las conexiones de un entorno online. Permitea los usuarios, entre otras cosas, interactuar y explorar el mismo entorno virtual. Senecesita un servidor que actúe como host de las instancias de los clientes. Posterior-mente se encuentran los drivers gráficos, encargados de gestionar la comunicaciónentre el motor de renderizado y las librerías gráficas utilizando APIs como DirectX oOpenGL. Finalmente, en la parte más baja aparece el Sistema Operativo, necesario paramantener la información del entorno virtual.

Figura 3.4: Estructura de un motor gráfico

Una vez vistas las características principales de un motor gráfico, se estudiarán dosde ellos que gozan de más fama en el mercado. Estos son Unity y Unreal Engine.

Unity [42] es un motor gráfico creado por Unity Technologies lanzado el 30 de mayode 2005. Está disponible para Windows, OS X y Linux con soporte de compilación de

15

Page 28: Sistema de realidad virtual para la gestión del dolor

3. MARCO TECNOLÓGICO

varias plataformas como los Sistemas Operativos mencionados, WebGL, Android TV,Playstation, Oculus Rift... Presenta un editor con múltiples herramientas para persona-lizar el entorno y sus dinámicas, ofreciendo sistemas de diseños de escenas en 2D y 3D,cinemáticas, efectos de partículas o iluminación. Dispone de un motor de renderizadoen tiempo real y la compatibilidad con APIs de gráficos de bajo nivel como Vulkan,DirectX12 o nVidia VRWorks. Cabe destacar que Unity dispone de una tienda de activosonline con modelos 3D, código, sonidos... que agilizan la creación de una aplicación.Como lenguajes de programación, se pueden utilizar C#, Javascript, UnityScript o Boo.

Enfocándose en el proyecto, Unity tiene soporte para RV. Es compatible con lamayoría de plataformas de RV como HTC Vive, Playstation VR, Gear VR o, el interesantepara este sistema, Oculus Rift. Dispone de varios paquetes, plugins y SDKs para facilitarel desarrollo [43]. OVRPlugin incorpora las configuraciones necesarias para soportarla RV en las Oculus Rift a través de Unity. Oculus Avatar SDK se encarga de ofrecerherramientas para implementar la presencia social del usuario, tanto de la cabeza comode las manos permitiendo, asimismo, su personalización. Finalmente, Oculus PlatformSDK incluye funcionalidades para las aplicaciones de RV como el matchmaking o elchat de voz.

Por otro lado, existe Unreal Engine [44], creado por Epic Games en el año 1998.Desarrollado sobre una base de código C++, es compatible para las plataformas Win-dows, macOS, Linux, Nintendo Switch, Google Daydream, HTML5, Oculus Rift..., entreotros. Incorpora un editor desde el cual el desarrollador puede modificar y personalizarla apariencia y el comportamiento de los objetos y el entorno, con una versión adapta-da a la RV. Ofrece renderizado fotorrealista en tiempo real y funcionalidades robustaspara las aplicaciones multijugador. La cuarta versión de este motor dispone de unaInteligencia Artificial avanzada que ofrece una interacción más real.

Al igual que Unity, es compatible con la mayoría de HMD del mercado, incluyendolas Oculus Rift. Unreal Engine ya incorpora soporte integrado para la tecnología deOculus. Simplemente es necesario obtener una distribución de Oculus Unreal, quepuede ser descargado de forma gratuita en los repositorios de GitHub. Además, losmismos plugins y SDKs mencionados en Unity son compatibles con Unreal Engine.

Viendo que los dos motores gráficos incorporan la compatibilidad con RV, parael desarrollo de la aplicación de este proyecto se ha optado por utilizar Unity por lossiguientes motivos:

• Presenta soporte para la gran mayoría de plataformas, consolas, dispositivos...,incluida la RV.

• Presenta soporte para varios dispositivos de RV como son HTC Vive, SamsungGear o, el interesante para este proyecto, Oculus Rift.

• Dentro de los motores gráficos más utilizados, Unity es conocido por ser fácil-mente utilizable.

• Dispone de una gran variedad de tutoriales y documentación realizados tantopor los mismos creadores y trabajadores de Unity como por los usuarios.

• Dispone de un gran catálogo de activos gratuitos en su tienda online.

16

Page 29: Sistema de realidad virtual para la gestión del dolor

3.3. Pulsos biaurales

• Los lenguajes de programación que utiliza Unity, principalmente Javascript y C#,son bastante utilizados en el desarrollo de aplicaciones y videojuegos, por lo queexiste una gran cantidad de información de los mismos.

• Ya se había trabajado con anterioridad con este motor gráfico.

En Unity, cada pantalla equivale a una escena con funcionalidades distintas. Porejemplo, en un videojuego, el menú principal y el primer nivel equivaldrían a dos es-cenas distintas. En cada escena hay un conjunto de objetos Unity que tienen unavisualización determinada y un comportamiento propio. Los objetos pueden ser unamesa, las fuentes de iluminación, partículas... Dichos objetos definen su comporta-miento a través de scripts, que son archivos de código que permiten activar eventos,modificar cualidades de los mismos objetos (como su posición, rotación...), responderante determinados inputs del usuario... Así pues, es necesario remarcar que en Unityno hay clases, sino scripts. Como lenguaje de programación de scripts se ha utilizadoC#.

3.3 Pulsos biaurales

Las ondas cerebrales son una parte muy importante a tener en cuenta en este proyecto.Modificarlas para aumentar o disminuir un cierto tipo de onda u otro es la clave paraconseguir estados de relajación, concentración... Existen varias formas para cambiarlas ondas del cerebro utilizando estímulos externos como son los colores, los sonidos,la música o el contacto humano. Una de las técnicas consiste en utilizar los pulsosbiaurales [22], utilizados para ese propósito en este proyecto.

Cuando dos ondas sinusoidales (tonos) a una frecuencia diferente entran por eloído izquierdo y derecho respectivamente, el cerebro percibe un tercer tono ilusoriocon una frecuencia igual a la diferencia de las otras dos en valor absoluto, llamadopulso biaural [45]. Por ejemplo, si se reproduce un tono a 70 Hz por el oído izquierdo yotro a 72 Hz por el oído derecho, el cerebro percibe un pulso biaural de 2 Hz. Los pulsosbiaurales se contraponen a la estimulación con sonidos monoaurales, equivalente a lossonidos clásicos. En la figura 3.5 [46] se puede comparar el proceso de estimulaciónmonoaural y biaural.

La grabación de pulsos biaurales es una implementación especial del sonido es-téreo donde se puede garantizar que solo un pulso a una determinada frecuencia espresentado en cada oído. Las técnicas de sonido estéreo convencionales o el sonido360 no pueden garantizar este hecho.

Mientras se escucha un pulso biaural, el cerebro intentará ajustar sus ondas cere-brales a la frecuencia del estímulo externo [47]. Por lo tanto, es relativamente sencilloser inducido a un determinado estado. Por ejemplo, si queremos inducir a un sujeto aun estado de relajación, se necesita reproducir un pulso biaural con una frecuencia quecoincida con las ondas alfa (8-12 Hz). Existen varios trabajos previos que han utilizadolos pulsos biaurales como técnica para el entrenamiento del cerebro [48, 46, 49].

Cabe mencionar que, para una mejor percepción del pulso biaural, los dos tonosreproducidos en cada oído deben tener una diferencia de frecuencias menor de 35 Hz[50] y se requiere el uso de auriculares, no altavoces.

17

Page 30: Sistema de realidad virtual para la gestión del dolor

3. MARCO TECNOLÓGICO

Figura 3.5: Estimulación monoaural y estimulación biaural

3.4 Pulseras inteligentes

Para incorporar el biofeedback se necesita algún tipo dispositivo para medir los pará-metros biológicos del usuario de la aplicación. Existen varias soluciones en el mercadocomo los cascos EEG, capaces de medir la actividad cerebral. Pero como los usuariosya deben de portar un visor de RV, podría resultar incómoda la incorporación de uncasco EEG para la experiencia. Es por este motivo que se pensó en la utilización de undispositivo menos invasivo y aquí es donde entran las pulseras inteligentes.

Una pulsera inteligente es un dispositivo que el portador lleva en la muñeca (a modode pulsera o reloj) el cual dispone de varios sensores para la captura de informaciónbiológica. Pueden incorporar podómetros (cuentan los pasos), acelerómetros (midenel movimiento), sensores de pulso cardíaco, sensores de la conductividad eléctrica...[51].

Las pulseras inteligentes pueden mostrar esta información de dos formas no ex-cluyentes. Por un lado, suelen disponer de una pequeña pantalla donde se visualizanlos datos, interaccionando con ella a través de algunos botones o gracias a la tactilidadde la pantalla. Por otro lado, pueden tener conexión Bluetooth para poder conectarsea las aplicaciones disponibles para smartphones, donde se puede ver la informaciónextraída en tiempo real y generar gráficos, tablas, informes...

En la aplicación, el usuario porta en todo momento un visor de RV, por lo que

18

Page 31: Sistema de realidad virtual para la gestión del dolor

3.4. Pulseras inteligentes

no podría mirar sus parámetros biológicos en la pantalla de una pulsera inteligente.Además, hacerlo bajaría el nivel de inmersión de la experiencia. Por esta razón, esnecesario mostrar la pulsera (o al menos los datos que ofrece) en la misma aplicación,cosa que solo se puede conseguir si la pulsera ofrece un SDK. Existen varias pulserasinteligentes con esta característica y, en el cuadro 3.4 [52], se muestran los sensoresaccesibles a través de sus SDKs de las pulseras más utilizadas.

Microsoft Band Samsung Gear S Empatica E4Acelerómetro Sí Sí SíGiroscopio Sí Sí NoRayos ultravioleta Sí Sí NoPulso cardíaco Sí Sí SíVibración Sí Sí SíTemperatura Sí No SíBarómetro No Sí NoLuz ambiente No Sí NoConductividad eléctrica No No Sí

Cuadro 3.2: Comparación de los sensores accesibles en pulseras inteligentes

Para este TFG se ha utilizado la pulsera Empatica E4 [53] ya que dispone de sensoresinteresantes para la detección y el tratamiento del dolor como son el acelerómetro,el sensor de pulso cardíaco, el sensor de temperatura y el sensor de la conductividadeléctrica de la piel. Además, se trata de un dispositivo de medición cómodo y noinvasivo, es decir, no daña, rompe o penetra físicamente el cuerpo de su portador. Tieneconexión Bluetooth Low Energy Smart USB 2.0, una batería que puede durar hasta 48horas y una memoria flash interna capaz de almacenar 60 horas de datos. En la figura3.6 [54] se puede observar una imagen de dicha pulsera.

Figura 3.6: Pulsera Empatica E4

19

Page 32: Sistema de realidad virtual para la gestión del dolor

3. MARCO TECNOLÓGICO

La pulsera dispone de dos modos de funcionamiento. En el primero, la pulserarecoge los datos y los envía mediante Bluetooth a una aplicación disponible paraAndroid y iOS, permitiendo su monitorización en tiempo real. Una vez finalizada lasesión, los datos son subidos a la nube y se permite visualizarlos a través de una páginaweb, disponiendo así de toda la información de sesiones pasadas. En el segundo, lapulsera guarda los datos en su memoria interna. Toda la información de la memoria sepuede descargar a posteriori en un ordenador a través de una aplicación de escritorio.

20

Page 33: Sistema de realidad virtual para la gestión del dolor

CA

TU

LO

4ANÁLISIS DEL PROYECTO

En este capítulo se presenta una definición más detallada del sistema desarrolladojunto a la ingeniería de requisitos llevada a cabo y la metodología de trabajo aplicada.

4.1 Definición del sistema y arquitectura

Este TFG consiste en el desarrollo de un sistema de RV para el tratamiento, la terapia yla autorregulación del dolor crónico en niños y jóvenes con enfermedades raras. Enla figura 4.1 se muestra la arquitectura de este sistema. El desarrollo se ha realizadocon el motor gráfico Unity y se interactúa con él a través de Oculus Rift (visualización yaudición) y de Oculus Touch. Una de las consecuencias que se quiere alcanzar graciasa la utilización de esta aplicación es modificar las ondas cerebrales para conseguirestados psicológicos como la relajación o la inspiración. Para ello, el usuario se situaráen un entorno virtual donde un objeto va aumentando y disminuyendo su tamañoa la vez que va cambiando de color, mientras se escuchan pulsos biaurales y unadeterminada música. Aunque el sistema está enfocado principalmente a la relajación ya la reducción del dolor, también se ofrecerán opciones distintas para la concentración,la meditación..., entre otros. Así pues, por ejemplo, en el modo de relajación se utilizaránpulsos biaurales que afecten a las ondas alfa, con música relajante, un movimientosuave del objeto y unos colores que susciten a la relajación.

Ya que se quiere conseguir que los usuarios sean capaces de la autorregulación deldolor a través de técnicas de biofeedback, se permite la visualización de sus parámetrosbiológicos, captados por una pulsera inteligente Empatica E4. La pulsera se conectaráa un servidor y establecerá comunicación con un cliente de la aplicación, proporcio-nando información sobre el pulso cardíaco y la conductividad eléctrica de la piel. Estainformación será mostrada en tiempo real en la misma aplicación.

La aplicación se bautizó con el nombre de Soter VR, haciendo alusión a Soter,personificación de la seguridad, la preservación y la liberación del dolor en la mitologíagriega.

21

Page 34: Sistema de realidad virtual para la gestión del dolor

4. ANÁLISIS DEL PROYECTO

Figura 4.1: Arquitectura del sistema

4.2 Requisitos

La obtención de requisitos se ha realizado a través de efectuar entrevistas con laresponsable del TFG complementario de psicología, con los responsables del grupoINeDITHOS y con algunos niños con enfermedades raras. En particular, cabe destacarla entrevista realizada a Iván, un niño que sufre de histiocitosis de células de Langerhanscon afectación neurodegenerativa el cual ha sido capaz de buscar medios alternativos ala medicación para poder reducir su sensación de dolor. Entre estos medios alternativosse encuentran los pulsos biaurales.

En los siguientes subapartados se presentan los requisitos de este proyecto. Lanomenclatura utilizada es RUXX para los requisitos de usuario, RFXX para los requisitosfuncionales del sistema y RNFXX para los requisitos no funcionales, donde XX indica elnúmero del requisito. El orden expuesto de los requisitos no expresa relevancia.

4.2.1 Requisitos de usuario

• RU01: El sistema debe ser utilizado con gafas de RV.

• RU02: El sistema debe de disponer de menús intuitivos.

• RU03: El sistema debe proveer de información sobre la interacción que se lleva acabo.

• RU04: El sistema debe utilizar varios pulsos biaurales.

• RU05: El sistema debe utilizar varios tipos de música.

• RU06: El sistema debe disponer de un objeto que cambie su tamaño

• RU07: El objeto debe cambiar de color.

• RU08: El sistema debe utilizar diferentes entornos virtuales.

• RU09: El sistema debe combinar los recursos auditivos con los recursos visuales.

22

Page 35: Sistema de realidad virtual para la gestión del dolor

4.2. Requisitos

• RU10: El sistema debe disponer de sesiones distintas (relajación, meditación...)con tiempo límite.

• RU11: El sistema debe permitir la personalización de los estímulos.

• RU12: El sistema debe utilizarse con auriculares o cascos.

• RU13: El sistema debe poder utilizarse con una pulsera inteligente.

• RU14: El sistema debe mostrar información sobre los parámetros biológicos delusuario.

• RU15: El sistema debe adaptarse a las condiciones de movilidad y fatiga delusuario.

• RU16: El sistema no debe sobrecargarse con largas descripciones.

4.2.2 Requisitos funcionales

• RF01 (deriva de RU02): El sistema debe disponer de una interfaz gráfica deusuario integrada en el propio mundo virtual.

• RF02 (deriva de RU03): El sistema debe proveer de feedback táctil y visual alinteractuar con su interfaz.

• RF03 (deriva de RU04): El sistema debe implementar diversos pulsos biauralesdistintos.

• RF04 (deriva de RU05): El sistema debe disponer de pistas de audio con cancio-nes o música distinta.

• RF05 (deriva de RU06): El sistema debe disponer de un objeto que aumente ydisminuya su tamaño de forma gradual.

• RF06 (deriva de RU07): El gradiente del objeto debe cambiar gradualmente yentre varias tonalidades.

• RF07 (deriva de RU08): El sistema debe tener varios entornos virtuales creados ypermitir al usuario situarse en ellos.

• RF08 (deriva de RU09): El sistema debe permitir la reproducción de sonidos y laaparición de eventos visuales a la vez.

• RF09 (deriva de RU09): Los estímulos visuales deben sincronizarse con los estí-mulos auditivos.

• RF10 (deriva de RU10): El sistema debe disponer de un modo sesión, donde sepueda seleccionar entre sesiones distintas predeterminadas con parámetros nomodificables (pulsos biaurales, música...) y controladas en el tiempo.

• RF11 (deriva de RU10): Los parámetros de cada sesión deben de ser acordes a lasesión.

23

Page 36: Sistema de realidad virtual para la gestión del dolor

4. ANÁLISIS DEL PROYECTO

• RF12 (deriva de RU11): El sistema debe de disponer de un modo libre, donde sepueda llevar a cabo la personalización de los parámetros de una sesión.

• RF13 (deriva de RU12): El audio del sistema y su calidad debe de basarse en lareproducción con auriculares o cascos.

• RF14 (deriva de RU13): El sistema debe incorporar un cliente para una pulserainteligente que permita su integración y su conexión de forma automática.

• RF15 (deriva de RU14): El sistema debe mostrar el pulso cardíaco y la conducti-vidad eléctrica de la piel del usuario en tiempo real.

4.2.3 Requisitos no funcionales

• RNF01 (deriva de RU01): El sistema debe seguir las buenas prácticas de desarrollode aplicaciones de RV utilizando un HMD.

• RNF02 (deriva de RU15): El sistema debe poder ser utilizado tanto de pie comosentado.

• RNF03 (deriva de RU16): El sistema debe utilizar la menor cantidad de textoposible.

4.3 Metodología de trabajo

Para la realización de este sistema se ha optado por la utilización de la metodologíaágil. Entre las características del proyecto se encuentra que los individuos y su cola-boración son muy importantes, que se valora más un programa funcional que unadocumentación exhaustiva y que se necesita una respuesta rápida y eficiente frentea los posibles cambios e inconvenientes que pudiesen surgir. Estas característicascoinciden precisamente con los principios básicos de las metodologías ágiles [55].

Entre todas las metodologías ágiles que existen, para este proyecto se ha utilizadoSCRUM [56] ya que responde muy bien ante cambios, el equipo de trabajo es pequeño,permite utilizar las características más importantes del proyecto antes de que estéterminado y porque ya se estaba familiarizado con esta metodología.

Se estableció una durada de sprints (iteraciones) de una semana, donde al final dela misma se realizada un Scrum meeting, tanto de forma presencial como no presencial,donde se definían las prioridades y tareas a realizar para el siguiente sprint.

El Product owner es el tutor de este TFG estableciendo los objetivos y las prioridadesdel proyecto y aportando las tareas a realizar para cumplir con los sprints. Por otrolado, el Scrum master es el escritor de este documento, asegurando el cumplimiento delas metas y el seguimiento de la metodología. Se encargaba también de la transmitirlos deseos del Product owner al equipo. Así pues, el Scrum team está formado por elescritor de este documento y por la responsable del TFG de psicología, encargándosede realizar las tareas de los sprints. Cabe mencionar que los skateholders está formadospor el grupo UGIVIA y por el grupo INeDITHOS y los usuarios se corresponden a losniños y jóvenes con dolor crónico.

24

Page 37: Sistema de realidad virtual para la gestión del dolor

4.3. Metodología de trabajo

Las tareas a realizar en cada sprint se gestionan en SCRUM con el uso de un panelcon post-its. Para una mayor comodidad, en este proyecto se ha utilizado un softwa-re que pretende simular dicho panel llamado Trello [57]. En él, se han creado cincocolumnas donde se depositan las tareas a realizar. Un ejemplo se puede ver en lafigura 4.2:

• Backlog : aquí se encuentran las tareas que hay que realizar pero que aún notienen planificación dentro del sprint.

• Task list: contiene las tareas a realizar dentro del sprint actual.

• In progress: tareas que se encuentran en desarrollo.

• Waiting for feedback / On hold: incluye las tareas de las cuales se espera una res-puesta por parte de terceras personas o se encuentra parada por fuerzas mayores(como, por ejemplo, que se necesite una actualización del Sistema Operativo).

• Done: abarca aquellas tareas ya realizadas del sprint actual o de sprints anteriores.

Para identificar las tareas se dispone de tarjetas con un nombre explicativo, indi-cando también el sprint al cual pertenecen. Para ello se escribe junto al nombre de latarea el día y el mes de inicio del sprint y el día y mes de finalización del mismo.

Por último, se ha hecho uso del concepto de Epic. Hace referencia a un conjuntode tareas cuya realización supone el desarrollo de una funcionalidad o entregableimportante del proyecto. Las tareas pertenecientes a un Epic se marcan con el mismocolor.

Figura 4.2: Ejemplo de la pizarra de Trello

25

Page 38: Sistema de realidad virtual para la gestión del dolor
Page 39: Sistema de realidad virtual para la gestión del dolor

CA

TU

LO

5DESARROLLO DEL PROYECTO

A lo largo de este capítulo se exponen los detalles y las peculiaridades de la aplicaciónrealizada. Se presenta la arquitectura de scripts del código desarrollado, las funcionali-dades y el flujo del programa junto con diferentes versiones específicas de testeo defuncionalidades del producto final.

5.1 Arquitectura de scripts

En la figura 5.1 se muestra la arquitectura de scripts de la aplicación de RV. Para facilitarsu comprensión y evitar una extensión innecesaria, se han obviado aquellos scriptsy librerías cuya función es proporcionar utilidades para la programación, la RV, lospulsos biaurales..., y no han sido desarrollados específicamente para este proyecto. Sinembargo, los módulos de dichos scripts que están directamente conectados a los scriptsimplementados para este TFG se pueden visualizar en color lila. A continuación, seexplicará al lector la función de cada uno de los scripts:

• Utils: script que provee a los demás de funcionalidades, variables y estructuras dedatos generales como una estructura de datos para las sesiones, las característicasde las sesiones predeterminadas, funcionalidades para saber si el usuario está enel modo libre...

• BallSetUpK: script que se encarga de gestionar el cambio de tamaño gradualy el cambio de color gradual de la figura que se presenta. Hace uso de las fun-cionalidades ofrecidas por Koreographer para saber cuándo y de qué forma serealizan los cambios de la figura. Tiene ball (bola en inglés) en el nombre porque,originalmente, la figura siempre era una bola.

• MusicSetUp: script que inicializa y gestiona la música de la aplicación, utilizandoel reproductor de música de Koreographer.

27

Page 40: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

• Koreographer: librería externa que permite añadir eventos de una forma fácil yóptima a una pista de audio como mensajes, números, funciones matemáticas,colores... Su función es ofrecer una sincronización sencilla entre audio y eventosvisuales a través de un editor propio integrado en Unity [58].

• EnvironmentSetUp: script cuya funcionalidad es gestionar los diversos entornosvirtuales que ofrece la aplicación.

• BinauralSetUp: script que controla los pulsos biaurales que se pueden escucharen la aplicación. Además, controla la duración en el tiempo de una sesión. Ha-ce uso de las funcionalidades ofrecidas por el script Controls y por la libreríaAccelBrainBeat.

• AccelBrainBeat: librería externa que ofrece la creación y la reproducción depulsos monoaurales y biaurales. Se permite la libre personalización de dichospulsos pudiendo cambiar la frecuencia emitida en cada oído, la frecuencia demuestreo y el volumen, entre otras características [59].

• Controls: script que controla y gestiona el input del usuario a través de OculusTouch, modifica los menús in game en función de dicho input y ofrece funciona-lidades para mostrar o desactivar los menús mencionados.

• SessionsSetUp: script que gestiona todos los aspectos relacionados con las sesio-nes, como puede ser mostrar toda la información de una sesión, establecer losparámetros de una sesión e iniciar una sesión.

• GameOption: script que ofrece funcionalidades en tiempo de ejecución. Muestrainformación al usuario sobre el modo en el que se encuentra (modo libre o sesión)y gestiona un contador de tiempo.

• MenuControls: script que se encarga de gestionar el pintado y las funcionalida-des del menú principal, como la gestión de cambios de submenús en el menúprincipal, empezar los modos de juego... Además, procede llamar a las funcionescorrespondientes para terminar la recogida de datos de la pulsera inteligente encaso de la salida de la aplicación.

• EmpaticaSetUp: script que se encarga de realizar las peticiones adecuadas paraenviar y recibir mensajes entre el cliente y el servidor de Empatica. Además,prepara los mensajes recibidos del servidor para su posterior visualización en laaplicación.

• TCPConnection: script capaz de conectarse al servidor de Empatica E4 a travésde una dirección y un puerto y se encarga de enviar y recibir peticiones del mismo[60].

• Servidor E4: servidor que permite la recepción y el envío de datos reales de lapulsera Empatica E4 conectada. Para ello, se requiere una conexión TCP con elcliente [61].

• OVR: librería externa que provee soporte para el desarrollo de Oculus Rift enUnity.

28

Page 41: Sistema de realidad virtual para la gestión del dolor

5.2. Funcionalidades

• OvrAvatar: librería externa que ofrece funcionalidades para implementar unavatar de los personajes manejados con Oculus Rift y Oculus Touch como, porejemplo, una cabeza o unas manos virtuales.

• VRInputModule: librería externa que permite controlar la interacción del usuarioque utiliza Oculus Rift y Oculus Touch con componentes del entorno virtual.

Figura 5.1: Arquitectura de scripts

5.2 Funcionalidades

Durante esta sección, se mostrarán cuáles son las funcionalidades esenciales del pro-grama desarrollado y los posibles flujos que pueden experimentar los usuarios. Princi-palmente, navegarán entre tres pantallas: el menú principal, el modo libre y el modosesión.

29

Page 42: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

5.2.1 Menú principal

Al iniciar la aplicación, se situará al usuario en el menú principal. Dicho menú ya es unentorno virtual envolvente per se, el cual muestra un terreno con árboles frondosos enfrente, a la izquierda y detrás del usuario y una pequeña playa con el mar en el horizontea la derecha. Además, gracias a Oculus Touch y a la librería OvrAvatar, el usuario puedever en todo momento sus manos (junto con unos rayos que salen de cada una de ellas,necesarios para poder apuntar y seleccionar los botones) y sus dedos, reaccionando almovimiento y a los botones de Oculus Touch. Mientras el usuario se encuentra en estapantalla, una música de fondo es reproducida, la cual incorpora también el ruido delmovimiento de las hojas de los árboles y del agua.

Justo al principio, aparecen enfrente del usuario los logos de la UIB, UGIVIA yINeDITHOS, grupos que han participado en este proyecto, observable en la figura 5.2.A continuación, después de un efecto de difuminado, aparece una pequeña interfaz deusuario con tres botones, con la cual el usuario puede interactuar. Las tres opciones quese ofrece son: “Free mode”, “Session” y “Quit”. Esto se puede visualizar en la figura 5.3.Al pasar por los botones, los mandos ofrecen una ligera vibración y estos se vuelvenmás grandes.

Figura 5.2: Menú principal - Logos

Figura 5.3: Menú principal - Opciones

30

Page 43: Sistema de realidad virtual para la gestión del dolor

5.2. Funcionalidades

“Free mode”

Al pulsar sobre “Free mode”, empezará el modo libre de la aplicación en el cual losparámetros de la experiencia (colores, pulsos biaurales...) son personalizables. El scriptMenuControlls permite hacer esto, inicializando la escena de Unity que tiene el modolibre.

“Session”

Al pulsar sobre “Session”, desaparecerá el menú principal y aparecerá otro menú, mos-trando las sesiones predeterminadas que se han programado en la aplicación, el cual sepuede ver en la figura 5.4. Dichas sesiones se muestran como un botón con el nombrede la sesión y una imagen de fondo. Se incluye también un botón con la imagen de unaflecha para darle la opción al usuario de volver al menú anterior.

Figura 5.4: Menú principal - Menú de sesiones

Ofrecer toda la información relativa a una sesión podía ser interesante. No obstante,ofrecerla de primeras podría provocar atosigamiento a los usuarios al disponer de talcantidad de información. Es por eso que esta se encuentra oculta y únicamente disponi-ble al pulsar el botón con el logo de una letra I (ofreciendo la metáfora de información)situado dentro de cada botón de sesión. Al pulsar sobre “Información”, aparecerá unpanel con todos los datos de la sesión como son el nombre de la misma, la duraciónen minutos, el entorno, la música utilizada, los colores de la figura y las frecuenciasreproducidas en cada oído para producir los pulsos biaurales. Esta explicación se com-plementa con la figura 5.5. El panel mencionado dispone de un botón con la imagende una cruz para quitarlo y volver al botón de sesión sencillo.

Al pulsar sobre el botón de una sesión, este llamará al método Manager() del scriptSessionSetUp, el cual recibe por parámetro el nombre de la sesión. Simplemente, ini-cializa los parámetros necesarios (los correspondientes entornos, colores...) e inicia laescena de Unity que contiene el modo sesión.

“Quit”

Al pulsar sobre “Quit”, se cerrará y finalizará la aplicación gracias al script MenuCon-trolls.

31

Page 44: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

Figura 5.5: Menú principal - Información de una sesión

5.2.2 Modo libre

En el modo libre, el usuario se encontrará en un entorno virtual donde, en el centro, seencuentra una figura que modifica su tamaño y su color de forma sincronizada conla música que suena de fondo, mientras un pulso biaural es reproducido a través delos auriculares. El usuario puede visualizar sus manos de igual forma que en el menúprincipal y puede caminar por el entorno, aunque no es una acción necesaria parala utilización de la aplicación. El entorno del modo libre se puede contemplar en lafigura 5.6.

Figura 5.6: Modo libre - Entorno virtual

A diferencia del menú principal, en el modo libre se dispone de información en lasmanos del usuario. En la muñeca izquierda aparece el tiempo que se ha estado en elmodo libre. La gestión de este contador se realiza en el script GameOptions haciendouso de un algoritmo trivial.

Por otro lado, en la muñeca derecha se encuentra la información en tiempo realrelativa a los parámetros biológicos del portador de la pulsera Empatica E4, como sonla frecuencia cardíaca y la conductividad eléctrica de la piel. Al empezar el modo libre,se inicia el script EmpaticaSetUp, la cual intenta conectarse al servidor de Empatica através de una conexión TCP (gestionada en el script TCPConnection). Una vez realizada

32

Page 45: Sistema de realidad virtual para la gestión del dolor

5.2. Funcionalidades

la conexión, se le manda una petición al servidor para conectarse a la pulsera EmpaticaE4 disponible. Después de una conexión exitosa, se le mandan al servidor una seriede peticiones para recibir los datos deseados. Finalmente, se escucha al servidor y, sillega un mensaje (con los parámetros biológicos), este se interpreta y se prepara parasu visualización.

Cada valor de los parámetros aparece redondeado a un decimal y con sus respecti-vas unidades. En caso de no disponer del parámetro porque los sensores aún no lo hanrecogido, se mostrará una raya en la posición del parámetro. Además, dependiendodel rango en el que se encuentra el valor, se mostrará con tres colores distintos: verde(correcto), amarillo (advertencia) y rojo (incorrecto). Los rangos para la conductividadeléctrica son: verde de 0 a 1.3 µS, amarillo de 1.3 a 3 µS y rojo de 3 a ∞. Para el pulso car-díaco: verde de 0 a 70 ppm, amarillo de 70 a 100 ppm y rojo de 100 a ∞. La visualizacióntambién se lleva a cabo en el script EmpaticaSetUp. Todo esto se puede comprobar enla figura 5.7.

Figura 5.7: Modo libre - Cronómetro y parámetros biológicos

Figura 5.8: Modo libre - Menú in game

El modo libre permite al usuario disfrutar de una sesión personalizada dondetodas las variables utilizadas en la experiencia pueden ser modificadas. Estas son lamúsica, la frecuencia de los pulsos reproducidos en cada oído (modificando así lospulsos biaurales), el entorno virtual, los colores de la figura y la forma de la figura. Estoscambios se realizan a través de un menú in game que se encuentra escondido a prioriy se debe pulsar un botón de uno de los mandos de Oculus Touch para que aparezca.En la figura 5.8 aparece dicho menú, el cual siempre se muestra delante de la cabeza

33

Page 46: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

del usuario, en la dirección de su mirada. Este hecho se produce por el script Controls,el cual calcula la posición del menú teniendo en cuenta la posición de la cabeza, ladirección de la mirada y los conceptos de posición y rotación. Al apuntar a un botón, losmandos vibran y este cambia de color. Además, si se pulsa sobre uno de ellos, tambiéncambiará el color a uno más oscuro.

El menú dispone de tres paneles. El de la derecha, indica al usuario que se encuentraen el modo libre y que en él puede cambiar todas las opciones de la experiencia.Abajo, dispone de dos botones: uno para volver al menú principal y otro para salirdirectamente de la aplicación. El panel central y el panel lateral izquierdo ofrecenlas herramientas necesarias para cambiar los parámetros de la aplicación. Esto seráexplicado en los subapartados que vienen a continuación.

Modificación de pulsos biaurales

Los pulsos biaurales pueden ser modificados con la parte del menú mostrado en lafigura 5.9. Dicho menú tiene dos secciones. En la sección superior, encontramos losocho modos de pulsos biaurales disponibles en forma de botones, cuyos detalles seencuentran en la tabla 5.1. Los cuatro primeros equivalen a modos de relajación,mientras que los restantes equivalen a modos de concentración. Las frecuencias decada oído se han seleccionado en base a un estudio sobre pulsos biaurales [62]. En lasección inferior, podemos seleccionar la frecuencia deseada para cada oído con unossliders. Se pueden seleccionar un rango de frecuencias que van desde 400 a 600 Hz.Además, con otro slider se puede cambiar el volumen del pulso biaural producido.

Frec. izq. (Hz) Frec. der. (Hz) Pulso biaural (Hz) Afecta aHealing 550.00 551.00 1 DeltaSleep 550.00 552.00 2 DeltaMeditation 550.00 555.00 5 ThetaRelax 550.00 560.00 10 AlfaCreative 550.00 575.00 25 BetaConcentrate 550.00 565.00 15 BetaWork 550.00 570.00 20 BetaInspiration 550.00 580.00 30 Beta

Cuadro 5.1: Modo libre - Modos de los pulsos biaurales

Al pulsar sobre uno de los botones, estos llaman al método Manager() del scriptBinauralSetUp, recibiendo por parámetros el nombre del modo biaural. A continuación,se para el pulso biaural actual, se cambian las frecuencias izquierdas y derechas con lascaracterísticas del modo elegido, se actualizan los valores de los sliders y, finalmente, sereproducen las nuevas frecuencias. Interaccionando únicamente con los sliders se lla-man a los métodos LeftAudioSetUp(), RightAudioSetUp() y VolumeSetUp(), recibiendola frecuencia izquierda, derecha y el nivel de volumen respectivamente. Nuevamente,se para el pulso biaural que sonaba, se modifican las propiedades correspondientes yse reproduce.

34

Page 47: Sistema de realidad virtual para la gestión del dolor

5.2. Funcionalidades

Figura 5.9: Modo libre - Opciones de pulsos biaurales

Modificación de música

En la figura 5.10 se puede ver la parte del menú destinada a la modificación de la música.La música se puede seleccionar a través de los botones entre las siguientes opciones:

• Zen Healing: música relajante con una flauta y el sonido de pájaros de fondo.

• Buddhist: música perteneciente a la cultura budista.

• Air: música en la que, sutilmente, el sonido del aire forma una melodía.

• Canon in D major: pieza clásica compuesta por Johann Pachelbel.

• Epic: música potente que brinda de movimiento y motivación.

• Jazz: melodía perteneciente al género musical Jazz

Figura 5.10: Modo libre - Opciones de música

35

Page 48: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

Además, gracias al slider que se encuentra inmediatamente abajo, se puede au-mentar o disminuir el volumen. Cabe destacar que existe una sincronización entre elcambio de tamaño de la figura y la música gracias a Koreographer.

Al pulsar sobre los botones, se llama al método Manager() del script MusicSetUp,recibiendo por parámetro el nombre de la pista de audio. Simplemente, se identifica yse cambia el audio a través del reproductor de audio de Koreographer. Cabe destacarque el método VolumeSetUp() llamado a través del slider de dicho script funciona deforma similar al del script anterior.

Modificación de entornos

Existe la posibilidad de seleccionar entre siete entornos virtuales predeterminados gra-cias a la sección del menú ilustrada en la figura 5.14. Con los botones correspondientes,se puede elegir entre “Space” o espacio (figura 5.6), “Lake” o lago (figura 5.11), “Meadow”o prado (figura 5.11), “Office” u oficina (figura 5.12), “Classroom” o aula (figura 5.12),“Meeting” o sala de reuniones (figura 5.13) y “Study” o estudio (figura 5.13).

Figura 5.11: Modo libre - Entornos de lago y prado

Figura 5.12: Modo libre - Entornos de oficina y aula

Figura 5.13: Modo libre - Entornos de sala de reuniones y estudio

36

Page 49: Sistema de realidad virtual para la gestión del dolor

5.2. Funcionalidades

Figura 5.14: Modo libre - Opciones de entorno

Para la gestión del entorno se utiliza el script EnvironmentSetUp. Con la pulsaciónde un botón, se llama al método Manager() de dicho script. Recibe por parámetro elnombre del entorno, que sirve para identificar el objeto Unity que forma el entorno.Así pues, se desactiva el entorno actual, y se activa el entorno identificado con susrespectivos objetos y cielo.

Modificación de colores

Como se ha mencionado anteriormente, la figura va cambiando gradualmente de colory en sincronía con la música. Es posible cambiar dichos colores gracias a los botonesdel menú de la figura 5.15 y del script BallSetUpK. La elección de los colores ha sidobasada en las teorías de la psicología del color [63]. Las opciones entre las que se puedeelegir son:

• Random: la figura va cambiando entre dos colores aleatorios. Cada vez que sepulsa el botón, dichos colores cambian.

• Warm: colores cálidos utilizados para inducir activación. Cambia entre un tonoamarillento RGB(234, 220, 103) y un tono rojizo RGB(255, 0, 0).

• Cold: colores fríos utilizados para inducir relajación y estados pasivos. Cambiaentre un tono morado RGB(206, 0, 99) y un tono azulado RGB(0, 0, 255).

• Healthy: colores que representan “lo sano”. Cambia entre un tono verdoso RGB(0,255, 0) y un tono rojizo RGB(255, 0, 0).

• Passive: colores que representan inactividad o pasividad. Cambia entre un tonoazulado RGB(0, 151, 255) y el negro RGB (255, 255, 255).

37

Page 50: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

• Dynamic: colores que representan movimiento y dinamismo. Cambia entre untono rojizo RGB(255, 0, 0) y un tono grisáceo RGB(170, 170, 170).

• Original: colores que representan originalidad. Cambia entre un tono moradoRGB(131, 79, 236) y un tono anaranjado RGB(255, 95, 0).

Figura 5.15: Modo libre - Opciones de color

Al inicio del modo libre, se inicializan los eventos registrados con Koreographeren las pistas de audio correspondientes con el script BallSetUpK. Los eventos para lagestión del color se han realizado con curvas (en concreto, con una línea recta conpendiente igual a 1). En todo momento con el método AdjustColor(), se recoge el valorde dicha curva y se traduce al gradiente del color de la figura dentro del rango de colorescorrespondiente (lista superior).

Al pulsar un botón, se llama al método Manager() de dicho script. Se recibe porparámetro el nombre del grupo de colores y se actualiza el rango de colores posible dela figura.

Modificación de figura

La figura en sí también es modificable gracias a las opciones que ofrece la seccióndel menú representada en la figura 5.16. Se puede seleccionar entre eliminar la figurade la escena (“None”), una esfera (“Sphere”), un cubo (“Cube”), un rectángulo alto(“High rectangle”), un rectángulo ancho (“Wide rectangle”), una cápsula (“Capsule”)y un cilindro (“Cylinder”). En la figura 5.17 se pueden ver ejemplos de las figurasdisponibles.

Las figuras se pueden cambiar con el método FigureManager() del script BallSetUpK,llamado al pulsar uno de los botones. Recibe por parámetro el nombre de la figura. Suflujo es desactivar la figura actual, activar la figura seleccionada y adaptar su tamaño.

38

Page 51: Sistema de realidad virtual para la gestión del dolor

5.2. Funcionalidades

Figura 5.16: Modo libre - Opciones de figura

Figura 5.17: Modo libre - Ejemplo de figuras

Cabe mencionar que, al inicio del modo libre, se inicializan los eventos para elcambio de tamaño de la figura de igual forma que se hace en el caso de los colores, conel método AdjustScale().

5.2.3 Modo sesión

El modo sesión es similar al modo libre. El usuario se vuelve a encontrar en un entornovirtual con todos los parámetros de la experiencia mencionados en el modo libre.Dispone nuevamente de información en sus muñecas, con la diferencia de que en lamuñeca izquierda se muestra el tiempo que le queda a la sesión para finalizar, en lugardel tiempo transcurrido.

En este modo, el usuario experimenta una sesión predeterminada con un tiempolímite, sin la posibilidad de cambiar los parámetros de la experiencia tales como lospulsos biaurales o la forma de la figura. Por esta razón, el menú in game es mucho mássencillo, mostrando únicamente un panel informativo observable en la figura 5.18. Elpanel en cuestión indica las características de dicho modo y ofrece la posibilidad desalir al menú principal o al escritorio con dos botones antes de que acabe la sesión.Este menú se corresponde al panel derecho del menú del modo libre. De igual forma,aparece enfrente del jugador y en la dirección de su mirada gracias al script Controls.

Como se ha mencionado, cada sesión tiene sus propios parámetros de la experien-cia predeterminados. En el cuadro 5.2 se muestran las características de las sesiones

39

Page 52: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

enfocadas a relajación y en el cuadro 5.3 se muestran las características de aquellasenfocadas a concentración. Esta definición de las sesiones se realiza en el script Utils.

Figura 5.18: Modo sesión - Menú in game

Healing Sleep Meditation RelaxModo biaural Healing Sleep Meditation RelaxMúsica Zen Healing Air Buddhist Canon in D MajorEntorno Meadow Space Lake SpaceColores Healthy Cold Passive ColdFigura Capsule Sphere Cylinder SphereDuración (min) 10 10 10 9.5

Cuadro 5.2: Modo sesión - Características de las sesiones de relajación

Creative Concentrate Work InspirationModo biaural Creative Concentrate Work InspirationMúsica Epic Jazz Jazz EpicEntorno Study Classroom Office MeetingColores Original Dynamic Warm OriginalFigura Cube Wide rectangle Cylinder High rectangleDuración (min) 7 10 8 9

Cuadro 5.3: Modo sesión - Características de las sesiones de concentración

5.3 Versiones específicas para el testeo de funcionalidades.

En la realización de este TFG, han ido surgiendo diferentes necesidades que han aca-bado con el desarrollo de versiones alternativas de la aplicación expuesta para probardiversas funcionalidades por separado, donde el funcionamiento y los objetivos cam-biaban. A continuación, se exponen las tres versiones realizadas.

40

Page 53: Sistema de realidad virtual para la gestión del dolor

5.3. Versiones específicas para el testeo de funcionalidades.

5.3.1 Versión VAR for Good

El Institute of Electrical and Electronics Engineers (IEEE) organizó el 17 de enero de2018 una recogida de documentos, bajo el nombre de VAR for Good, sobre estudiosdonde la RV o la realidad aumentada podían ser capaces de solucionar problemasreales relacionados con la medicina, la educación, el arte...

Se decidió presentar un estudio que mostrase la capacidad que tiene la combina-ción de la RV y los pulsos biaurales para producir estados de relajación. Para ello, serealizó una variante de la aplicación que pudiese dar soporte al estudio que se reali-zó. Así pues, en la aplicación solo estaba disponible el modo sesión, pero de formamodificada.

En una sesión, el usuario se encontraba en el mismo entorno virtual expuestoanteriormente, pero sin música, escuchando durante siete minutos un pulso biaural,que es el tiempo mínimo necesario para que un pulso biaural haga efecto, basándoseen trabajos previos [48, 46, 64]. Pasado ese tiempo, aparecía un menú donde el usuariodebía de seleccionar su estado de ánimo después de haber escuchado el pulso, que esel que se muestra en la figura 5.19. Las opciones entre las que el participante puedeseleccionar son: Relax (R), Meditation (M), Healing (H), Sleep (S), Concentration (Co),Inspiration (I), Work (W) y Creative (Cr). Finalmente, se presentaba una pantalla ennegro durante tres minutos, para evitar el efecto carry-over [65]. Así de forma sucesivacon hasta cuatro pulsos biaurales distintos. Al finalizar la sesión, se presentaba unmensaje de despedida al usuario y se salía automáticamente de la aplicación.

Figura 5.19: Versión VAR for Good - Menú de selección de estado

El script BinauralSetUp era el encargado de controlar el tiempo de cada sesión y dereproducir los diferentes pulsos biaurales en el momento indicado. El script Controlsgestionaba la aparición del menú de selección de estado y de producir una pantalla ennegro.

41

Page 54: Sistema de realidad virtual para la gestión del dolor

5. DESARROLLO DEL PROYECTO

Para medir el estado de los usuarios, se utilizó un menú con botones y su opiniónsubjetiva en lugar de la pulsera Empatica E4 y los parámetros que ofrece ya que estaaún no había llegado y no se podía integrar en esta versión.

5.3.2 Versión CEA Bioingeniería

El Comité Español de Automática celebró los días 2 y 3 de julio de 2018 el 10º Simpo-sio CEA de bioingeniería en la Universidad San Pablo de Madrid. La temática girabaentorno al IPO y al uso de la tecnología para la rehabilitación, por lo que se decidiópresentar un pequeño estudio para mostrar la capacidad de la RV y los pulsos biauralesen dicho campo.

Para ello, se realizó una versión similar a la versión VAR for Good, con la diferenciaque ahora se disponía de la pulsera Empatica. Mientras el usuario realizaba el expe-rimento, cada 10 segundos (para evitar la sobrecarga de información) se recogían losdatos biológicos del usuario con la pulsera inteligente y se guardaban en un fichero CSVpara su posterior análisis. En concreto, se escribía en el fichero el parámetro recogido,su valor y el instante de tiempo de escritura. En la figura 5.20 se muestra un ejemplo delos datos mostrados en el fichero. Los datos biológicos no solo se recogían durante laprueba, sino también un minuto antes y un minuto después para contrastar el efectode la aplicación. Estos datos no eran mostrados en la muñeca del usuario.

Figura 5.20: Versión estudio preliminar - Ejemplo de fichero CSV

En cuanto a los scripts, en esta versión hay que mencionar EmpaticaSetUp que,aparte de gestionar la comunicación con la pulsera Empatica E4 como se ha mencio-nado con anterioridad, se encargaba también de la escritura de los parámetros en elfichero CSV.

5.3.3 Versión estudio preliminar

Con la llegada de la pulsera Empatica E4 la responsable del TFG relacionado de psico-logía también quería realizar un estudio inicial para comprobar la influencia biológicade la utilización de la RV y los pulsos biaurales.

Para ello, se realizó una variante de la aplicación en la que sólo se podía disfrutardel modo sesión, pero sin mostrar los parámetros biológicos del usuario. Una sesiónestaba dividida en dos rondas, en la que en una se disfrutaba de la experiencia con unpulso biaural de relajación y en la otra sin.

42

Page 55: Sistema de realidad virtual para la gestión del dolor

5.3. Versiones específicas para el testeo de funcionalidades.

Las rondas duraban 10 minutos y cada 30 segundos se recogían los parámetrosbiólogicos del usuario y se guardaban en un fichero, de igual forma que se hacía enla versión del subapartado anterior. Cuando finalizaba la primera ronda, se mostrabaal usuario un mensaje indicando este hecho y un botón el cual permitía comenzar lasiguiente ronda. Al finalizar, se mostraba un mensaje de despedida y se salía automáti-camente de la aplicación.

El script BinauralSetUp controlaba el tiempo de cada sesión y la reproducción delpulso biaural. Por otro lado, el script EmpaticaSetUp tiene la misma función que laversión anterior: gestionar la comunicación con la pulsera Empatica E4 y realizar laescritura de los datos en el fichero CSV.

43

Page 56: Sistema de realidad virtual para la gestión del dolor
Page 57: Sistema de realidad virtual para la gestión del dolor

CA

TU

LO

6PRUEBAS, ESTUDIOS Y RESULTADOS

Una vez explicadas las peculiaridades del proyecto desarrollado para este TFG, seprocede a exponer las pruebas realizadas para comprobar que todo el sistema funciona,los estudios llevados a cabo y los resultados obtenidos tanto de la versión completacomo de las versiones expuestas en el capítulo anterior.

Primeramente, es necesario mencionar que para este proyecto no se han realizadopruebas unitarias ya que su tamaño es pequeño, el editor de Unity ofrece situacionesde ejecución controladas y el código desarrollado no tendría sentido sin los objetosreales de Unity a los que está asociado. Si se quisiesen desarrollar pruebas unitarias,una buena opción es utilizar la clase Mock de la librería Moq que se ofrece en C# [66].

Las pruebas, al igual que el desarrollo, se realizaron en el laboratorio 144 del edificioAnselm Turmeda del campus de la UIB, que es donde se dispone del ordenador con loscomponentes necesarios para programar y disfrutar de la RV, del visor Oculus Rift, delos mandos Oculus Touch y de la pulsera inteligente Empatica E4.

Así pues, a medida que se iban desarrollando los scripts, se probaba su funciona-miento y el de todas las opciones ofrecidas integrados con los demás componentes dela aplicación y en tiempo de ejecución. Por ejemplo, al realizar el script MusicSetUp, sehicieron pruebas para comprobar que los botones del menú llamaban a las funcionesdel script de forma correcta y que se reproducía la música adecuadamente, teniendoen cuenta también el nivel de volumen para cada audio.

Además, a lo largo del progreso de la aplicación, varios usuarios de todas las edadesy con niveles de estudios distintos (incluidos niños) probaron el sistema completo,ofreciendo sus ideas y sugerencias. Gracias a este hecho, se pudo mejorar y adaptar laaplicación para que conllevase un uso más cómodo y una experiencia más satisfactoria.Por ejemplo, gracias a estas pruebas, los botones para activar los menús se cambiaronya que el botón seleccionado en primera instancia resultaba incómodo de pulsar paralos usuarios, se añadió la escala de colores a los parámetros biológicos de la muñecaderecha para que la información fuese más clara o se cambió la distancia a la queaparecían los menús.

Sobre esta aplicación, se espera hacer diversos estudios en el futuro para verificar

45

Page 58: Sistema de realidad virtual para la gestión del dolor

6. PRUEBAS, ESTUDIOS Y RESULTADOS

la influencia de todas las tecnologías que utiliza y todas sus posibles combinaciones, yrealizar cambios o modificaciones en caso de que fuese necesario.

6.1 Estudio VAR for Good

Como se ha mencionado en el capítulo anterior, se realizó un estudio con la versiónVAR for Good expuesta también anteriormente. Dicho estudio se realizó a 10 personas,donde cinco realizaron la sesión con pulsos biaurales relajantes y las otras cinco conpulsos no biaurales, donde la frecuencia reproducida en cada oído era la misma.

Los sujetos tenían un rango de edad de entre 17 y 55 años con una media de 28.9años de edad. Un 60% de los participantes fueron hombres y el 40% fueron mujeres.

De aquellos usuarios que hicieron la prueba con pulsos biaurales, un 80% de lasselecciones fueron en modos de relajación, mientras que el 20% fueron modos deconcentración. En cambio, de las selecciones hechas en las sesiones con pulsos nobiaurales, un 65% fueron en modos de relajación, mientras que el 35% fueron en modosde concentración.

Comparando las dos sesiones, se puede observar que la sesión con pulsos biauralestiene una mayor ratio de selecciones en modos de relajación que la sesión con pulsosno biaurales (un 80% frente a un 65%). Este hecho puede ser un indicio de que lospulsos biaurales, combinados con la RV, son una buena opción para conseguir estadosde relajación. Aunque hay que tener en cuenta que los porcentajes no suponen unagran diferencia.

Este estudio se presentó bajo el nombre “A Virtual Reality Application that AffectsBrainwaves for Pain Management” realizado por Miguel Sánchez y Francisco J. Perales.A pesar de no ser aceptado, es pertinente mencionar que los revisores encontraron laidea de la investigación atractiva e ingeniosa.

6.2 Estudio CEA Bioingeniería

Este estudio fue entregado en la conferencia mencionada del Comité Español de Au-tomática con la versión que su propio nombre indica, CEA Bioingeniería. El estudiollevado a cabo se realizó exactamente utilizando el mismo procedimiento que en elestudio anterior y, nuevamente, con 10 sujetos.

Esta vez, el rango de edad de los participantes fue de entre 18 y 23 años, con unamedia de 21 años aproximadamente. El 60% de los participantes eran hombres y el40% eran mujeres.

Analizando los resultados obtenidos en las elecciones de los usuarios a través delmenú, se puede observar que, de las sesiones que se hicieron con pulsos biaurales, el75% de las selecciones fueron en modos de relajación, mientras que el 25% fueron enmodos de concentración. En cuanto a las sesiones con pulsos no biaurales, un 40% deelecciones se situaron en modos de relajación y un 60% en modos de concentración.En los cuadros 6.1 y 6.2 se presentan dichas elecciones, donde en rojo se muestranaquellas pertenecientes a categorías de concentración. Las letras de la tabla equivalenal modo biaural. Por ejemplo, R equivale a Relax o Co equivale a Concentration. Lasletras en negrita indican el modo del pulso biaural que se reproducía o el pulso nobiaural (indicado como pulso) en su defecto.

46

Page 59: Sistema de realidad virtual para la gestión del dolor

6.2. Estudio CEA Bioingeniería

Sujetos R S M HSujeto 1 S S S RSujeto 2 Co R Cr WSujeto 3 M R R SSujeto 4 R Co S WSujeto 5 R S R R

Cuadro 6.1: Decisiones de la sesión con pulsos biaurales

Sujetos Pulso 1 Pulso 2 Pulso 3 Pulso 4Sujeto 1 Co W Co WSujeto 2 W Co M ISujeto 3 M M Co MSujeto 4 R M R CoSujeto 5 W R W Co

Cuadro 6.2: Decisiones de la sesión con pulsos no biaurales

Analizando los resultados obtenidos con la pulsera inteligente, se observa que, enlos usuarios que realizaron la sesión con pulsos biaurales, su conductividad eléctricade la piel registrada tiene una tendencia decreciente (por ejemplo, un participanteempezó con una conductividad de 1,45 µS y acabó con una igual a 0,54 µS, llegandoincluso a valores mínimos de 0,04 µS). Por otro lado, en las sesiones con pulsos nobiaurales, se observa una tendencia incremental de este parámetro (un sujeto empezócon 0,2 µS y acabó con 1,36 µS). En cuanto al ritmo cardíaco recogido, no se observanvariaciones, todos los usuarios se encuentran dentro del rango de 55 a 75 pulsos porminuto, valores normales para una actividad cardíaca normal.

Si se examinan las dos sesiones, se puede comprobar que aquella que se realizacon pulsos biaurales tiene un mayor ratio de selecciones en modos de relajación que lasesión con pulsos no biaurales (un 75% frente a un 40%). Además, los valores para laconductividad eléctrica de la piel en la sesión con pulsos biaurales se reducen a lo largode la misma, como contrapartida de la otra sesión, en la cual la conductividad aumenta.Por ello, se refuerza la idea de que los pulsos biaurales y la RV ayudan a inducir a larelajación. No obstante, conviene realizar estudios a más participantes para ver si estaconclusión se cumple en todos los casos.

Este estudio se expone en el documento “A Virtual Reality system for Pain Manage-ment using acoustic stimulation and electrodermal evaluation”, realizado por MiguelSánchez, Francisco J. Perales, Laia Riera y Silvia Ramis, perteneciente esta última algrupo UGIVIA. Los revisores volvieron a destacar la originalidad de la idea y destaca-ron los resultados obtenidos con la pulsera Empatica E4. El estudio fue aceptado y sepublicará en la revista Cognitive Area Networks, Asociacion Nivolo, ISSN 2341-4243.

47

Page 60: Sistema de realidad virtual para la gestión del dolor

6. PRUEBAS, ESTUDIOS Y RESULTADOS

6.3 Estudio International Conference InformationVisualisation

Para esta conferencia que se realiza entre el 10 y el 13 de julio en Salerno (Italia) [67] seutilizó la versión de la aplicación VAR for Good para llevar a cabo un estudio similar.Cabe mencionar que el congreso tiene una categoria CORE B.

Este estudio se realizó con los mismos sujetos sólo que, en esta ocasión, debíanrealizar la sesión que no habían hecho. Así pues, los que realizaron la sesión con pulsosbiaurales, realizaron la sesión con pulsos no biaurales, y viceversa. De esta forma, todoslos participantes pasaron por todas las condiciones del experimento.

Haciendo un recálculo de los resultados, en la sesión con pulsos biaurales un 80%de las elecciones entraron dentro de los modos de relajación, mientras que un 20% lohicieron en los modos de concentración. Para la sesión con pulsos no biaurales, un50% de elecciones fueron dentro de las categorías de relajación y el otro 50% dentro delas categorías de concentración.

Los datos obtenidos no hacen más que justificar los indicios expuestos en la secciónanterior, mostrando una mayor diferencia entre el uso de pulsos biaurales y no biaurales(un 80% frente a un 50%).

Este estudio se presentó con el documento “A Pilot Study: VR and Binaural Soundsfor Pain Management”, realizado nuevamente por Miguel Sánchez, Francisco J. Perales,Laia Riera y Silvia Ramis. Este documento se aceptó y está pendiente de publicacióncon buenas críticas de los revisores, resaltando la buena idea de este estudio y losprometedores resultados que ofrecía.

6.4 Estudio preliminar

Con la versión preliminar de la aplicación, actualmente se está llevando a cabo unestudio para conocer la influencia de los pulsos biaurales y la RV.

Los participantes de este estudio son niños y jóvenes de entre 7 y 14 años que noposeen dolor crónico ni ninguna enfermedad rara. Este conjunto participa como grupode control y se tiene pensado en un futuro realizar el estudio con estas últimas variablespresentes.

En este estudio, los niños realizan la sesión con la pulsera Empatica E4 en la muñecaen todo momento. Al principio de la misma, al finalizar la primera ronda y al finalizarla sesión, los participantes deben de contestar a un simple cuestionario indicandoaspectos psicológicos como sus sentimientos o sus sensaciones.

Al finalizar la sesión se dispone del fichero CSV con los datos guardados del experi-mento del participante, que se utilizaran para su posterior análisis conjuntamente conlos resultados de los demás usuarios.

48

Page 61: Sistema de realidad virtual para la gestión del dolor

CA

TU

LO

7CONCLUSIONES

En el siguiente apartado, para finalizar el documento se exponen las conclusionesobtenidas a partir del desarrollo de la aplicación y se presentan una serie de mejoras eideas para el sistema.

7.1 Conclusión

Con la finalización de este proyecto, se ha conseguido desarrollar una aplicación deRV destinada a la gestión y a la terapia del dolor crónico en niños con enfermedadesraras, induciendo a la relajación y al bienestar subjetivo. Así pues, las aportaciones yfuncionalidades conseguidas son:

• Uso de sesiones predeterminadas y controladas en el tiempo.

• Interfaces de usuario integradas en el propio universo virtual.

• Feedback en la interacción con la interfaz.

• Uso y personalización de los pulsos biaurales.

• Uso y personalización de la música.

• Uso y personalización del entorno virtual.

• Uso y personalización de la figura.

• Uso y personalización de los colores.

• Integración con una pulsera inteligente.

• Visualización de los datos biológicos del usuario para poder implementar técni-cas de biofeedback.

49

Page 62: Sistema de realidad virtual para la gestión del dolor

7. CONCLUSIONES

Por lo tanto, se han cumplido los requisitos funcionales que se habían impuesto enla sección 4.2.2.

Adicionalmente, es necesario hablar también de los requisitos no funcionales.RNF01 se considera hecho ya que, en todo momento durante el desarrollo de la aplica-ción, se han seguido las buenas prácticas de Oculus en el desarrollo de aplicaciones enRV [68]. En cuanto al requisito RNF02, la aplicación puede ser utilizada tanto sentadocomo de pie, por lo que se considera como realizado. Finalmente, en cuanto al requisitoRNF03, la aplicación solo hace uso de texto cuando es absolutamente necesario, comoen botones o en explicaciones breves, omitiendo todo aquel texto relacionado con suutilización o sus controles (para ello, se hará uso de un documento físico, digital o de lacomunicación verbal). Por lo tanto, todos los requisitos no funcionales se considerancomo realizados.

Así pues, con el cumplimiento de los requisitos funcionales y no funcionales, que-dan realizados los requisitos de usuario de los cuales derivan.

Además, es pertinente poner énfasis en la publicación de dos estudios realizados yaceptados con este sistema, cosa que brinda interés y soporte al proyecto por parte dela comunidad científica, tecnológica y psicológica.

Gracias a la realización de este TFG se ha observado que existe un alto interés enlas familias y en los colectivos de medicina y psicología en buscar métodos alternativospara el tratamiento del dolor y la relajación, sobretodo en niños pequeños, utilizandotécnicas que puedan resultarles interesantes y atractivas. Con el surgimiento de losdispositivos de RV en el campo del ocio y de los videojuegos y la buena aceptacióndel público, se ha planteado su uso en el campo de la psicología y la medicina. Cabemencionar que, puesto que una de las metas de esta aplicación es cambiar el estado deánimo psicológico, su uso no se reduce a niños, sino que puede ser ampliado tambiéna adultos.

Como ha quedado demostrado, este proyecto confía en su capacidad para ayudar alos jóvenes a mejorar su calidad de vida y a conseguir un mayor bienestar. No obstante,conviene tener en cuenta las mejoras propuestas para realizar una aplicación másrobusta y poder incrementar su valor en la asistencia a infantes.

7.2 Mejoras y trabajo futuro

La primera mejora que se propone y la más importante, que se convertiría en unproyecto derivado dada su magnitud, sería la de realizar un videojuego a partir delsistema desarrollado. La aplicación peca de ser demasiado pasiva ya que no requiereninguna actividad por parte del usuario. Para hacer la experiencia más divertida ysatisfactoria, se propone la implantación de objetivos y mecánicas que conllevarían a larealización de un videojuego serio [69]. Con ello, más estudios se deberían realizar paracomprobar el efecto que tiene la inclusión de actividad en los estados psicológicos.

Otra posible mejora sería la de utilizar los conocimientos en ramas como el dise-ño gráfico o el modelado 3D para realizar entornos más elaborados y, por ende, queproporcionen una mayor inmersión al usuario.

En cuanto al uso de la pulsera inteligente, se propone el estudio de los valores querecoge el acelerómetro de la pulsera Empatica E4, estableciendo algún tipo de unidadunificada cuya interpretación sea sencilla y pueda ser mostrada al usuario.

50

Page 63: Sistema de realidad virtual para la gestión del dolor

7.2. Mejoras y trabajo futuro

Adicionalmente, es necesario tener en cuenta la posible implantación de un cascoEEG para recoger datos relevantes sobre la actividad cerebral y el estado psicológicodel usuario. Para realizar esto de forma cómoda, lo ideal sería utilizar un visor de RVmodificado que incorpore en su estructura los sensores necesarios para poder realizarestudios electroencefalográficos, ya que, como se ha mencionado con anterioridad,la combinación de unas gafas de RV y un casco EEG convencional puede resultarincómoda.

Relacionado con la recogida de parámetros biológicos, otra mejora que surge esla de ofrecer el guardado de los datos obtenidos en la utilización de la aplicación enun fichero o en una base de datos, para poder realizar estudios y análisis sobre ellos(esta funcionalidad es ofrecida en la versión de estudio preliminar). Asimismo, estollevaría a la realización de un proyecto para desarrollar un programa o aplicación webde visualización y presentación de los datos obtenidos.

Otra mejora interesante, que aportaría opciones de personalización a la aplicación,sería ofrecer el guardado de las combinaciones de tecnología deseadas en diferentesperfiles de usuario, pudiendo recuperarlas o sobrescribirlas.

En cuanto a la interacción, es posible que algunos usuarios tengan problemas demovilidad y se encuentren con dificultades a la hora de utilizar los mandos de OculusTouch. Por lo tanto, es interesante plantear el uso de sistemas de input alternativoscomo la fijación de la mirada durante un determinado tiempo en los botones o el usode comandos de voz.

Finalmente, hay que tener en cuenta que se necesita un equipo especializado parapoder disfrutar de aplicaciones en RV. No obstante, existen visores para dispositivosmóviles que son más accesibles económicamente, cosa que da lugar a la definiciónde un proyecto para realizar una versión de la aplicación para smartphones, donde setendría que adaptar la calidad de los entornos y las formas de interacción.

51

Page 64: Sistema de realidad virtual para la gestión del dolor
Page 65: Sistema de realidad virtual para la gestión del dolor

AP

ÉN

DI

CE

AAPÉNDICE

A.1 Código de ejemplo

Los scripts utilizados para cambiar los parámetros de la experiencia de la aplicación(música, pulsos biaurales...) presentan una estructura similar. A continuación, se pre-senta como ejemplo el script MusicSetUp.

/** Class to control music with Koreographer music player

*/

using System . Collections ;using System . Collections . Generic ;using UnityEngine ;using UnityEngine .UI;using SonicBloom .Koreo;

public class MusicSetUp : MonoBehaviour {public SonicBloom .Koreo. Players . SimpleMusicPlayer

musicPlayer ;public Koreography CanonInDMajorKoreography ,

ZenHealingKoreography , BuddhistKoreography ,AirKoreography , EpicKoreography ,

JazzKoreography ;public Slider volume ;

private string actualAudio ;private AudioSource actualAudioSource ;private bool isFreeMode ;

53

Page 66: Sistema de realidad virtual para la gestión del dolor

A. APÉNDICE

void Start (){

isFreeMode = Utils. IsFreeMode ();

if ( isFreeMode ) Manager ("Canon in D Major");// Free mode starts with Canon in D Major

elseManager ( PlayerPrefs . GetString (Utils. MODEKEY ));

// Update music UI elementsvolume = GameObject .Find(" VolumeMusicSlider ")

. GetComponent <Slider >();volume .value = actualAudioSource . volume ;

}

/** Manages the music. Can receive the session mode

or the music directly*/public void Manager ( string mode){

string musicMode ;

if ( isFreeMode ) musicMode = mode;else musicMode =

Utils. SessionMode . GetSessionModeByMode (mode).music;

switch ( musicMode ){

case "Canon in D Major":PlayAudio ( CanonInDMajorKoreography );break ;

case "Zen Healing ":PlayAudio ( ZenHealingKoreography );break ;

case " Buddhist ":PlayAudio ( BuddhistKoreography );break ;

case "Air":PlayAudio ( AirKoreography );break ;

case "Epic":PlayAudio ( EpicKoreography );break ;

case "Jazz":PlayAudio ( JazzKoreography );break ;

54

Page 67: Sistema de realidad virtual para la gestión del dolor

A.2. Activos de Unity

}}

/** Play music from koreographer audio

*/private void PlayAudio ( Koreography koreo){

if (! string . Equals ( actualAudio ,koreo. SourceClipName ))

{musicPlayer . LoadSong (koreo);actualAudio = koreo. SourceClipName ;actualAudioSource =

gameObject . GetComponent < AudioSource >();}

}

/** Sets the music volume

*/public void VolumeSetUp ( float volume ){

actualAudioSource . volume = volume ;}

}

A.2 Activos de Unity

Para la realización de la aplicación se han utilizados activos de la tienda de Unity quehan facilitado y agilizado el desarrollo de la misma. Estos son:

• Japanese-Style: Low Table Pack.

• Old Office Props Free.

• Wooden Floor Pack.

• Fantasy landscape.

• Skybox Series Free.

• Koreographer Professional Edition.

• Sci-fi Platforms.

• Skybox Volume 2 (Nebula).

• High Quality Bricks & Walls.

55

Page 68: Sistema de realidad virtual para la gestión del dolor

A. APÉNDICE

• Immersive Brain’s Level Upper by Binaural Beat and Monaural Beat..

• Grass And Flowers Pack 1.

• Skybox.

• Yughues Free Ground Materials.

• Oculus Integration.

56

Page 69: Sistema de realidad virtual para la gestión del dolor

BIBLIOGRAFÍA

[1] B. K. Wiederhold, I. T. Miller, and M. D. Wiederhold, “Using virtual reality to mobi-lize health care,” IEEE Consumer Electronics Magazine, December 2017. 1.1

[2] M. K. Tageldeen, I. Elamvazuthi, N. Perumal, and T. Ganesan, “A virtual realitybased serious game for rehabilitation of arm,” December 2017. 1.1

[3] M. Vargas-Orjuela, A. Uribe-Quevedo, D. Rojas, B. Kapralos, and B. Perez-Gutierrez,“A mobile immersive virtual reality cardiac auscultation app,” October 2017. 1.1

[4] B. Kipping, S. Rodger, K. Miller, and R. M. Kimble, “Virtual reality for acute painreduction in adolescents undergoing burn wound care: A prospective randomizedcontrolled trial,” Burns, vol. 38, pp. 650–657, November 2011. 1.1

[5] H. G. Hoffman, T. L. Richards, B. Coda, A. R. Bills, D. Blough, A. L. Richards, andS. R. Sharar, “Modulation of thermal pain-related brain activity with virtual reality:evidence from fmri,” vol. 15, pp. 1245–1248, June 2004. 1.1

[6] K. B. Wolitzky-Taylor, R. Fivush, E. Zimand, L. F. Hodges, and B. O. Rothbaum,“Effectiveness of virtual reality distraction during a painful medical procedure inpediatric oncology patients,” Psychology and Health, pp. 817–824, December 2005.1.1

[7] B. K. Wiederhold, K. Gao, C. Sulea, and M. D. Wiederhold, “Virtual reality as adistraction technique in chronic pain patients,” June 2014. 1.1

[8] K. M.Malloy and L. S.Milling, “The effectiveness of virtual reality distraction forpain reduction: a systematic review,” Clinical Psychology Review, vol. 30, pp. 1011–1018, December 2010. 1.1

[9] “Ugivia - jugemos.” [Online]. Available: http://ugivia.uib.es/projectes/ 1.1

[10] “Inedithos.” [Online]. Available: http://inedithos.es/ 1.1

[11] F. C. M., “Las enfermedades raras,” Revista médica Clínica Las Condes, pp. 425–431,June 2015. 2.1

[12] M. Posada, C. Martín-Arribas, A. Ramírez, A.Villaverde, and I. Abaitua, “Enferme-dades raras. concepto, epidemiología y situación actual en españa,” Anales delsistema sanitario de Navarra, pp. 9–20, 2008. 2.1

[13] J. Rode, “Rare diseases: understanding this public health priority,” November 2005.2.1

57

Page 70: Sistema de realidad virtual para la gestión del dolor

BIBLIOGRAFÍA

[14] O. M. de la Salud, “Cancer pain relief and palliative care in children,” 1999. 2.1

[15] R. Herrero, D. Castilla, Y. Vizcaíno, and C. Botella, “Avances en el tratamientopsicológico de la fibromialgia: el uso de la realidad virtual para la inducción deemociones positivas y la promoción de la activación comportamental. un estudiopiloto,” Revista Argentina de Clinica Psicologica, August 2013. 2.1

[16] M. A. V. Pareja, “Perspectivas en el estudio y tratamiento psicológico del dolorcrónico,” Clínica y Salud, pp. 417–430, December 2008. 2.1, 2.4

[17] L. Yingda and Y. Jianping, “Fundamentals of eeg measurement. measurementscience review,” January 2018. 2.2

[18] M. Teplan, “Fundamentals of eeg measurement,” Measurement Science Review,January 2002. 2.2

[19] “Electroencefalograma en monterrey.” [Online]. Available: http://drprimodelgado.com/electroencefalograma-en-monterrey/ 2.2

[20] T. W. Berger, J. K. Chapin, G. A. Gerhardt, D. J. McFarland, J. C. Principe, W. V.Soussou, D. M. Taylor, and P. A. Tresco, Brain-Computer Interfaces: An internationalassessment of research and development trends. Springer, 2009. 2.2

[21] S. Sanei, Adaptive Processing of Brain Signals. Wiley, July 2013. 2.2

[22] A. Gupta, E. Ramdinmawii, and V. K. Mittal, “Significance of alpha brainwaves inmeditation examined from the study of binaural beats,” International Conferenceon Signal Processing and Communication (ICSC), pp. 484–489, July 2017. 2.2, 3.3

[23] “What is brainwave entrainment?” [Online]. Available: http://www.nirvanaayurvedica.com/What-Is-Brainwave-Entrainment.html 2.2

[24] T. A.J., M. H., H. J., A. O.K., and J. T.S., “Acute pain increases heart rate: differentialmechanisms during rest and mental stress.” Autonomic Neuroscience: Basic andClinical, p. 101 – 109, August 2005. 2.3

[25] W. Abram, J. A. Allen, and I. Roddif, “The effect of pain on human sweating,” pp.741–747, December 1973. 2.3

[26] R. A. Sherman, G. Tan, and B. F. Shanti, “Thermography in pain management,”January 2012. 2.3

[27] J. A. Carrobles, “Bio/neurofeedback,” pp. 125–131, September 2016. 2.4, 2.4

[28] “Biofeedback.” [Online]. Available: https://www.coherencia-cardiaca.com/coherencia-cardiaca/biofeedback/ 2.4

[29] C. Woodford, “What is virtual reality?” March 2018. 3.1.1

[30] G. C. Burdea and P. Coiffet, Virtual Reality Technology. Wiley, 2003. 3.1.1

[31] “The ultimate guide to virtual reality (vr) technology.” [Online]. Available:http://www.realitytechnologies.com/virtual-reality 3.1.1

58

Page 71: Sistema de realidad virtual para la gestión del dolor

Bibliografía

[32] H. Williams, “What industries are using virtual reality?” November 2017. 3.1.1

[33] C. Spitzer, U. Ferrell, and T. Ferrell, Digital Avionics Handbook. Taylor, April 2017.3.1.2

[34] J. Thang, “Vr headset specs compared: Psvr, htc vive, oculus rift, and more,” Fe-bruary 2018. 3.1.2

[35] A. Binstock, “Powering the rift,” May 2015. [Online]. Available: https://www.oculus.com/blog/powering-the-rift/ 3.1.2

[36] “Htc vive.” [Online]. Available: https://www.vive.com/us/product/vive-virtual-reality-system/ 3.1.2

[37] S. Buckley, “Cómo funciona la increíble tecnología de movimiento del visor htcvive,” May 2015. 3.1.2

[38] “Playstation vr.” [Online]. Available: https://www.playstation.com/es-es/explore/playstation-vr/ 3.1.2

[39] E. Herrera, “How you can become an ar/vr developer,” June 2017. 3.1.3

[40] State of the developer nation Q1 2017, April 2017. 3.1.3

[41] M. Lewis and J. Jacobson, “Game engines in scientific research - introduction,” pp.27–31, January 2002. 3.2

[42] “Unity.” [Online]. Available: https://unity3d.com/es/unity 3.2

[43] “Paquetes de unity.” [Online]. Available: https://developer.oculus.com/downloads/unity/ 3.2

[44] “Unreal engine.” [Online]. Available: https://www.unrealengine.com/en-US/features 3.2

[45] S. Settapat and M. Ohkura, “An alpha-wave-based binaural beat sound control sys-tem using fuzzy logic and autoregressive forecasting model,” pp. 109–114, August2008. 3.3

[46] L. Chaieb, E. C. Wilpert, T. P. Reber, and J. Fell1, “Auditory beat stimulation and itseffects on cognition and mood states,” May 2015. 3.3, 3.3, 5.3.1

[47] S. Sharma, S. Rewadkar, H. Pawar, and V. Deokar, “Survey on binaural beats andbackground music for increased focus and relaxation,” pp. 98–103, February 2017.3.3

[48] H. U. Pfaff, “Psychophysiological reactivity to auditory binaural beats stimula-tion in the alpha and theta eeg brain-wave frequency bands: A randomized, dou-ble–blind and placebo–controlled study in human healthy young adult subjects,”June 2014. 3.3, 5.3.1

[49] R. C. Filimon, “Beneficial subliminal music: binaural beats, hemi-sync and meta-music,” pp. 103–108, June 2010. 3.3

59

Page 72: Sistema de realidad virtual para la gestión del dolor

BIBLIOGRAFÍA

[50] G. Guruprasath and S. Gnanavel, “Effect of continuous and short burst binauralbeats on eeg signals,” March 2015. 3.3

[51] C. Funk, “Iot research – smartbands,” March 2015. 3.4

[52] Vykthur, “Comparison of smartwatches and sensors with 3rd party developeraccess,” June 2015. 3.4

[53] “Empatica e4.” [Online]. Available: https://www.empatica.com/research/e4/ 3.4

[54] K. Mok, “Wearables could track addict drug use more effectively,” March 2016. 3.4

[55] “Manifesto for agile software development.” [Online]. Available: http://agilemanifesto.org/ 4.3

[56] “Scrum.” [Online]. Available: https://www.scrum.org/resources/what-is-scrum4.3

[57] “Trello.” [Online]. Available: https://trello.com/ 4.3

[58] “Koreographer.” [Online]. Available: http://www.koreographer.com/koreographer5.1

[59] “Accelbrainbeat.” [Online]. Available: https://assetstore.unity.com/packages/tools/audio/immersive-brain-s-level-upper-by-binaural-beat-and-monaural-beat-665185.1

[60] D. P. Saha, T. L. Martin, and R. B. Knapp, “Affective feedback in a virtual realitybased intelligent supermarket,” in Adjunct Proceedings of UbiComp 2017, ACMJoint Conference on Pervasive and Ubiquitous Computing, Maui, Hawai’i, USA.ACM, 2017. 5.1

[61] “Empatica ble server.” [Online]. Available: http://developer.empatica.com/windows-ble-server.html 5.1

[62] X. Gao, H. Cao, D. Ming, H. Qi, X. Wang, X. Wang, R. Chen, and P. Zhou, “Analysis ofeeg activity in response to binaural beats with different frequencies,” InternationalJournal of Psychophysiology, pp. 399–406, October 2014. 5.2.2

[63] E. Heller, Psicología del color, 2000. 5.2.2

[64] D. Cvetkovic, D. Djuwari, and I. Cosic, “The induced rhythmic oscillations of neuralactivity in the human brain,” Biomedical Engineering, 2004. 5.3.1

[65] “What are carry-over effects?” [Online]. Available: http://glimo.vub.ac.be/downloads/carryover.htm 5.3.1

[66] “Moq.net. introducción, cómo utilizarlo y ejemplos.” [Online]. Availa-ble: http://blogs.encamina.com/piensa-en-software-desarrolla-en-colores/2017/02/13/moq-net-introduccion-utilizarlo-ejemplos/ 6

[67] “22 international conference information visualisation.” [Online]. Available:http://www.graphicslink.co.uk/IV2018/ 6.3

60

Page 73: Sistema de realidad virtual para la gestión del dolor

Bibliografía

[68] O. Staff, “Best practices for vr development,” February 2017. [On-line]. Available: https://forums.oculusvr.com/developer/discussion/49451/best-practices-for-vr-development 7.1

[69] I. Boughzala and H. M. S. de Freitas, “Introduction to the serious games, gamifica-tion, and innovation minitrack,” p. 625, January 2015. 7.2

61