INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas....

134
UNIVERSIDAD NACIONAL DE SAN AGUSTIN FACULTAD DE INGENIERIA DE PRODUCCION Y SERVICIOS ESCUELA PROFESIONAL DE INGENIERIA DE SISTEMAS Estimación de distancias absolutas utilizando un puntero láser y una cámara web Tesis presentada por el Bachiller: Christian Edilberto Portugal Zambrano Para optar el Título Profesional de: INGENIERO DE SISTEMAS Arequipa, Setiembre de 2011

Transcript of INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas....

Page 1: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

UNIVERSIDAD NACIONAL DE SAN AGUSTINFACULTAD DE INGENIERIA DE PRODUCCION Y SERVICIOS

ESCUELA PROFESIONAL DE INGENIERIA DE SISTEMAS

Estimación de distancias absolutas utilizandoun puntero láser y una cámara web

Tesis presentada por el Bachiller:Christian Edilberto Portugal Zambrano

Para optar el Título Profesional de:

INGENIERO DE SISTEMAS

Arequipa, Setiembre de 2011

Page 2: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Estimación de distancias absolutas utilizandoun puntero láser y una cámara web

Esta versión definitiva de tesiscontiene las correcciones y alteraciones sugeridas por la

comisión del jurado durante la defensa realizadapor Christian Edilberto Portugal Zambrano el

dia 21 de Noviembre del 2011

Comisión del jurado:

• Prof. M. Sc. Percy Huertas Niquén - EPIS - UNSA

• Prof. Ing. Pedro Rodríguez González - EPIS - UNSA

• Prof. Dr. César A. Beltrán Castañon - EPIS - UNSA

Page 3: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Agradecimientos

Esta es la parte más difícil de la tesis según yo, esto debido a que he conocido amigosy enemigos que me han permitido lograr tal objetivo, con errores, con enseñanzas y/o vi-cisitudes de la vida, todo este trabajo no hubiera sido posible sin el apoyo de mis padresy toda mi familia, que desde que nací confiaron en mis capacidades y virtudes las cualesincrementaron y afianzaron con sus enseñanzas y apoyo total en todo lo que me proponíay/o me equivocaba, este trabajo es lo menos que puedo hacer para retribuirles tanto amor yconsejos recibidos ... y el inicio de mucho más. También quiero agradecer sin restar impor-tancia a mis mejores amigos(as) por siempre haberme apoyado y corregido sin pedir nada acambio, gracias por ser mis amigos(as) y por todo el apoyo que me han dado, este trabajoqueda para recordarlos siempre a pesar que haya trabajos y/o problemas que nos separen,sin ánimos de melancolía y también muy importantes quiero agradecer a mi amigo Alex R.que me demostró que siempre estará ahí cuando lo necesite y fue mi ejemplo de que siemprese debe de sonreir ante los problemas, por más fuertes que sean, y no me olvido de mi equipode fulbito favorito el famoso ROJO FERMOCAL ANWIJOS y no es un trabalenguassino la unión de una amistad muy buena con amigos que me enseñaron a perseverar porlas caídas que se tienen, gracias muchachos, este trabajo también va para ustedes, tam-poco puedo olvidar de agradecer a mis profesores de la EPIS quienes me enseñaron comoser un verdadero profesional, y este esfuerzo también va para todas aquellas personas queestuvieron y que están hasta el presente conmigo, siempre me acordaré de todos mis amigos,amigas, con su nombres y apellidos, sus nombres siempre estarán en todos mis objetivos.Antes de finalizar quiero agradecer gratamente a mi orientador Jesús M. por haberme dadola oportunidad de trabajar bajos sus consejos y experiencia, gracias a él aprendí que unapersona puede ser muy grande y respetable pero no sería nada sin humildad y trabajo duro,gracias por tu paciencia y tiempo en el desarrollo de este trabajo y para finalizar quieroagradecer a mi amigo más importante debido a que gracias a EL he tenido todo lo que heescrito hasta ahora, empezó dándome una buena familia, buenos amigos, buenos profesoresy un buen orientador y sobretodo por haberme dado la oportunidad de llegar hasta estepunto, gracias DIOS por todo lo que me has dado y por todo lo que me darás o quitarás.

i

Page 4: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

ii

Para finalizar quiero acabar con una frase sencilla que logré entender al final de este trabajo:

Para empezar un gran proyecto, hace falta valentía. Para terminarun gran proyecto, hace falta perseverancia

Page 5: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Resumen

El avance de la tecnología ha hecho que se necesite de laboratorios especializados parala investigación en diversas áreas, estos laboratorios la mayoría de veces necesitan de equi-pos costosos para realizar sus investigaciones. En la actualidad existe un gran interés en elestudio de reconstrucciones tridimensionales a partir de imágenes digitales, tales estudiosson de sumo interés para áreas como la Visión por Computador y Computación Gráfica, losproductos de estos estudios han hecho que cada ves se pueda investigar más sin la necesidadde equipos muy costosos.En el campo de la Visión por Computador ha surgido la necesidad de contar con métodosy/o técnicas que permitan obtener información a partir de imágenes digitales, un tipo de in-formación es la distancia real a objetos presentes en las imágenes digitales. Para lograr dichosobjetivos se cuenta con dispositivos capturadores de luz Ej. Cámara de fotos y dispositivosestimadores de distancia Ej. Telémetros especializados, el problema de estos dispositivos enalgunos casos es el costo de adquisición y la calidad de los mismos, esto origina limitacio-nes en el desarrollo de la investigación. El estudio y aplicación de algoritmos especializadosha logrado reducir estas limitaciones por Ej. la aplicación de algoritmos fotogramétricos hapermitido mejoras relevantes en procesos de calibración de cámara (camera calibration), mo-vimiento de objetos en escenas (motion object), recuperación de formas a partir de sombras(shape from shading) y profundidad en imágenes (range images).El proceso de obtención de distancia a partir de imágenes digitales estáticas es muy importan-te para la determinación de medidas de profundidad en cualquier proceso de reconstruccióntridimensional de escenas. En este trabajo se realiza un estudio de las técnicas existentes enestimación de distancia, también se estudia el efecto y consecuencias de aplicar un procesode calibración de cámara al proceso de estimación de distancia, para ello se describe unaadaptación de un prototipo de escáner elaborado en base a una cámara web y un punteroláser de baja precisión (costo barato), aplicado a la determinación robusta de distanciasabsolutas en imágenes obtenidas de secuencias de video en tiempo real.Como parte final del trabajo se realizan pruebas experimentales que demuestran la efecti-vidad del cálculo de distancias en tiempo real a través de un simple modelo geométrico y

iii

Page 6: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

iv

un sistema de regresión lineal de aproximación. Para un conjunto amplio de pruebas, rea-lizadas con distintos parámetros de escáner, se obtienen buenos resultados de estimaciónde distancias.Como punto importante se realiza un análisis al final de cada capítulo, con lafinalidad de orientar claramente la teoría utilizada en este trabajo hacia la realización delos objetivos, como punto final de tratado se realiza también un análisis de los resultadosobtenidos y también son descritas posibles mejoras al proceso de estimación de distancia.Palabras clave: fotogrametría, calibración de cámara, visión computacional, estimación dedistancias.

Page 7: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Índice general

Lista de Abreviaturas viii

Lista de Símbolos ix

Índice de figuras x

Índice de cuadros xiv

1 Introducción 11.1 Idea Central y estudio de las variables . . . . . . . . . . . . . . . . . . . . . 3

1.1.1 Variable dependiente e independiente . . . . . . . . . . . . . . . . . . 31.1.2 Indicadores de validez . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2.1 Objetivo general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2.2 Objetivos Primarios . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2.3 Objetivos Secundarios . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2.4 Demostración y validación del modelo . . . . . . . . . . . . . . . . . . 4

1.3 Contribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.4 Organización del trabajo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Conceptos y Trabajos Previos 72.1 Conceptos teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.1.1 Visión Computacional . . . . . . . . . . . . . . . . . . . . . . . . . . 72.1.2 Percepción de la profundidad . . . . . . . . . . . . . . . . . . . . . . 92.1.3 Un acercamiento a la Geometría Proyectiva . . . . . . . . . . . . . . 102.1.4 Espacios Proyectivos . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1.5 Espacios de colores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1.6 Fotogrametría . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.1.7 Rango en imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

v

Page 8: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

ÍNDICE GENERAL vi

2.2 Trabajos previos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Calibración de cámaras 213.1 Modelo de cámara Pinhole . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.1.1 Parámetros extrínsecos . . . . . . . . . . . . . . . . . . . . . . . . . . 243.1.2 Parámetros intrínsecos . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.2 Geometría proyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.3 Métodos estándar de calibración de cámaras . . . . . . . . . . . . . . . . . . 26

3.3.1 Calibración Fotométrica . . . . . . . . . . . . . . . . . . . . . . . . . 263.3.2 AutoCalibración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.3.3 Calibración por estereoscopía . . . . . . . . . . . . . . . . . . . . . . 273.3.4 Calibración usando algoritmos genéticos . . . . . . . . . . . . . . . . 27

3.4 Distorsiones en las lentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.4.1 Distorsión radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283.4.2 Distorsión tangencial . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.5 Análisis y conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 Ubicación del punto láser 304.1 Características de las marcaciones láser . . . . . . . . . . . . . . . . . . . . . 304.2 Reducción del área de búsqueda . . . . . . . . . . . . . . . . . . . . . . . . . 364.3 Análisis y conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5 Calibración de cámara y corrección de imágenes 405.1 Calibración de cámara basado en homografías . . . . . . . . . . . . . . . . . 41

5.1.1 Detección de las esquinas y puntos del patrón de calibración . . . . . 415.1.2 Paso principal de calibración . . . . . . . . . . . . . . . . . . . . . . . 42

5.2 Modelos de distorsión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435.3 Corrección de las distorsiones en la imagen . . . . . . . . . . . . . . . . . . . 465.4 Análisis y conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

6 Proceso de estimación de distancia 486.1 Modelo de escáner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 486.2 Geometría del modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 496.3 Obtención de rpc y ro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

6.3.1 Modelo de regresión lineal para rpc y ro . . . . . . . . . . . . . . . . 516.4 Cálculo de la distancia en tiempo real . . . . . . . . . . . . . . . . . . . . . . 526.5 Análisis y conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

Page 9: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

ÍNDICE GENERAL vii

7 Pruebas y análisis de la propuesta 557.1 Implementación del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

7.1.1 Descripción de la interface de usuario . . . . . . . . . . . . . . . . . . 557.2 Pruebas y validación de la robustez del sistema . . . . . . . . . . . . . . . . 577.3 Cálculo del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587.4 Análisis de resultados y conclusiones . . . . . . . . . . . . . . . . . . . . . . 66

8 Conclusiones y trabajos futuros 68

A Imágenes de prueba 70

B Datos de estimación de distancia 73

C Software implementado para el sistema 84C.1 Eclipse IDE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84C.2 OpenCV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85C.3 Qt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85C.4 Descripción de la aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

C.4.1 Componentes del sistema . . . . . . . . . . . . . . . . . . . . . . . . . 87

D Artículos presentados al SCGI 2009 y CLEI 2011 89

Índice alfabético 113

Bibliografía 115

Page 10: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Lista de Abreviaturas

MAE Error Absoluto Promedio (Mean Absolute Error)MAPE Porcentaje de Error Absoluto Promedio (Mean Absolute Percentage Error)CCD Dispositivos de carga acoplada (Charged Coupled Device)

viii

Page 11: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Lista de Símbolos

pfc Total de píxeles hacia el centro (Pixel From Center)rpc Total de radianes por píxel (Radian Per Pixel Pitch)ro Error por Radian (Radian offset)

ix

Page 12: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Índice de figuras

2.1 Esquema del proceso de visión computacional (Figura adaptada de [Li, 2010]) 82.2 Relación de la visión computacional con otras áreas (Figura adaptada de

[Li, 2010]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.3 Imagen de un tablero de ajedrez en el cual se quiere hallar la distancia entre

los puntos A y B en la imagen . . . . . . . . . . . . . . . . . . . . . . . . . . 112.4 Efecto de proyección de objetos en imágenes generado al intentar hallar dis-

tancias entre 2 puntos (a)Utilizando geometría euclidiana con pérdida de pro-fundidad (b)Utilizando geometría proyectiva, teniendo en cuenta factores deprofundidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.5 Cubo de colores que representa la escala de colores RGB . . . . . . . . . . . 15

3.1 Esquema del modelo de cámara Pinhole (Figura basada en la Figura 11.1 en[Gary and Adrian, 2008]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.2 Proyección de un punto Q hacia el plano de la imagen(Figura basada en laFigura 11.2 en [Gary and Adrian, 2008]) . . . . . . . . . . . . . . . . . . . . 23

3.3 Tipos de distorsión radial presentes en lentes de cámara (a) Distorsión deBarrel (b) Distorsión de Pincushion . . . . . . . . . . . . . . . . . . . . . . . 28

3.4 Ejemplo de corrección de imagen (a)Imagen con presencia de aberracionesradiales (b) Imagen con selección de una linea para elaborar la corrección (c)Imagen corregida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4.1 Puntero láser utilizado en la elaboración del escáner estimador de distancia:(a)Componentes internos de un puntero láser (b)Puntero láser de bajo costo 31

4.2 Imágenes de una misma escena capturada con 3 tipos distintos de cámaray distintas resoluciones en cada una de ellas (a) Webcam de 2 MegaPixeles(b)Cámara de 3 MegaPixeles (c)Cámara de alto desempeño de 10 MegaPixeles 31

x

Page 13: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

ÍNDICE DE FIGURAS xi

4.3 Diferentes imágenes con presencia del punto láser convertidas a diferentesmodelos de color: (a) Imagen en color RGB (b) Imagen en escala de grises(c) Imagen en escala de colores HSV (d) Imagen en escala de colores Y’CbCr(Chrominance-Luminance) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4.4 Escenas en ambiente de luz no controlado y con presencia del punto láser endistintas ubicaciones (a) Imagen con presencia de una fuente de luz de altaincidencia de brillo (b) Imagen con presencia de objetos de color similar alreflejo del punto láser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

4.5 Escena mostrada con distintos canales de color (a) Fondo de imagen con varioscolores (b) Fondo de imagen en escala de grises (c) Fondo de la imagen enfiltro HSV (d) Fondo de imagen en filtro Y’CbCr . . . . . . . . . . . . . . . 34

4.6 Ubicación del punto láser en escenas representadas en distintos canales decolores (a) y (d) Ubicación del punto láser en escala de colores RGB (b) y (e)Ubicación del punto láser en escala de colores HSV (c) y (e) Ubicación delpunto láser con una imagen en escala de colores Y’CbCr . . . . . . . . . . . 35

4.7 Representación de la posición del punto láser en relación a la distancia escáner-objeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

4.8 Diferentes casos de prueba del escáner en donde la detección del punto láserresulta incorrecta a pesar del uso de canales Y’CbCr . . . . . . . . . . . . . 38

4.9 División de la imagen en 6 secciones de búsqueda del punto láser, de estemodo se evita búsquedas innecesarias en donde sólo se utilizará la sección 5. 38

4.10 Conjunto de imágenes en donde se aprecia los resultados de aplicar una zonaparticular de búsqueda a las imágenes de la Figura 4.8 . . . . . . . . . . . . 39

5.1 Patrones usados para el proceso de calibración, denominados Chessboard (Ta-bleros de ajedrez). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

5.2 (a) Detección de las esquinas del patrón. (b) Delimitación de los bordes deltablero (c) Detección de los puntos internos del patrón. . . . . . . . . . . . . 42

5.3 Esquema de los parámetros externos existentes en un dispositivo de captura(a) Vista de las posiciones externas de los objetos frente a la cámara. (b)Vista de las posiciones de los objetos sin presencia de la cámara . . . . . . . 43

5.4 Representación aislada de los parámetros externos mostrados en la Figura 5.3(a) Vista de los objetos de calibración (b) Vista del eje principal de la cámara. 44

5.5 Esquema del modelo de distorsión radial de la lente de la cámara utilizada. . 445.6 Esquema del modelo de distorsión tangencial de la lente de la cámara utilizada. 45

Page 14: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

ÍNDICE DE FIGURAS xii

5.7 Esquema del modelo completo de distorsión presente en la lente de la cámarautilizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

5.8 Ejemplo del proceso de corrección de las distorsiones en imágenes digita-les del patrón de calibración (a,b,c) Imágenes con distorsiones en sus pí-xeles (d,e,f)Imágenes resultantes al aplicar los (parámetros de corrección yre-proyección de píxeles a las imágenes (a,b,c) respectivamente. . . . . . . . . 46

6.1 Imágenes desde diferentes puntos de vista del escáner elaborado para el sis-tema de estimación de distancias utilizado en este trabajo. . . . . . . . . . . 49

6.2 Esquema de disposición cámara-láser. La distancia D es obtenida en ba-se la proyección de puntero láser sobre la superficie (Figura adaptada de[Danko, 2007]). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

6.3 Diagrama esquemático de flujo de datos del sistema creado. Cada bloquerepresenta un módulo mientras que cada flecha representa el flujo de datosentre cada módulo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

7.1 Interface de usuario del sistema para el cálculo de distancia. (a) Cuadro de diálogo

para la entrada de datos. (b) Conjunto de datos utilizados para la calibración de

los parámetros de la ecuación de distancia (Obtención de rpc y ro). . . . . . . . . 567.2 Descripción de los componentes de la interface de usuario del sistema de

estimación de distancia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 567.3 Gráfica de comparación de datos entre la distancia real y la distancia obte-

nida por el escáner para la 4ta configuración de parámetros mostrados en elCuadro 7.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

7.4 Gráfica de comparación entre distancias reales y distancias obtenidas de lasmuestras obtenidas para cada una de las configuraciones descritas en el Cua-dro 7.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

7.5 Esquema de una espiral en relación al objetivo, utilizada para la evaluación deestimación de distancias. Cada marca en el espiral representa una distanciareal hacia el objeto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

7.6 Comparación entre los datos de distancia real y su respectiva distancia obte-nida por el escáner con una cámara no calibrada (SC) y calibrada (CC). . . . 64

7.7 Esquema de una escena en donde el escáner se ubica en un eje fijo y se obtienendistintas distancias hacia varios objetivos. . . . . . . . . . . . . . . . . . . . 64

7.8 Comparación entre los datos de distancia real y su respectiva distancia ob-tenida por el escáner para los datos obtenidos del esquema mostrado en laFigura 7.7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

Page 15: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

ÍNDICE DE FIGURAS xiii

B.1 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 1ra configuración de parámetros mostrados en la Tabla 7.1 74

B.2 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 2da configuración de parámetros mostrados en la Tabla 7.1 75

B.3 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 3ra configuración de parámetros mostrados en la Tabla 7.1 76

B.4 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 4ta configuración de parámetros mostrados en la Tabla 7.1 77

B.5 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 5ta configuración de parámetros mostrados en la Tabla 7.1 78

B.6 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 6ta configuración de parámetros mostrados en la Tabla 7.1 79

B.7 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 7ma configuración de parámetros mostrados en la Tabla 7.1 80

B.8 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 8va configuración de parámetros mostrados en la Tabla 7.1 81

B.9 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 9na configuración de parámetros mostrados en la Tabla 7.1 82

B.10 Gráfica de comparación de datos entre la distancia real y la distancia obtenidapor el escaner para la 10ma configuración de parámetros mostrados en laTabla 7.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

C.1 Integración del plugin de Qt para Eclipse, se pueden ver sus cajas de herra-mientas y su diseñador integrado de interfaces de usuario. . . . . . . . . . . . 86

C.2 Diagrama de Componentes de la aplicación desarrollado para validación delmodelo de estimación de distancia. . . . . . . . . . . . . . . . . . . . . . . . 87

C.3 Diagrama de clases de la aplicación desarrollado para validación del modelode estimación de distancia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

Page 16: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Índice de cuadros

6.1 Conjunto de datos de distancias reales utilizados para hallar rpc y ro en laecuación de distancia, considera H = 25cm . . . . . . . . . . . . . . . . . . . 52

7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo:En el conjunto 7 se ha utilizado una distancia H de 25cm a una resoluciónde 352x288 utilizando una cámara sin calibrar, considerando 25 muestras,linealmente separadas por 5cm, para el modelo de regresión. La muestra vadesde una distancia mínima de 73 hasta 193cm. . . . . . . . . . . . . . . . . 57

7.2 Conjunto de datos obtenidos para el conjunto 4 de parámetros mostrados enla Tabla 7.1, notar que la distancia obtenida es aquella que resulta de aplicarla ecuación de distancia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

7.3 Ecuaciones de estimación de distancia obtenidas con una resolución de cámarade 320x240, conjuntos de datos de regresión variables obtenidos con distintosvalores de S. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

7.4 Conjuntos de muestras de regresión variables obtenidos con distintos valoresde S. Fue utilizada una cámara web no calibrada y con resolución de 320x240. 61

xiv

Page 17: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 1

Introducción

La vista es uno de los principales sentidos usados por el hombre para moverse en elmundo. La cantidad de información que se recibe a través de la visión es incomparable conla de los demás sentidos utilizados por el hombre, y son estos sentidos los que diferencianenormemente al hombre de las máquinas, aunque gran cantidad de información sensorialha logrado ser procesada gracias a los avances científicos, una de las áreas de investigaciónencargada de procesar la información sensorial de la visión es la Visión por Computador.El propósito de la visión artificial (en el ámbito de visión por computador) es programarun computador para que entienda las características de una imagen o construya una des-cripción de la escena de una imagen [Shapiro and Stockman, 2001]. Luego para conseguir ladescripción de una escena, los avances en el campo de la visión por computador brindan téc-nicas como las utilizadas en reconocimiento de patrones, aprendizaje estadístico, geometríaproyectiva, procesamiento de imágenes, teoría de gráficos, detección de bordes, estructurastensoriales, detección de esquinas, aproximaciones, entre otros.Una técnica que está tomando más adeptos en el área de Visión Computacional, hoy endía, es la obtención del rango (distancia) en imágenes, la cual es definida como la distanciaexistente entre un objeto en la escena y el sensor de captura de imágenes [Hua et al., 2002,Gonzales, 2005, Fernandes, 2006, Goyat et al., 2010].Estos tipos de técnicas permiten obtener información tridimensional de la escena como el fon-do, forma y profundidad de los objetos presentes en la misma. Muchas aplicaciones han sidocreadas considerando información de profundidad, como por ejemplo detección de colisio-nes en robots autónomos [Baltzakis et al., 2003, Gonzales, 2005], aplicaciones en IngenieríaInversa usando sensores ópticos de rango [Jahne et al., 1999] y elaboración de mapas de na-vegación de robots. También se han creado aplicaciones en áreas como control de calidad yplaneamiento del almacenaje, este último es de gran importancia para empresas que necesi-

1

Page 18: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 1. INTRODUCCIÓN 2

tan obtener medidas de objetos tridimensionales para su manipulación [Fernandes, 2006]. Enoposición a este enfoque encontramos que este tipo de técnicas demanda mucho tiempo deprocesamiento y/o requiere de componentes de hardware Ej. sensores de distancia, sonares,escáneres) cuya adquisición, instalación y puesta en ejecución requieren de elevados costosfinancieros y personal calificado para su implementación. En la actualidad las aplicacionesbasadas en reconstrucciones superficiales 3D (tridimensionales) están enfocadas en mejorarla rapidez, eficiencia y costo computacional utilizado por estas técnicas, a su vez tambiénestán siendo optimizadas con el fin de obtener medidas de superficies de objetos en un rangode pocos metros hasta algunos milímetros en tamaño y/o distancia.El presente trabajo, está orientado hacia la estimación robusta de distancias absolutas,trabajo tratado en [Fernandes, 2006, Montiel et al., 2007, Danko, 2007, Derhgawen, 2008,Portugal-Zambrano and Mena-Chalco, 2009], en los cuales se consideran dispositivos de fá-cil y económica adquisición como una cámara web de uso doméstico y un puntero láser debajo costo, estos componentes son utilizados para una estimación rápida y robusta de dis-tancias obtenidas del mundo real en tiempo real.Existen dispositivos capaces de resolver el problema de estimación de distancia con la mayorprecisión posible, tales como Telémetros, sensores acústicos, sonares etc, las limitaciones deestos dispositivos es el costo por adquisición llegando a precios en algunos casos inalcanzablespara algunos laboratorios de investigación, para intentar resolver el problema del costo seorientó el trabajo al uso de los componentes antes mencionados para implementar un escánerde estimación de distancias. Para el diseño del escáner, ha sido dispuesto tanto la cámaraweb, como el puntero láser en formación paralela y fija con la finalidad de lograr simplificarcálculos de proyección. La principal ventaja de esta configuración (denominado desde aho-ra escáner) es la utilización de componentes de bajo recurso económico, la robustez de losresultados y la eficiencia en la obtención de resultados. Adicionalmente, se ha realizado unarecopilación de técnicas de calibración de cámara y la implementación de una de ellas con lafinalidad de analizar su relación con el proceso de estimación de distancias y además obtenerinformación tridimensional adicional a la distancia. Como parte complementaria, para estetrabajo se ha realizado la evaluación de la robustez en estimación de distancias en tiemporeal con la finalidad de analizar su comportamiento, ventajas y desventajas.Este trabajo ha sido motivado en parte por la necesidad de brindar una técnica manual ybarata que satisfaga las necesidades de los investigadores en visión computacional y deseenconstruir sistemas de imágenes tridimensionales que cumplan las necesidades de sus aplica-ciones y logren implementar sistemas más complejos en base a componentes de bajo costo.En la actualidad están emergiendo una variedad de aplicaciones que se fundamentan en larapidez, eficiencia y bajo costo [Hulme et al., 2010].

Page 19: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 1. INTRODUCCIÓN 3

1.1. Idea Central y estudio de las variables

Una gran parte de los trabajos que abordan el problema de extracción de medidasen imágenes se inclinan por el uso de dispositivos de alto costo y hardware especializa-do para esa tarea [Brown, 1971, Lewis and Johnston, 1977, Surmann et al., 2003], tambiénalgunos trabajos consideran un bajo costo aproximado de $500 a $3000 [Strickon, 1999,Surmann et al., 2001] los cuales en algunos casos no pueden ser costeados por algunos labo-ratorios de investigación. Algunos autores han propuesto el uso de sensores para la detec-ción de distancia [Baltzakis et al., 2003] o del uso de un láser de linea [Montiel et al., 2007]para la recuperación de información tridimensional de una superficie, ahora en otros tra-bajos de investigación se ha propuesto la utilización de dos punteros láser [Gonzales, 2005,Remondino and Fraser, 2006] dispuestos en diversas configuraciones, tales trabajos genera-ron aplicaciones puestas en práctica en diversos lugares [Danko, 2007, Derhgawen, 2008] asícomo también en la comunidad científica.Este trabajo de tesis está orientado dentro del grupo de investigaciones que tiene por objeti-vo obtener información tridimensional de objetos (percepción de profundidad) en imágenesdigitales en tiempo real. La idea central se describe como:

Es posible determinar distancias robustas y absolutas a objetos en una escenadigital utilizando instrumentos de fácil accesibilidad y bajo costo, el cual adicio-nado con un proceso de calibración de cámara brinde información necesaria y losuficientemente precisa para procesos de investigación posteriores.

1.1.1. Variable dependiente e independiente

Llamamos independiente a la variable cuya asociación o influencia en la variable depen-diente es lo que se pretende descubrir en la investigación. Es controlada por nosotros, losinvestigadores, en este trabajo de acuerdo a su definición la variable independiente es nuestraEcuación de estimación de distancia la cual nos permitirá influir sobre los resultadosde distancia, esta influencia nos indica como variable dependiente a la Distancia obte-nida. Otra variable independiente a tomar en cuenta es nuestro proceso de calibraciónde cámara, este proceso nos permitirá influir en los resultados de estimación de distancia

1.1.2. Indicadores de validez

La idea central del trabajo es determinar distancias absolutas robustas con instrumentosde fácil accesibilidad, se considera necesario utilizar algunos indicadores para validar elobjetivo del proyecto, estos son el MAE (Mean Absolute Error) y MAPE (Mean

Page 20: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 1. INTRODUCCIÓN 4

Absolute Percentage Error), estos indicadores serán definidos en las secciones 7.2 y 7.3en donde se detallará su uso y aplicación a este trabajo.

1.2. Objetivos

1.2.1. Objetivo general

Determinar distancias próximas a lo real (absoluta) de objetos presentes en imágenesdigitales utilizando instrumentos de fácil accesibilidad y bajo costo.

1.2.2. Objetivos Primarios

Para lograr un proceso de estimación de distancia robusto de acuerdo a la propuesta, esnecesario que se logren resolver los siguientes problemas:

1. Identificar la posición bidimensional (x,y) del reflejo del puntero láser, generado en laimagen.

2. Recolección de datos de distancia para la calibración (aproximación) de la ecuación deestimación de distancia, esto usando un modelo de regresión lineal.

3. Utilizar un modelo de calibración de cámara basado en transformaciones proyectivasy analizar su efecto en el proceso de estimación de distancias.

4. Lograr estimar distancias absolutas en tiempo real utilizando la ecuación de distanciaobtenida por el modelo de regresión lineal.

1.2.3. Objetivos Secundarios

El alcance en la medición de distancias se ve influenciado por la relación entre el reflejodel puntero láser y la cámara web, es por esta razón que se ha modificado el escáner conel objetivo de establecer un modelo de relación más preciso entre la distancia obtenida y laposición del puntero láser.

1.2.4. Demostración y validación del modelo

El modelo de estimación de distancias utilizado para la realización de este trabajo esfundamentado por medio de la construcción de un prototipo de escáner para el cálculo dedistancias en tiempo real. El escáner esta constituido por los siguiente componentes:

Page 21: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 1. INTRODUCCIÓN 5

• Una cámara web de utilización casera, con un costo aproximado de 12$

• Un puntero láser de clase II de baja calidad, costo aproximado de 2$.

• Un módulo de software utilizado para el cálculo de la distancia.

• 3 Pilas AAA de 1.5 voltios, cartón reutilizado y cinta aislante para el ensamblado delos componentes.

1.3. Contribuciones

Las principales contribuciones de este trabajo se listan como sigue:

• Un prototipo de escáner para el cálculo de distancias en tiempo real utilizando com-ponentes de bajo costo.

• Un modelo de ecuación matemática utilizado para el cálculo de distancia.

• Un módulo de software utilizado para la calibración de la ecuación de distancia em-pleando un modelo de regresión lineal.

• Un módulo de software para la calibración de cámara utilizando patrones de tablerosde ajedrez.

• Un módulo de software para la estimación de distancia en secuencias de video entiempo real.

• El presente trabajo originó la evaluación de 2 artículos para presentación, uno parael Simposio de Computación Gráfica y Procesamiento de Imágenes SCGI2009 (2doMejor Artículo) y el otro evaluado en la Conferencia Latinoamericana de Estudiosen Informática CLEI 2011. Ambos artículo se encuentran en el Apéndice C de estetrabajo.

1.4. Organización del trabajo

El presente trabajo de tesis está organizado de la siguiente manera:En el Capítulo 2 se brinda un marco teórico fundamental e introductorio sobre visión compu-tacional, tratamiento de colores en imágenes, rango en imágenes, geometría proyectiva yfotogrametría además de presentar los trabajos previos recopilados hasta la actualidad, lue-go en el Capítulo 3 se explica el modelo de cámara Pinhole , el cual es fundamental para

Page 22: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 1. INTRODUCCIÓN 6

el proceso de calibración de cámara y se describen los métodos estándares actuales paradicho proceso, también se describe los tipos de distorsiones que presentan las lentes de losdispositivos de captura de luz, luego en el Capítulo 4 se describe las características de losdispositivos láser y el proceso de ubicación del punto láser en la imagen para luego terminarel capítulo con un análisis de resultados en el proceso de ubicación de las marcaciones láser,en el Capítulo 5 se describe el proceso de detección de esquinas en el patrón de tablero deajedrez y el proceso de calibración de cámara necesario en este trabajo, en el Capítulo 6se describe el proceso de estimación de distancia, se detalla la geometría del modelo usadoy su respectiva implementación, en el Capítulo 7 se describen las pruebas realizadas y unanálisis de los resultados obtenidos así como sus limitaciones, para terminar este trabajoen el Capítulo 8 se describen las respectivas conclusiones y se enuncian posibles trabajosfuturos.

Page 23: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 2

Conceptos y Trabajos Previos

En este capítulo se introducen los conceptos teóricos necesarios y también se introducenlas técnicas utilizadas en el desarrollo de este trabajo. En la sección 2.1 se presentan losconceptos teóricos básicos, luego en la sección 2.2 se describe una recopilación de los trabajosprevios existentes hasta la actualidad relacionados con el presente trabajo.

2.1. Conceptos teóricos

2.1.1. Visión Computacional

Nuestros ojos son mucho más desarrollados que cualquier cámara digital de hoy en día,y más allá, el procesamiento de señales que realiza nuestro cerebro es mucho más compli-cado que cualquier programa de procesamiento de imágenes, de hecho todavía hay ciertashabilidades que no se comprenden completamente y tampoco se pueden reproducir con faci-lidad. La visión artificial, también conocida como Visión por computador1, es un campode la inteligencia artificial. El objetivo de la visión computacional es facilitar la toma dedecisiones sobre objetos físicos reales a partir de escenas basadas en imágenes sensoriales[Shapiro and Stockman, 2001].El proceso detrás de la visión por computadora (Ver Figura 2.1) está en poseer un objetoreal Ej. Paisajes, calles, paredes, etc, el cual es observado o capturado por dispositivos sen-soriales, ya sea la vista humana o un hardware de captura de video, la interpretación de esacaptura y/o entrada es a través de un dispositivo que sirve de intérprete, en los humanosesta interpretación es realizada por medio del cerebro y cuando el dispositivo sensorial es unhardware de captura, el dispositivo intérprete es una computadora.

1Algunos autores la consideran también visión técnica

7

Page 24: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 8

Figura 2.1: Esquema del proceso de visión computacional (Figura adaptada de [Li, 2010])

El objetivo es obtener diversas interpretaciones acerca de un objeto real, lo cual per-mitirá tomar decisiones en base a las percepciones obtenidas.Para poder tomar decisionesen base a objetos reales, es casi necesario construir una descripción o modelo de la ima-gen observada. Es por ello que algunos expertos consideran que el objetivo de la visión porcomputador es la construcción de la descripción de una escena a partir de imágenes digita-les [Shapiro and Stockman, 2001].Es importante distinguir entre procesamiento de imagen y entendimiento de la imagen, elprocesamiento de imágenes está principalmente relacionado con la transformación de imáge-nes a imágenes, y nos referimos al concepto de entender una imagen con el hecho de tomardecisiones en base a imágenes y explícitamente la construcción descriptiva de escenas ne-cesarias para entenderlas. Cuando trabajamos con conceptos relacionados al procesamientode imágenes mayormente modelamos la imagen como una función continua f(x, y) de dosparámetros espaciales x y y, en este trabajo se ha considerado un modelo de imagen basadoen una matriz bidimensional cuyos valores almacenan el valor del grado de intensidad de luzy también de un modelo de imagen que permita la obtención y manipulación de información.La visión por computador se puede dividir en dos secciones: visión 2D (bidimensional) y vi-sión 3D (tridimensional), siendo este último el campo que más interés y pasión ha generadoentre los investigadores en los últimos años (Ver Figura. 2.2).La visión 2D se puede definir como el proceso de extraer información útil e interesantede una imagen sin necesidad de saber en ningún momento información tridimensional 3Dalguna de la escena, capturada en la imagen. Las aplicaciones basadas en visión computacio-nal tienen sus fundamentos en técnicas como reconocimiento de patrones, mejoramiento y

Page 25: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 9

Figura 2.2: Relación de la visión computacional con otras áreas (Figura adaptada de [Li, 2010])

filtrado de imágenes, recuperación de imágenes basadas en contenido, secuencias de movi-miento [Shapiro and Stockman, 2001], segmentación de imágenes, estereoscopía, rango deimágenes (range images) [Shah, 1997].

2.1.2. Percepción de la profundidad

Tanto la visión binocular como monocular contribuyen a la percepción de la distancia,eso es para los humanos la noción de percepción de profundidad, la cual es la habilidad visualpara percibir el mundo en 3 dimensiones, la percepción de la profundidad toma como baseuna variedad de pistas (cues) de profundidad, estas son clasificadas en binoculares cuandonecesitan dos ojos y monoculares cuando requieren un sólo ojo, así también la percepciónde la distancia puede ser categorizada en absoluta y relativa.Para definir el concepto de distancia absoluta primero acotaremos que la distancia expresala proximidad o lejanía entre dos objetos o también es definida como el intervalo de tiempoque transcurre entre dos sucesos.En matemática la distancia entre dos puntos equivale a la longitud del segmento de recta quelos une, en física la distancia es una magnitud escalar que se expresa en unidades de longitudo tiempo, cuando nos referimos a una distancia absoluta en este trabajo lo consideramoscomo una medida precisa (lo más precisa) o exacta de distancia, es decir, es una estimación dela distancia física en unidades, tales como metro, centímetro, etc. hacia un objeto, mientras

Page 26: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 10

que si utilizáramos el término relativo nos referiríamos a la estimación de la ubicación deobjetos en relación con otros objetos mas que en términos de distancias físicas. Hacemosnotar en este trabajo que la distancia absoluta es uno de los objetivos del sistema debido aque se pretende implementar un modelo que brinde mediciones lo más próximas posibles alo real (absoluta) eliminando errores de cálculo que conlleven a la obtención de resultadospoco precisos.

2.1.3. Un acercamiento a la Geometría Proyectiva

Probablemente la idea de geometría en el pasado ha sido basada en triángulos en elplano, en el Teorema de Pitágoras o en tal ves algo más analítico utilizado en el espaciotridimensional como producto punto o producto vectorial. En cualquier escenario a estousualmente se le conoce como geometría euclidiana y esta relaciona nociones como distancia,longitud, ángulos, áreas y otros temas relacionados. En el siglo XIX, la geometría proyectivay la geometría hiperbólica, se establecieron dentro de las matemáticas, pero lo que acabóde fundamentarlas, posiblemente, fue hallar un modelo analítico que fundamentara su uso.Dentro del contexto de la geometría euclidiana-cartesiana se puede construir la geometríaproyectiva, y si se acepta la primera, hay que admitir la segunda. La geometría proyectivasurgió por las siguientes razones:

• La geometría proyectiva apareció hace 500 años atrás con el estudio del dibujo enperspectiva: La distancia entre dos puntos en la pintura de un artista no representala verdadera distancia entre los objetos que ellos representan, por lo tanto la distanciaeuclidiana no es el concepto más correcto.

Para ilustrar el párrafo anterior se presenta la Figura 2.3 en donde se observa untablero de ajedrez en la cual queremos determinar la distancia existente entre el puntoA y B, una interrogante que surge es ¿como calcular tal distancia?. Para calcular ladistancia entre dos puntos en una imagen necesitamos percibir el efecto de pérdidade profundidad de los objetos presentes en una imagen digital, tal efecto se puedeobservar en la Figura 2.4(a) en donde consideramos un cálculo de distancia utilizandoel Teorema de Pitágoras, pero sin considerar la proyección del tablero en la imagen, sepuede observar como el triángulo rectángulo formado no considera la forma del objetopara calcular la distancia, en este caso resultaría en un cálculo de distancia valuadoen píxeles de pantalla.Por otro lado si observamos la Figura 2.4(b) notamos que el triángulo rectánguloformado se proyecta en relación a la posición del objeto en la imagen, permitiendo encierto modo tener un grado de visión basado en la profundidad de la imagen. Para

Page 27: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 11

Figura 2.3: Imagen de un tablero de ajedrez en el cual se quiere hallar la distancia entre los puntosA y B en la imagen

ambos casos la distancia se calcularía como sigue:

a2 = b2 + c2 (2.1)

D2 = (A′)2 + (B′)2 (2.2)

Debemos hacer notar que el resultado de la Ecuación 2.1 se calcula usando el Teoremade Pitágoras, el cual daría una distancia válida siempre que el objeto en su forma realutilice un sistema de coordenadas bidimensionales, para el caso de la Ecuación 2.2se utiliza también el Teorema de Pitágoras pero considerando la posición del objetorespecto a la cámara, para ello se utiliza un sistema de coordenadas tridimensionalese información de posición relativa entre el objeto, el visor de imagen y la cámara.

• Las técnicas de la geometría proyectiva, en particular las coordenadas homogéneasfueron el pilar para el inicio del dibujo en perspectiva para las versiones modernas delos artistas quienes producen los gráficos por computadora que podemos ver en lasaplicaciones actuales.

2.1.4. Espacios Proyectivos

El espacio proyectivo es la estructura algebraica en la que se desarrolla principalmente lageometría proyectiva. Intuitivamente responde a la idea de un espacio afín complementadocon el añadido de un hiperplano que representa los puntos situados en el infinito, es decir,

Page 28: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 12

(a) (b)

Figura 2.4: Efecto de proyección de objetos en imágenes generado al intentar hallar distancias entre2 puntos (a)Utilizando geometría euclidiana con pérdida de profundidad (b)Utilizando geometríaproyectiva, teniendo en cuenta factores de profundidad

allá donde se cortan las rectas paralelas. La idea de un espacio proyectivo se relaciona conla perspectiva, más precisamente con la forma en la que un ojo o una cámara proyecta unaescena 3D sobre una imagen 2D, todos los puntos que se encuentran sobre una línea deproyección con el punto focal de la cámara, se proyectan en un punto de imagen común eneste caso, el espacio vectorial es R3, con el punto focal de la cámara como origen y el espacioproyectivo corresponde a los puntos de imagen.Los espacios proyectivos pueden ser estudiados como campos separados en matemáticas,pero también pueden ser usados en varios campos de aplicación, en particular, en geometríalos objetos geométricos tales como puntos, rectas, o planos, pueden tener una representacióncomo elementos en espacios proyectivos basados en coordenadas homogéneas.

Definiciones básicas

Definición 1 Si V es un espacio vectorial. El espacio proyectivo P(V) de V es el conjunto desub-espacios vectoriales unidimensionales de V.

Definición 2 Si el espacio vectorial V tiene n + 1 dimensiones, entonces P(V) es un espacioproyectivo de dimensión n. A un espacio proyectivo unidimensional se le conoce como linea pro-yectiva (linea de proyección), y a un espacio bidimensional se lo define como plano proyectivo.

Page 29: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 13

Subespacios lineales

Definición 3 Un subespacio lineal del espacio proyectivo P(V) es el conjunto de vectores subes-paciales unidimensionales de un vector subespacial U ⊆ V

Notar que a un espacio proyectivo unidimensional se le conoce como linea de proyec-ción, por tanto las siguientes dos proposiciones muestran el comportamiento de una lineaproyectiva :

Proposición 1 A través de cualquiera de dos puntos distintos en un espacio proyectivo pasauna única linea proyectiva.

Proposición 2 En un plano proyectivo, dos lineas proyectivas distintas se intersectan en unúnico punto.

Transformaciones proyectivas Si V,W son vectores espaciales y T : V → W es unatransformación lineal, entonces un subespacio vectorial U ⊆ V es relacionado (mapeado) aun subespacio vectorial T (U) ⊆ W .

Definición 4 Una transformación proyectiva de P(V) a P(W) es el mapa τ definido como unatransformación lineal invertible T : V → W .

2.1.5. Espacios de colores

El color es la reacción del cerebro a un estímulo visual específico el cual es seguido por unmayor procesamiento de fotoreceptores visuales [Bigun, 2006], también se la define como ungrupo de reglas básicas en la mezcla de colores para conseguir el efecto deseado combinandoreflejos de luz. La retina humana tiene tres tipos de foto-receptores de color llamados conos,que responden a la radiación incidente de acuerdo a sus curvas espectrales, un cuarto tipo defoto-receptor son los denominados bastones, los cuales sólo responden a bajos niveles de luz(visión nocturna). Debido a que existen tres tipos de foto-receptores de color, son necesariossólo 3 tipos de componentes para describir el color (Ej. RGB).

Qué es un espacio de colores? Un espacio de colores es un método por el cual sepuede especificar, crear y visualizar colores, un humano lo hace a través de sus atributosde brillo (brightness), matiz (hue) y color (colorfulness) mientras que un computador puededescribir un color en términos de cantidad de rojo, verde y azul. Así usualmente un colores especificado usando tres coordenadas o parámetros, los cuales describen la posición delcolor dentro de un espacio de colores usado. Diferentes espacios de colores han sido descritos

Page 30: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 14

en [Joblove and Greenberg, 1978] y nombraremos algunos con sus respectivas traduccionesal inglés:

• RGB (Red, Green, Blue)

• CMY(K) (Cyan, Magenta, Yellow (Black))

• HSL (Hue, Saturation and Lightness)

• YIQ, YUV, YCbCr, YCC(Luminance - Chrominance)

• CIE

Gamut La gama de color (gamut) es la proporción del espacio de color que se puederepresentar con un dispositivo o proceso, generalmente se especifica en el plano de la gráficamatiz-saturación.

Hue El tinte (hue) determina la tonalidad o intensidad de un color, relacionándose alconcepto de si un color es claro, oscuro o intenso.

Luminance Definida como la densidad superficial de intensidad luminosa en una direccióndada, es un término comúnmente utilizado en el procesamiento digital de imágenes paracaracterizar a cada píxel. Ej. En el sistema de coloración RGB la luminancia Y de un píxelse calcula con la siguiente expresión matemática:

Y = 0,299R + 0,587G+ 0,114B

Chrominance La crominancia (chrominance) es la componente de la señal de video quecontiene la información del color. Para ver y medir la señal de crominancia se utiliza elvectorscopio.

Chroma Chroma y Saturation son dos conceptos relacionados en referencia a la intensidadpercibida de un color en específico, pero definidos distintamente, chroma es la coloraciónrelativa al brillo de otro color en condiciones similares, Saturation es la coloración de uncolor relativo respecto de su propio brillo.

Saturation La saturación(saturation) es definida, como se mencionó anteriormente, comola intensidad de coloración de un área en proporción a su brillo, en términos físicos se diceque entre más concentrada se encuentre una longitud de onda, más saturado será el color.

Page 31: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 15

Figura 2.5: Cubo de colores que representa la escala de colores RGB

Espacio de color RGB Este espacio de color representa una composición del color entérminos de colores primarios (rojo, verde, azul). Se dice que está basado en la síntesis aditivaes decir la generación de colores producido por adición de los tres colores de luz primarios.La intensidad de cada componente se mide en el rango 0 a 255 como sigue:

• Rojo: (255, 0, 0)

• Verde: (0, 255, 0)

• Azul : (0, 0, 255)

El conjunto de todos los colores se representa en un cubo (ver Figura 2.5, donde cada colores un punto en la superficie o interior del cubo.

Espacio de colores Y’CbCr

Y’CbCr es una familia de espacio de colores usada como parte del flujo de colores deimágenes en video y fotografía digital. Y’ es la componente de luminancia (luminance),CB(Cb) y CR(Cr) son los componentes chroma de diferencia azul y roja. Y’CbCr no esun espacio de color absoluto, en otras palabras es una manera de codificar la informaciónpresentada en formato RGB [Poynton, 2011].

• Y representa el grado luminancia en el rango de 0 a 255

• Cb y Cr se encuentran en el rango de −128 a 127 con signo o 0 a 255 sin signo.

Si se hace una conversión del espacio RGB a Y’CbCr

Y = 16 + (65,481xR + 128,553xG+ 24,966xB)

Page 32: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 16

Cb = 128 + (−37,797xR− 74,203xG+ 112,0xB)

Cr = 128 + (112,0xR− 93,786xG+ 18,214xB)

A diferencia del trabajo presentado en [Portugal-Zambrano and Mena-Chalco, 2009] don-de se utiliza la escala de color RGB para el muestreo de los píxeles, en este trabajo se utilizael espacio de colores Y’CbCr, en el capítulo 4 se explica la utilización de este canal y losbeneficios de su aplicación al sistema de estimación de distancia.

2.1.6. Fotogrametría

La fotogrametría es definida como un conjunto de técnicas utilizadas para determinarlas propiedades geométricas de los objetos y las situaciones espaciales de seres vivos a partirde imágenes fotográficas de corto o largo alcance [Slama, 1980]. Básicamente, es una técnicade medición de coordenadas tridimensionales. Por lo que resulta que el concepto de foto-grametría es: medir sobre fotos. Si trabajamos con una foto podemos obtener informaciónen primera instancia de la geometría del objeto, es decir, información bidimensional. Si tra-bajamos con dos fotos, en la zona común a éstas (zona de solape), podremos tener visiónestereoscópica; o dicho de otro modo, información tridimensional. Este tipo de técnicas hasido aplicada a campos como Agronomía, Cartografía, Ortofotografía, Arquitectura, etc. enresumen, la fotogrametría es la obtención de medidas muy precisas de estructuras a partirde fotografías [Brown, 1971].

2.1.7. Rango en imágenes

El rango en imágenes representa la distancia del objeto al sensor de captura de luz. Estasimágenes proveen información tridimensional3D directa al contrario de la clásica informaciónde la intensidad de la luz reflejada en la escena [Shah, 1997]. El rango en imágenes proveeinformación explícita de profundidad, sin embargo los sensores de distancia son lentos ycaros. Las imágenes basadas en intensidad tienen un uso limitado en términos de estima-ción de superficies y los valores por píxeles están relacionados a la geometría de superficiesindirectamente, al contrario el rango en imágenes brinda información sobre la posición de lasuperficie directamente, en consecuencia el cómputo de las formas es razonablemente fácil.Cada píxel de una imagen de rango expresa la distancia entre marco de referencia y unpunto visible en la escena, por lo tanto el rango en imágenes ayuda en la reproducción dela estructura tridimensional de una escena. El rango en imágenes puede ser representadoen dos formas, una es una lista de coordenadas tridimensionales en un marco de referenciadado Ej. una nube de puntos, la otra es una matriz de valores de profundidad a lo largo de

Page 33: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 17

los ejes x, y lo cual hace explícita la organización espacial.El rango en imágenes es adquirido con sensores de distancia, en visión computacional normal-mente se distingue entre sensores activos y pasivos. Los sensores activos proyectan energía(Ej. Luz) en la escena y detectan la posición a medir, en el otro sentido los sensores derango pasivos sólo trabajan en la intensidad de los píxeles para detectar la profundidad. Lossensores de distancia activos brindan una variedad de principios físicos.Las técnicas más comunes en sensores es la triangulación, sonares/radares y enfoques acti-vos [Fernandes, 2006], en este trabajo se ha utilizado una técnica activa basada en triangu-lación. La triangulación en su concepto general utiliza un proyector de luz y una cámara decaptura de intensidad luminosa la cual se localiza a una cierta distancia desde el proyector,el proyector emite un patrón de luz, los patrones de luz más comunes son luces planas opuntos sencillos. Si usamos un patrón de luz lineal, la intersección del plano de linea con lasuperficies de la escena forman una curva llamada cinta (strip), la cual es observada por lacámara luego, usando triangulación se puede obtener el mapa de profundidad de la linea depuntos bajo la cinta.Los radares o sonares emiten una onda acústica y detectan el eco producido por el choquecon la superficie, la distancia es una función de la diferencia entre la emisión y el retorno dela onda acústica esto en unidades de tiempo para luego hallar la proporción de distancia enbase al tiempo.

2.2. Trabajos previos

Hasta ahora en la literatura se han tratado diversos trabajos relacionados con la estima-ción de distancias usando dispositivos tales como una cámara web y un puntero láser. Enel siglo pasado se comenzó a estudiar los fenómenos ocurrentes en las imágenes digitales,en [Brown, 1971] el autor logró establecer la importancia de la estimación de distancias,estableció un modelo de sistema para obtener medidas cercanas fotogramétricas para la ob-tención de medidas de estructuras, esto dio origen a técnicas fotogramétricas más refinadaslas cuales fueron aplicadas a la obtención de medidas de antenas parabólicas, también aquíse estudió el tema de la calibración de cámaras utilizando variación de las distorsiones dentrodel modelo fotogramétrico, luego en [Lewis and Johnston, 1977] el autor describe un modelode telémetro que opera en conjunción con una mini-computadora como parte de un vehículorobótico que realiza tareas interesantes que incluyen ubicación y manipulación de muestrasrocosas. El sistema telemétrico es parte de un sistema de visión computacional que tambiénincluía dos cámaras de televisión y una mini-computadora.El sistema manipulador del robot era parecido a una mano humana por lo que el telémetro

Page 34: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 18

debía de estar capacitado para determinar las posiciones de sus objetivos con cm de pre-cisión, el telémetro utilizó una conversión de tiempo a altura de pulso para determinar lamedida de distancia y la data del telémetro es usada por un software de planeamiento derutas en la generación de mapas de obstáculos antes que ocurra movimientos del vehículo ydurante el movimiento para proveer más seguridad en las rutas. La tarea básica del sistemade visión es detectar y localizar objetos de interés y también obstáculos para el vehículo enmovimiento, el trabajo presenta un error dominante debido a efectos de reflectividad desco-nocidos y al ángulo de incidencia de la superficie objetivo.Años más tarde en [Jarvis, 1983] se presentó una recopilación de una variedad de enfoquesde técnicas generalizadas de estimación de distancias y se presentó una perspectiva de suaplicabilidad y limitaciones en el contexto de los estudios de la visión por computador, luegoen [Saint-Marc et al., 1991] el autor presentó un sistema de estimación de distancia basadoen triangulación compuesto por un sistema de láser que genera una banda de proyección deluz sobre el objeto a ser medido, el objeto es posicionado sobre una tabla rotatoria mani-pulada por una computadora, sus resultados fueron prometedores pero el sistema propuestoera muy grande y no podía ser trasladado fácilmente a otros ambientes del laboratorio, laeficiencia de la propuesta generó que se describan técnicas para identificar varias caracterís-ticas en una escena usando sensores de estimación de distancia horizontales unidirecciona-les [Taylor and Probert, 1996].La versatilidad de los modelos propuestos en esos años generó una expectativa muy granderespecto a la robustez de los resultados, pero en algunos modelos el tamaño del escáner ysu usabilidad fueron problemas importantes que se empezaron a encontrar, también el costecomputacional generado por las técnicas de estimación de distancia fue de mayor interés, porello en [Fisher et al., 1999, Strickon, 1999] se demuestra la reducción de costo computacionalutilizando un seguimiento visual de una fuente de luz estructurada, el principio de los traba-jo se basó en la elaboración de un prototipo de bajo costo para la estimación de distancias.La utilización de fuentes de luz presente en las escenas de visualización tomó importanciadebido a su bajo costo computacional, en [Laurendeau et al., 2002] se relata la obtención deinformación tridimensional de objetos que han sido inmersos en un líquido coloreado y a suvez fueron irradiados por una fuente de luz circular, la intensidad es una función de rangocon la adición de otros parámetros como la orientación de la superficie, la posición de lasfuentes de luz, las características espectrales del líquido y la posición del observador.Adicionalmente a las técnicas basadas en la captura y posicionamiento de fuentes de luzutilizadas en las escenas, en [Hua et al., 2002] se presenta un método de bajo costo para laestimación de rango basado en acústica el cual provee alta velocidad y precisión. El métodoestá basado en el tiempo de demora de la señal recibida con respecto a la señal transmitida

Page 35: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 19

causada por la distancia entre el receptor y el transmisor, luego en [Oike et al., 2004] se pre-senta una matriz de sensores de 120x110 píxeles que pueden detectar la posición de una luzde baja intensidad proyectada en una superficie no uniforme para un sistema de telemetría.En este trabajo, los autores han logrado reconstruir tridimensionalmente un objeto utilizan-do un barrido de escáner.Debido a los avances en el campo del procesamiento de imágenes, la obtención de infor-mación tridimensional se transformó en un área en exclusiva investigación, debido a esoaparecieron trabajos como [Fernandes, 2006] donde se describe un método preciso para lacomputación de dimensiones de cajas en tiempo real, utilizando un enfoque de geometríaproyectiva, la cual usa información obtenida de las siluetas de la caja y de la proyección dedos punteros láser sobre una de las caras de la caja, logrando así obtener sus dimensionesen tiempo real. La efectividad de este trabajo fue demostrada por medio de un prototipode escáner que implementó su método. Además de la información tridimensional obtenidade una imagen apareció la necesidad de lograr mapear dicha información a coordenadasreales presentes en el entorno virtual, para ello se utiliza técnicas de calibración de cámaras,en [Scaramuzza et al., 2007] se describe un nuevo enfoque de calibración extrínseca de unacámara con un escáner de obtención de distancia, para ello utiliza puntos de corresponden-cia seleccionados por un usuario a partir de una escena obtenida por dos sensores, luegode haber dado los puntos de correspondencia, la calibración extrínseca es realizada con unalgoritmo lineal seguido por un proceso de refinamiento no lineal.En [Montiel et al., 2007] se describe un sistema de escáner-láser, compuesto por una cámaray un puntero láser, el cual proyecta una linea horizontal que rastrea todo el objeto y de-termina si un obstáculo está lejos o cerca del escáner, la idea general era poder estimar ladistancia al objeto en base a la diferencia de ubicación del reflejo del puntero láser en laimagen. En este trabajo se describió el efecto de que, a menor distancia el reflejo del láserse aproxima a la parte inferior de la imagen y a mayor distancia se acerca al centro de laimagen.Como referencia básica en el desarrollo del presente trabajo se reprodujo el trabajo pre-sentado en [Danko, 2007] donde se explica la necesidad de diseñar dispositivos ligeros enpeso, debido a que en algunas aplicaciones, como la robótica aérea, el peso es un temamuy importante. Este trabajo de tesis describe como se puede configurar un láser de ba-ja precisión con una cámara web de bajo costo con la finalidad de proveer una máquinade visión con información de rango. Existen varios aspectos a tener en cuenta a la horade comparar los resultados obtenidos por una u otra técnica, siendo la precisión de losresultados la más importante, en este sentido, se ha adoptado la calibración de cámarapropuesta por Abdel-Aziz y Karara [Abdel-Aziz and Karara, 1971] quienes fueron los pio-

Page 36: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 2. CONCEPTOS Y TRABAJOS PREVIOS 20

neros en desarrollar la Transformación Lineal Directa (Direct Linear Transformation, DLT).Más tarde Karara, en 1979, mejoró el método para tener en cuenta las distorsiones ópticas.La simplicidad del modelo y los buenos resultados obtenidos han hecho que se extiendael uso de esta técnica en la comunidad científica. En este trabajo, tomando los avances de[Fernandes, 2006], se modificó la técnica de obtención de distancia en base a la idea propues-ta por [Danko, 2007, Montiel et al., 2007]. Considerando estas dos propuestas, junto con unproceso previo de calibración de la cámara, se elaboró un esquema de obtención de distanciaque brinda información tridimensional (profundidad) en tiempo real2.

2La versión previa, que sirvió de base para este trabajo, fue presentada en el II Con-curso de Trabajos de Tesis de pregrado en Computación Gráfica y Procesamiento de Imáge-nes [Portugal-Zambrano and Mena-Chalco, 2009].

Page 37: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 3

Calibración de cámaras

La visión comienza con la captura de la luz proveniente del mundo, dicha luz comienzacomo rayos emanados de alguna fuente Ej. Un foco, el sol, etc. , los cuales luego viajana través del espacio hasta que colisionan con un objeto, cuando esta colisión ocurre unacantidad de luz es absorbida por el objeto y la luz que no es absorbida es percibida comocolor [Gary and Adrian, 2008].La calibración de cámaras ha sido siempre un componente de medida fotogramétrico, utiliza-do especialmente en la obtención de rangos con alta precisión [Remondino and Fraser, 2006]y como la calibración de cámaras precede a un proceso de reconstrucción por profundidad enla actualidad ha atraído mucha atención de investigadores [B. Cyganek, 2009] en el campode la visión por computadora.Es necesario realizar un procedimiento de orientación y de calibración de cámara preci-so [Bouguet, 2000], con el objetivo de extraer información métrica 3D confiable de las imá-genes, esto como paso previo a una reconstrucción tridimensional de movimiento y recu-peración de forma [Paragios et al., 2005]. Para nuestro propósito el concepto de calibraciónde cámara se entiende como la existencia de una relación directa entre las coordenadasde la imagen y coordenadas del objeto relativas al centro de la cámara, pero sin embar-go la posición de la cámara en el espacio no es necesariamente conocida. Mucho trabajose ha realizado en el calibrado de cámaras, algunos autores propusieron el uso de algorit-mos genéticos [Ji and Zhang, 2001, Savii, 2004]. Desde un punto de vista práctico, algunosautores sugieren el método basado en una plantilla bidimensional como el más fácil de rea-lizar [D. Aracena and Tozzi, 2005] y que obtiene buenos resultados.

21

Page 38: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 22

Figura 3.1: Esquema del modelo de cámara Pinhole (Figura basada en la Figura 11.1 en[Gary and Adrian, 2008])

3.1. Modelo de cámara Pinhole

Una cámara en términos matemáticos es vista como un sistema de mapeamiento (re-lación) entre el espacio del objeto y el espacio de la imagen, el cual es representado pormatrices matemáticas con propiedades particulares que las describen.El modelo básico Pinhole es caracterizado porque el centro de proyección es el sistema decoordenadas Euclidiano donde se considera al plano del mismo valor que la distancia focalZ = f , el cual es llamado plano de la imagen o plano focal. Bajo el modelo de cámaraPinhole un punto en el espacio con coordenadas X = (x, y, z)T es relacionado o mapeadohacia un punto en el plano de la imagen formando una recta X que apunta hacia el origen delsistema de coordenadas, esto es conocido como un mapeamiento de coordenadas euclidianas3D a coordenadas euclidianas 2D.

En otras palabras un punto es proyectado sobre una superficie, como resultado de estaproyección esta superficie es conocida como plano de la imagen y la imagen proyectada eneste plano siempre se encuentra enfocada y alineada además su tamaño relativo a la distanciaal objeto es influenciada por la distancia focal. En la Figura 3.1 f se representa la longitudfocal, Z como la distancia de la cámara hacia el objeto, X es la longitud del objeto, x es elobjeto imagen en el plano de la imagen. De los componentes mencionados anteriormente yrealizando una semejanza de triángulos podemos obtener la siguiente relación:

−x = fX

Z

Page 39: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 23

Figura 3.2: Proyección de un punto Q hacia el plano de la imagen(Figura basada en la Figura 11.2en [Gary and Adrian, 2008])

El centro de proyección es llamado centro de la cámara o centro óptico, la linea desdeel centro de la cámara y perpendicular al plano de la imagen es llamada eje principal orayo principal de la cámara y el punto donde el eje principal intercepta el plano de laimagen es conocido como punto principal. Para una descripción más detallada de este modelorevisar [Hartley and Zisserman, 2004].

En la Figura 3.2 se muestra otra forma equivalente del modelo de cámara Pinhole, conla diferencia de que la longitud del objeto en la imagen es positiva. De acuerdo a la ecuaciónanterior y el modelo de la cámara Pinhole mostrados en las Figuras (3.1,3.2)se introducendos parámetros nuevos cx y cy al modelo, estos son introducidos para compensar posiblesdesplazamientos fuera del eje óptico en la imagen de proyección.En resumen se entiende que para un punto Q en el mundo real (objetos reales) cuyas coor-denadas son (X, Y, Z) es proyectado en el plano de la imagen (pantalla) en una ubicación(ximagen, yimagen) de acuerdo a las siguientes ecuaciones :

ximagen = fx

(X

Z

)+ cx, yimagen = fy

(Y

Z

)+ cy

Notar que en las dos ecuaciones anteriores se han usado dos distancias focales fx, fy, estose debe a que en dispositivos de bajo costo los píxeles son rectangulares mas que cuadrados.Por ejemplo la longitud focal fx es el producto de la longitud focal de la lente y el tamaño

Page 40: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 24

sx del elemento1, las mismas condiciones se cumplen para los demás parámetros.

3.1.1. Parámetros extrínsecos

En la actualidad la calibración de cámaras se utiliza con el objetivo de obtener los paráme-tros externos para estimación de distancia, esto en base a técnicas usando sensores láser es unpre-requisito para plataformas multi-sensor en robot móviles [Unnikrishnan and Hebert, 2008].La descripción matemática de una escena depende del sistema de coordenadas elegido, losparámetros extrínsecos puede ser obtenidos conociendo solamente ese sistema de coorde-nadas y la posición del plano de la imagen, por lo tanto a menudo sólo se usa el sistemade coordenadas de la cámara como referencia. La matriz de rotación y traslación son losparámetros externos que denotan la transformación del sistema de coordenadas del mundotridimensional a coordenadas de cámara. Sin embargo el proceso de obtención de parámetrosexternos presenta relativamente poca investigación y casi siempre es computacionalmentecostoso.

3.1.2. Parámetros intrínsecos

La matriz de parámetros intrínsecos posee 5 elementos los cuales se relacionan con lalongitud focal, el formato de imagen y el punto principal, son resumidos como sigue:

1. El parámetro de la transformación proyectiva en si, para el modelo de cámara Pinholees la distancia focal f [D. Aracena and Tozzi, 2005, Lichti, 2008].

2. Los parámetros que mapean el sistema de coordenadas de la cámara en el sistema decoordenadas de la imagen [Remondino and Fraser, 2006, R. Sendra, 2011]. Suponga-mos que el origen de coordenadas de la imagen esta dado por (xi, yi) y que el valor realfísico de un píxel2 en el plano de la cámara con dimensiones de alto y ancho constantesesté dado por (hx, hy). Una relación entre las coordenadas de la imagen (xu, yu) y lascoordenadas de la cámara X y Y se definiría como sigue:

X = (xu − xi)hx

Y = (yu − yi)hy1sx se expresa en unidades de píxel por milímetro, mientras la longitud focal se expresa en milímetros.2Generalmente se mide en µm, para patrones de tableros de ajedrez usados en este trabajo se ha utilizado

cm como unidad de medida física de un píxel

Page 41: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 25

3. Las distorsiones geométricas generadas por los parámetros físicos de los elementos dela cámara3. Ej. Distorsión tangencial y radial.

3.2. Geometría proyectiva

Se conoce como transformación proyectiva a la relación entre un punto Q ubicadoen el mundo real con coordenadas Xp, Yp, Z1 y su correspondiente proyección en el planode la pantalla con coordenadas xp, y1. Cuando se trabaja con transformaciones proyectivases conveniente usar Coordenadas homogéneas. Supongamos que tenemos el siguiente pun-to (X, Y, 1) , luego de esto se puede definir [Hartley and Zisserman, 2004] que (X, Y, 1) y(2X, 2Y, 2) son equivalentes, es decir que (KX,KY,KZ) representan al mismo punto paracualquier valor no negativo de K, así clases equivalentes son representadas por puntos concoordenadas triples y a esto se le conoce como coordenadas homogéneas cuando dos tripletasson equivalentes si difieren por un múltiplo común. Ej. Dando la coordenada (KX,KY,K),se puede obtener la coordenada original dividiendo ese punto por K, para obtener (X, Y ).El párrafo anterior aplica sus definiciones en el espacio euclidiano, para poder extender elespacio euclidiano Rn hacia el espacio proyectivo P n se debe de representar las tripletas depuntos como vectores homogéneos.Regresando a nuestras transformaciones proyectivas considerando el párrafo anterior, po-demos observar que todos los puntos tienen valores proporcionales en el espacio proyectivocomo vectores q = (q1, q2, q3), y recuperar las coordenadas de los píxeles actuales dividiendoel vector por q3, esto permite representar los parámetros necesarios (fx, fy, cx) en matricesde 3x3 las cuales se conocen como matriz de parámetros intrínsecos4. La proyección de lospuntos en el mundo real a los puntos en imagen (virtualmente dentro de la cámara) se resumede la siguiente forma:

q =MQ

donde:

q =

x

y

w

,M =

fx 0 cx

0 fy cy

0 0 1

, Q =

X

Y

Z

Si realizamos la multiplicación de M y Q obtenemos que w = Z.3Las aberraciones no se deben a defectos de construcción, sino que son una consecuencia de las leyes de

la refracción-reflexión de la luz4En este trabajo se ha considerado sólo el cálculo de la matriz de parámetros intrínsecos para luego

realizar la corrección de la imagen

Page 42: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 26

3.3. Métodos estándar de calibración de cámaras

Los métodos clásicos de calibración de cámaras son los basados en un patrón de calibra-ción establecido del cual se conocen sus dimensiones y posiciones respecto de un sistema decoordenadas, a este método se le conoce como calibración por homografías y el patrón máscomún es el de un chessboard o tablero de ajedrez. A continuación mencionamos algunosenfoques utilizados en la calibración de cámaras:

• DLT (Direct Linear Transformation) [Hartley and Zisserman, 2004]

• El enfoque clásico del algoritmo de Tsai [Tsai, 1986].

• Recientemente se ha investigado en el campo de las calibraciones con algoritmos gené-ticos [Ji and Zhang, 2001, Savii, 2004, Kurisu et al., 2007].

En este trabajo de tesis se ha utilizado la calibración de cámara basada en el método deTsai utilizando el modelo de cámara Pinhole.

3.3.1. Calibración Fotométrica

En esta técnica se asume la existencia de un fotosensor con una característica lineal dela señal de salida respecto a la intensidad de luz captada por el sensor [B. Cyganek, 2009].Ocurren los siguientes fenómenos necesarios para la calibración:

• Corrección gamma - Los dispositivos CCD de cámaras existentes poseen un circuitode corrección gamma, el cual es utilizado en los dispositivos de salida, para lograr unacalibración es necesario realizar un proceso inverso de este circuito, sin embargo nosiempre los parámetros de este circuito son conocidos.

• Polarización en condiciones de iluminación cero - Los dispositivos CCD aún en ambien-tes totalmente oscuros generan electrones , el nivel de esta señal en tales condicionesse conoce como nivel inicial de negro. Aunque esta condición no produce no linealidaden la mayoría de aplicaciones se sugiere tenerlo en cuenta para el diseño de métodosde procesamiento de imágenes.

3.3.2. AutoCalibración

Cuando hablamos de autocalibración se viene a la mente la pregunta de si es posiblecalibrar una cámara solamente utilizando una secuencia de imágenes tomada por la cámara.Aunque si bien el proceso de autocalibración no es un proceso completo de calibración, ha

Page 43: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 27

permitido lograr reconstrucción de escenas a cierto factor de escala el cual era suficiente paramuchas aplicaciones de visión por computadora. En resumen la autocalibración consiste enobtener los parámetros intrínsecos de la cámara a base de las coincidencias encontradas enuna serie de imágenes de la misma escena tomadas por la misma cámara, es decir que nodepende de la presencia de ningún objetos especial de calibración en la escena.

3.3.3. Calibración por estereoscopía

El problema de realizar una calibración por estereoscopía consiste en la determinación delos parámetros internos de dos cámaras en conjunto las cuales capturan diferentes vistas deuna misma escena, luego se realiza un proceso de rotación y traslación relativo a un sistemade coordenadas de las cámaras para obtener una relación central de los parámetros.

3.3.4. Calibración usando algoritmos genéticos

A diferencia del clásico enfoque de calibración basado en técnicas fotogramétricas nolineales propuestas por Tsai se ha tomado un nuevo enfoque basado en algoritmos genéticos.Las clásicas técnicas de calibración de cámara pueden ser clasificadas en enfoques linealesy no lineales, las técnicas lineales tienen la ventaja de eficiencia computacional pero noson lo suficientemente precisas y robustas, las técnicas no lineales son robustas y precisaspero son computacionalmente costosas. Para resolver los problemas de robustez, precisióny costo computacional se ha utilizado dos enfoques, el primero es obtener una soluciónaproximada del modelo de cámara utilizando una técnica lineal, el segundo enfoque mejorala primera solución obtenida en el primer enfoque usando un procedimiento iterativo nolineal (algoritmos genéticos), algunos autores han realizado distintos enfoques de uso detécnicas no lineales [Savii, 2004, Kurisu et al., 2007]. Los algoritmos genéticos son métodosde optimización no lineal [Ji and Zhang, 2001] diseñados para realizar largas búsquedas nolineales en el espacio y en la actualidad han sido aplicados en la solución de problemas deoptimización y búsqueda incluyendo calibración de cámara. Resultados de algunos autoreshan demostrado que la aplicación de algoritmos genéticos en calibración de cámara sonrobustos y prometedores para futuras investigaciones.

3.4. Distorsiones en las lentes

En teoría es posible definir una lente que no distorsione la imagen, pero en la práctica,ninguna lente es perfecta [Gary and Adrian, 2008]. Una de las razones principales para el

Page 44: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 28

(a) (b)

Figura 3.3: Tipos de distorsión radial presentes en lentes de cámara (a) Distorsión de Barrel (b)Distorsión de Pincushion

origen de estas distorsiones es la fabricación de lentes esféricas en vez de modelos matemá-ticamente parabólicos.

3.4.1. Distorsión radial

Son distorsiones originadas por la simetría radial de las lentes, la distorsión radial usual-mente es clasificada en 2 tipos:

Distorsión de Barrel

En esta distorsión la magnificación de la imagen decrece conforme se aleja del eje óptico,el efecto aparente ocurre como si la imagen cubriese una esfera.

Distorsión de Pincushion

En esta distorsión la magnificación de la imagen se incrementa conforme se aleja del ejeóptico.

En la Figura 3.3 se puede apreciar la forma de distorsión de Barrel y Pincushion. Lacalibración de cámaras también sirve para realizar correcciones en las distorsiones basadaen los parámetros calibrados, para ilustrar un modo de corrección de distorsiones en laimagen, utilizamos una demostración basada en [R. Sendra, 2011], primero cargamos nuestraimagen obtenida por la cámara, la cual tiene distorsiones presentes, luego seleccionamos tres

Page 45: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 3. CALIBRACIÓN DE CÁMARAS 29

(a) (b) (c)

Figura 3.4: Ejemplo de corrección de imagen (a)Imagen con presencia de aberraciones radiales (b)Imagen con selección de una linea para elaborar la corrección (c) Imagen corregida

puntos para elaborar una linea y corregir el modelo, en la Figura 3.4 se puede apreciar unaimagen con distorsiones y su correspondiente corrección de distorsiones. Para validar losresultados de los parámetros de corrección obtenidos se comparó los resultados obtenidosen la implementación del sistema con los resultados obtenidos por el MatLab CalibrationToolbox [Bouguet, 2000].

3.4.2. Distorsión tangencial

Este tipo de distorsión se presenta cuando hay un desplazamiento de un punto en laimagen producto de un desalineamiento en los componentes de las lentes de las cámaras yusualmente es descrito por dos variables de desplazamiento x y y.

3.5. Análisis y conclusiones

En este capítulo se ha descrito el concepto de calibración geométrica de cámaras, se haenunciado sus aplicaciones y usos, la calibración de cámaras nos permite obtener informacióntridimensional que en avances futuros nos permitirían elaborar modelos de realidad virtual(espacios tridimensionales) pero también se ha descrito su aplicación en la corrección deimágenes, con la finalidad de eliminar las distorsiones originadas por las lentes. El modelode corrección utilizado para el sistema de estimación de distancia nos ha permitido diferenciarlos resultados en distancia al optar por corregir la imagen o no, en el capítulo 7 podremossaber si existe tal diferencia, por ahora enunciamos que los resultados de la corrección fueroncomparados con los resultados obtenidos por el MatLab Calibration Toolbox, asegurandoasí su correcto funcionamiento.

Page 46: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 4

Ubicación del punto láser

En este capítulo se detalla el método de detección del punto láser en la imagen digital.Definimos punto láser como el reflejo de la luz emitida por el puntero láser en la imagenobtenida por nuestra cámara web. Para este trabajo se ha utilizado un láser que emiteluz de color rojo, notar que también se puede usar punteros que emitan otros colores Ej.Verde pero más adelante en este capítulo se explicará la influencia del color en el métodode detección. La ubicación del reflejo del puntero láser en la imagen es utilizado como unaforma de introducir profundidad y realizar el cálculo de distancia.

4.1. Características de las marcaciones láser

El reflejo del punto láser en la imagen genera una mancha de color rojo formada pormuchos píxeles, su tamaño varía en función de la proximidad del puntero láser hacia el objeto.El proceso de detección (ubicación) se ve influenciado por (i) la presencia de iluminación enel ambiente de trabajo; (ii) la textura del objeto apuntado con el láser, así como su color y(iii) el tamaño del reflejo del puntero láser en la imagen (varía en función de la proximidaddel escáner hacia el objeto, a mayor distancia, menor tamaño).En trabajos previos como [Fernandes, 2006] se ha utilizado dos punteros láser clase II conuna longitud de onda de 650nm para poder realizar una proyección, en [Montiel et al., 2007]el autor utiliza un láser de linea clase II de 633-670nm con la finalidad de obtener distanciasa objetos en todo un segmento de linea. En este trabajo se ha utilizado un puntero láserClase II de color rojo y de 630-650nm de longitud de onda (Ver Figura 4.1).

En [Portugal-Zambrano and Mena-Chalco, 2009] se realizó la detección del punto láserutilizando un modelo de canal de colores RGB, en dicho trabajo se apreció el comportamientodel reflejo del punto láser en relación a su posición con el objeto a escanear, a medida que

30

Page 47: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 31

(a) (b)

Figura 4.1: Puntero láser utilizado en la elaboración del escáner estimador de distancia:(a)Componentes internos de un puntero láser (b)Puntero láser de bajo costo

el escáner se aleja del objeto el reflejo del punto láser en la imagen tiende a desplazarse endirección vertical hacia el centro y cuando el escáner se acerca al objeto el reflejo se desplazaverticalmente hacia la parte inferior central de la imagen, además de este comportamientotambién se observó la presencia de un desplazamiento horizontal.Para intentar comprender el origen del desplazamiento horizontal del reflejo del punto láserse realizaron pruebas con 3 distintos tipos de cámaras ubicadas en las mismas posicionesfrente a una escena en común, en la Figura 4.2 se puede apreciar una misma escena capturadacon 3 distintos tipos de cámara a distintas resoluciones cada una, las resoluciones fueron de2 (Figura 4.2(a)), 3 (Figura 4.2(b)) y 10 MegaPixeles(Figura 4.2(c)), en esta imagen sepuede apreciar que cada una de las cámaras genera la misma escena con un desplazamientoaparente, es decir la linea de color rojo sufre un desplazamiento horizontal hacia la derechaconforme la resolución de la cámara se decrementa.

(a) (b) (c)

Figura 4.2: Imágenes de una misma escena capturada con 3 tipos distintos de cámara y distin-tas resoluciones en cada una de ellas (a) Webcam de 2 MegaPixeles (b)Cámara de 3 MegaPixeles(c)Cámara de alto desempeño de 10 MegaPixeles

Después de varias pruebas se puede apreciar el mismo comportamiento lo cual haceconcluir que el desplazamiento horizontal se debe a las aberraciones presentes en las lentesde la cámara, las cuales tienen menor influencia en presencia de una lente mejor diseñada,

Page 48: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 32

el inconveniente de utilizar lentes de mejor diseño y ensamble es su alto costo. En estetrabajo no se considera la existencia del desplazamiento horizontal debido a que la ecuaciónde distancia utilizada sólo se ve relacionada con el desplazamiento vertical presente en elreflejo del punto láser y el escáner.

(a) (b)

(c) (d)

Figura 4.3: Diferentes imágenes con presencia del punto láser convertidas a diferentes modelos decolor: (a) Imagen en color RGB (b) Imagen en escala de grises (c) Imagen en escala de coloresHSV (d) Imagen en escala de colores Y’CbCr (Chrominance-Luminance)

En [Portugal-Zambrano and Mena-Chalco, 2009] también se propuso que el proceso dedetección del reflejo del punto láser sea mejorado utilizando un canal distinto al RGB, estodebido a que sólo se utilizaba el canal rojo y se perdía la relación con los demás canales, esdecir que el procedimiento de detectar el píxel más rojo se ve complicado con la presenciade objetos de color rojo, con la existencia de alta incidencia de luz en la imagen y tambiéncon la presencia de objetos que presenten brillo en su superficie Ej. El brillo de una cinta depegar. Una solución a este problema fue propuesta en [Fernandes, 2006] en donde se utilizala información de luminancia presente en la imagen. Se puede observar en la Figura 4.3 unaimagen capturada con el escáner en donde se observa la presencia del reflejo del punteroláser sobre una superficie plana y con poco brillo (pared de ladrillo) en (a) se observa

Page 49: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 33

(a) (b)

Figura 4.4: Escenas en ambiente de luz no controlado y con presencia del punto láser en distintasubicaciones (a) Imagen con presencia de una fuente de luz de alta incidencia de brillo (b) Imagencon presencia de objetos de color similar al reflejo del punto láser

la imagen en colores normales (escala RGB) en (b) se puede observar la misma imagenluego de aplicar un filtro en escala de grises, en (c) se observa la imagen aplicada a unfiltro de colores HSV y en (d) aplicada con un filtro de luminancia y crominancia Y’CbCr.En [Portugal-Zambrano and Mena-Chalco, 2009] se utilizó un enfoque de detección de puntoláser basado en la suma de los tres canales en escala RGB, este enfoque en la práctica resultódeficiente debido a la presencia de píxeles que presentaban propiedades semejantes al colorrojo, por ejemplo si se diera un caso como el de la Figura 4.4(a) en donde se puede apreciarel reflejo del puntero láser y en la parte superior izquierda se observa la presencia de unsector de brillo altamente incidente, si se toma el enfoque anterior de suma de los canalesRGB la detección es deficiente al no poder diferenciar entre un color rojo (255, 0, 0) y uncolor blanco (255, 255, 255) al obtener las sumas de los tres canales, el color blanco será elde mayor valor pero ambos canales poseen la misma intensidad de rojo.

Si se limita el enfoque anterior a la suma de el único canal rojo de un píxel, el valormáximo obtenido para el color rojo sería de 255, sin embargo se origina un problema aldiferenciarlo del color blanco que también daría un valor máximo de 255. En la Figura 4.4(b)se observa el caso de que el fondo de la imagen posea características similares en color alreflejo del láser, donde el color de la pared es rojo, el enfoque anterior sería deficiente alpresentar los mismos problemas al diferenciar entre un color blanco y rojo.

Otro problema al intentar detectar el reflejo del puntero láser es la presencia de fondosde escena con varios colores y materiales con brillo en su superficie, en la Figura 4.5 se puedeapreciar una imagen cuyo fondo presenta varios colores en su superficie y con distintos brillosen su superficie, en 4.5(a) se aprecia todos los colores en una escala RGB, el punto láser se

Page 50: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 34

(a) (b)

(c) (d)

Figura 4.5: Escena mostrada con distintos canales de color (a) Fondo de imagen con varios colores(b) Fondo de imagen en escala de grises (c) Fondo de la imagen en filtro HSV (d) Fondo de imagenen filtro Y’CbCr

ubica inmerso dentro de un fondo de colores variado, en 4.5(b) se aprecia la misma escenaluego de aplicar un filtro de colores en escala de grises, nótese que el reflejo del punto láserpierde su brillo rojo en los bordes, en 4.5(c) se presenta la escena luego de haber aplicadoun filtro HSV, notar que el punto láser presenta un alto grado de saturación de la mismamanera que algunas zonas ubicados en los alrededores del punto láser, en 4.5(d) se muestra elresultado luego de aplicar un filtro Y’CbCr en donde se calcula la diferencia de brillo respectoal color rojo en relación a los otros píxeles restantes. En este trabajo se ha realizado unarevisión de los métodos utilizados para la detección del reflejo del punto láser en la imagen,en [Fernandes, 2006] se propuso el uso de un filtro basado en el grado de luminancia, aquíse ha tomado un enfoque basado en esa propuesta y se ha implementado el escáner con eluso de un filtro de luminancia-crominancia (Y’CbCR) y se ha validado su eficacia realizando

Page 51: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 35

(a) (b) (c)

(d) (e) (f)

Figura 4.6: Ubicación del punto láser en escenas representadas en distintos canales de colores (a) y(d) Ubicación del punto láser en escala de colores RGB (b) y (e) Ubicación del punto láser en escalade colores HSV (c) y (e) Ubicación del punto láser con una imagen en escala de colores Y’CbCr

pruebas en tiempo real sobre un conjunto distinto de escenas con diferentes canales de color.En la Figura 4.6 se muestra dos casos de detección para tres tipos distintos de imagen, en(a) y (d) no se logra detectar la ubicación del punto láser debido a la presencia de un factorde brillo más incidente en la imagen, en (b) y (d) se ha realizado la detección utilizandoun filtro de colores HSV y se observa que tampoco puede detectar el punto rojo debido alproblema anterior, en (c) y (d) se ha realizado la detección utilizando un filtro de coloresY’CbCr y a diferencia de los filtros anteriores, este si logra detectar eficazmente la ubicacióndel punto láser en la imagen aún en presencia de un sector con alta incidencia de brillo. Losmismos resultados se pudo apreciar para un conjunto de 30 imágenes, cada una en sus 4formas de visualización de canales haciendo un total de 120 imágenes.

Para una mayor referencia sobre las pruebas realizadas en este punto, revisar el Apén-dice A en donde se han colocado un conjunto del total de las imágenes utilizadas para larealización de pruebas en la detección del punto láser.

Page 52: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 36

4.2. Reducción del área de búsqueda

Las pruebas realizadas para la evaluación del punto láser demostraron lo enunciadoen [Fernandes, 2006] en donde se propone el uso de imágenes en su representación de canalesY’CbCr, ahora debido al comportamiento de la aplicación se hizo necesario identificar unasección de busca del reflejo del puntero láser en la escena con la finalidad de reducir el costocomputacional para dicho proceso. En la Figura 4.7 se puede observar el desplazamiento

Figura 4.7: Representación de la posición del punto láser en relación a la distancia escáner-objeto

vertical del puntero láser en la imagen influenciado por la distancia escáner-objeto, para taldesplazamiento se deben de tener en cuenta las siguientes afirmaciones:

• D > D′ Donde D y D′ representan la distancia Escáner-Objeto, esto significa que en(A) el escáner se encuentra en una posición más lejana que (B).

• H Representa la distancia entre el escáner y el puntero láser, está distancia es constantepara todo el proceso del cálculo de distancia, es decir, en (A) y (B), H es constante.

• B y B’ representan la distancia en píxeles desde el centro de la imagen hasta el extremocentral inferior de la misma, también se debe de notar que B = B′ es decir en (A) y en(B) se tiene la misma resolución de pantalla para la misma escena. Ej. La resoluciónde pantalla puede ser de 320x240 píxeles estando cerca o lejos del objeto.

• Respecto a la afirmación anterior debemos de agregar que conforme el escáner se acercaal objeto el punto de reflejo del láser tiende a acercarse a la parte inferior central enla Figura 4.7(B), y si el escáner se aleja del objeto tiende a acercarse al centro en laFigura 4.7(A).

Page 53: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 37

• A y A’ representan la distancia en píxeles desde la ubicación del reflejo del punto láserhasta la posición central de la imagen, debido al enunciado anterior podemos afirmarque conforme el escáner se acerque al objeto A’ se aproximará en valor a la mitad de laimagen y si el escáner se aleja del objeto A se aproximará a cero. Se puede establecerlos siguiente valores para A y A’:

altura/2 ≤ A ≤ altura

yaltura/2 ≤ A′ ≤ altura

donde: altura = altura de la imagen

En el análisis anterior sobre el comportamiento del reflejo del puntero láser en la imagen,acotamos algunos problemas que se encontraron al momento de realizar las pruebas en elsistema.Uno de los principales problemas que se presentaron era la presencia de una cantidad deincidencia de luz excesiva en la escena lo que generaba una incorrecta detección del puntoláser, tal problema se puede apreciar en la Figura 4.8 en donde se puede apreciar 6 casosque contienen en la imagen una incidencia de luz excesiva, lo que produce una incorrectadetección del punto láser en la imagen1.

El problema mostrado en la Figura 4.8 ha sido solucionado teniendo en cuenta el análisisdel comportamiento del escáner, es decir que se ha considerado un área de búsqueda en laimagen, debido a que por defecto se realiza una búsqueda en todos los píxeles de la imagen,se limitó la búsqueda del punto láser a sólo una sección de las 6 mostradas en la Figura 4.9,según las características de comportamiento detalladas en la Figura 4.7 del punto láser, es quese elaboró un algoritmo de rastreo secuencial que sólo realiza una búsqueda en la sección 5, deese modo, se asegura una búsqueda más rápida evitando búsquedas innecesarias en sectoresen donde la posibilidad de encontrar el píxel rojo es escasa, esto debido a los supuestos deque el punto láser nunca debe de salir de esa zona, evitando así búsquedas innecesarias delpunto láser en la totalidad de la imagen, por lo que se considera una distancia inválida encaso el objetivo se halle fuera de la zona de búsqueda.En la Figura 4.10 se observa que la aplicación de una zona de búsqueda particular ayudaa resolver los casos en los que no se detectaba correctamente el punto láser en la imagen.Cabe aclarar que se realizó un análisis de los distintos casos posibles de ubicación del punto

1En las imágenes de la Figura 4.8 se ha señalado la ubicación del punto láser en un recuadro rojo y elresultado de la detección en un rectángulo blanco pequeño

Page 54: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 38

(a) (b) (c)

(d) (e) (f)

Figura 4.8: Diferentes casos de prueba del escáner en donde la detección del punto láser resultaincorrecta a pesar del uso de canales Y’CbCr

Figura 4.9: División de la imagen en 6 secciones de búsqueda del punto láser, de este modo seevita búsquedas innecesarias en donde sólo se utilizará la sección 5.

Page 55: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 4. UBICACIÓN DEL PUNTO LÁSER 39

(a) (b) (c)

(d) (e) (f)

Figura 4.10: Conjunto de imágenes en donde se aprecia los resultados de aplicar una zona parti-cular de búsqueda a las imágenes de la Figura 4.8

láser y su posible comportamiento pero en este trabajo se plantea el desarrollo del sistemabajo ciertas condiciones particulares descritas en secciones anteriores.

4.3. Análisis y conclusiones

En este capítulo se ha descrito el comportamiento del proceso de detección del punto láseren la imagen, se ha observado que no es necesario considerar el desplazamiento horizontaldel punto láser debido a que dicho desplazamiento no afecta a la ecuación de distanciautilizada, también se ha optado por reducir el área de búsqueda con la finalidad de mantenerel sistema simple y efectivo, no se ha evaluado cuantitativamente la mejora en tiempo perose da por supuesto que el tiempo de búsqueda es menor debido al hecho de realizar unrecorrido lineal por todo el sector el cual es, la sexta parte de la imagen original, por loque el recorrido de píxeles será mucho menor hasta encontrar el píxel que tenga el puntoláser. Para finalizar se ha descrito el resultado de utilizar una escala de colores Y’CbCr enel sistema de estimación de distancia, este modelo de color mejoró el proceso de deteccióndel punto láser en condiciones controladas.

Page 56: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 5

Calibración de cámara y corrección deimágenes

En este capítulo describiremos el proceso de calibración de cámara, este proceso fue dis-cutido en el Capítulo 3 en donde también se describió el proceso de corrección de imágenescon los parámetros obtenidos en el proceso de calibración. La calibración de cámaras ha sidosiempre un componente de medida fotogramétrico utilizado especialmente en la obtenciónde rangos con alta precisión [Remondino and Fraser, 2006].Es necesario realizar un procedimiento de orientación y de calibración de cámara preci-so [Bouguet, 2000], con el objetivo de extraer información métrica 3D confiable de las imá-genes, esto como un paso previo a una reconstrucción tridimensional de movimiento y recu-peración de forma [Paragios et al., 2005]. Para nuestro propósito el concepto de calibraciónde cámara se entiende como la existencia de una relación directa entre las coordenadas dela imagen y coordenadas del objeto relativas al centro de la cámara, pero sin embargo laposición de la cámara en el espacio no es necesariamente conocida. Mucho trabajo se harealizado en el calibrado de cámaras, algunos autores propusieron el uso de algoritmos ge-néticos [Ji and Zhang, 2001, Savii, 2004] y también en el pre y post procesamiento de losdatos. Desde un punto de vista práctico, algunos autores sugieren el método basado en unaplantilla bidimensional como el más fácil de realizar [D. Aracena and Tozzi, 2005] y que ob-tiene buenos resultados.La orientación de la cámara incluye la determinación de los parámetros de ubicación exter-nos para definir su estado y su eje en un sistema de coordenadas de alto orden generalmentellamado Sistema de coordenadas del mundo (World Coordinate System), para ello es querecurrimos a la ubicación de tres parámetros traslacionales y tres parámetros rotacionalespor cada cámara utilizada, en este trabajo se considera el uso de un sistema que utilice una

40

Page 57: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 5. CALIBRACIÓN DE CÁMARA Y CORRECCIÓN DE IMÁGENES 41

sola cámara web para la estimación de distancias.

5.1. Calibración de cámara basado en homografías

Para el proceso de calibración se ha utilizado una técnica basada en homografías, elprimer autor en tratar este tipo de calibración fue [Abdel-Aziz and Karara, 1971] haciendouso de un patrón de calibración denominado Chessboard (Tablero de Ajedrez), del cualse conoce sus dimensiones, en la Figura 5.1 se puede apreciar los diez patrones de tableroutilizados para nuestro proceso de calibración.

Figura 5.1: Patrones usados para el proceso de calibración, denominados Chessboard (Tableros deajedrez).

Se debe de tener en cuenta que para un correcto proceso de calibración de cámaras lasimágenes mostradas en la Figura 5.1 han sido adquiridas utilizando la misma cámara acalibrar, el patrón también debe de ser el mismo para todas las imágenes, adicionalmentese debe de conocer las medidas de dicho patrón. Como punto final para el correcto funcio-namiento del proceso de calibración se debe de considerar utilizar la misma resolución decámara usada en la captura de los patrones, el hecho de utilizar distintas resoluciones paralas imágenes del patrón y para la imagen a ser calibrada genera errores en los cálculos de lamatriz de parámetros. Para este trabajo se han utilizado imágenes de 352x288, 320x240 y640x480 de resolución.

5.1.1. Detección de las esquinas y puntos del patrón de calibración

Con el objetivo de obtener una relación espacial entre mundo real y la posición de surespectivo píxel en la imagen, se procede a obtener las medidas de un objeto real, para estecaso se utiliza un patrón que permita obtener dicha relación en base a homografías. Con elobjetivo de hallar las esquinas de cada unos de nuestros patrones se procedió a un proceso

Page 58: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 5. CALIBRACIÓN DE CÁMARA Y CORRECCIÓN DE IMÁGENES 42

de pre-procesamiento, compuesto por una umbralización y una saturación de píxeles lo quepermitió hacer un rastreo de los colores de diferentes píxeles secuenciales y detectar lasesquinas de cada uno de los patrones presentados, en la Figura 5.2 se muestra el resultado aldetectar las esquinas y puntos aplicados a dos patrones de los presentados en la Figura 5.1.

Figura 5.2: (a) Detección de las esquinas del patrón. (b) Delimitación de los bordes del tablero (c)Detección de los puntos internos del patrón.

Debemos de notar que nuestros patrones son de igual dimensión, razón por la cual sidecidimos redimensionar nuestra imagen por un factor de escala, también debemos de agregareste factor a la dimensión de medida de nuestro patrón para no evitar pérdida de precisiónen los datos. Terminado el proceso de obtención de las esquinas y puntos de cada uno de lospatrones se procede a realizar la calibración por correspondencia con cada uno de los puntosobtenidos iterándolos en cada patrón subsecuente. En la Figura 5.3(a) se puede apreciar larelación de los parámetros externos con el eje de la cámara, para cada patrón presentado seconoce su posición y orientación en relación al eje principal, esto nos sirve para lograr unacorrespondencia entre todos los puntos de los tableros y obtener un modelo de correcciónlineal para cualquier punto presentado a futuro en la imagen a corregir.

5.1.2. Paso principal de calibración

Luego de realizar la obtención de esquinas en la imagen del tablero, el proceso de cali-bración se realiza en dos pasos, el primero es de inicialización de los parámetros y luego seaplica una optimización no lineal de los parámetros inicializados anteriormente.

El paso de inicialización consiste en ignorar la influencia de cualquier distorsión presen-te en las lentes. El siguiente paso, el de optimización no lineal, es minimizar el error dere-proyección total sobre todos los parámetros de calibración, esta optimización es reali-zada utilizando un gradiente iterativo descendente con un cómputo explícito de la matriz

Page 59: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 5. CALIBRACIÓN DE CÁMARA Y CORRECCIÓN DE IMÁGENES 43

(a) (b)

Figura 5.3: Esquema de los parámetros externos existentes en un dispositivo de captura (a) Vistade las posiciones externas de los objetos frente a la cámara. (b) Vista de las posiciones de los objetossin presencia de la cámara

Jacobiana. Se debe de iterar el gradiente hasta alcanzar un mínimo común, la rapidez deconvergencia en los parámetros depende de la inicialización de variables.En la Figura 5.3(b) se puede observar una representación del eje de la cámara en relacióna la orientación de los patrones presentados en (a) el punto (Oc, Xc.Yc, Zc) es el marco dereferencia de la cámara. La pirámide roja corresponde al campo de visión efectivo de lacámara definido por el plano de la imagen, en (b) se representa la misma escena de (a) perocada posición y orientación de la cámara es representado por una pirámide verde desde elpunto de vista del mundo. En la Figura 5.4 se puede apreciar los dos componentes ilustradosen la Figura 5.3 pero mostrando la estructura de los componentes por separado.

5.2. Modelos de distorsión

Cuando se realiza procesos de calibración en cámaras de captura de luz, es inevitablela aparición de errores de distorsión producidos por la lente de la cámara. Estos erroresse deben al diseño de la cámara, al ensamble de los elementos que la componen y en sumayoría a la forma de la lente. En esta sección mostraremos como abordar el problema

Page 60: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 5. CALIBRACIÓN DE CÁMARA Y CORRECCIÓN DE IMÁGENES 44

(a) (b)

Figura 5.4: Representación aislada de los parámetros externos mostrados en la Figura 5.3 (a)Vista de los objetos de calibración (b) Vista del eje principal de la cámara.

originado al trabajar con este tipo de distorsiones. La Figura 5.5 muestra el efecto delmodelo de distorsión radial ocasionado en cada píxel de la imagen, cada flecha representael desplazamiento efectivo de cada píxel inducido por la distorsión de la lente, observarque los puntos en la esquina de la imagen son desplazados como máximo 16 píxeles, estedesplazamiento origina que la imagen tienda a presentar una curvatura en sus extremos.Otro modelo de distorsión existente es el tangencial, en la Figura 5.6 se muestra el efectode la componente tangencial de distorsión, en esta Figura el máximo desplazamiento es de2 píxeles(en la esquina superior izquierda).

Figura 5.5: Esquema del modelo de distorsión radial de la lente de la cámara utilizada.

Finalmente en la Figura 5.7 se muestra el modelo completo de distorsión producida por la

Page 61: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 5. CALIBRACIÓN DE CÁMARA Y CORRECCIÓN DE IMÁGENES 45

Figura 5.6: Esquema del modelo de distorsión tangencial de la lente de la cámara utilizada.

lente. En las tres Figuras anteriores la cruz indica el centro de la imagen y el círculo la ubica-ción del punto principal, todas las Figuras presentadas correspondientes a los modelos de dis-torsión han sido generadas con el software de Matlab Calibration ToolBox [Bouguet, 2000],el cual permitió validar los resultados con la implementación del software en c++.

Figura 5.7: Esquema del modelo completo de distorsión presente en la lente de la cámara utilizada

Page 62: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 5. CALIBRACIÓN DE CÁMARA Y CORRECCIÓN DE IMÁGENES 46

5.3. Corrección de las distorsiones en la imagen

Luego de calcular los parámetros de la cámara expuestos con anterioridad, estos se puedenutilizar para realizar la corrección y re-proyección de cada píxel existente en la imagen,generando una nueva imagen (corregida) de la cual se tiene información de localizaciónvirtual respecto del eje central de la cámara.Si queremos visualizar los defectos producidos por las distorsiones en imágenes y su respectivacorrección con los parámetros de calibración de la cámara, se presenta la Figura 5.8 en(a,b,c) se puede apreciar 3 tipos vistas diferentes de una imagen representando un tablerode ajedrez, nótese la deformación en las lineas rectas próximas a los bordes en la imagen, en(d,e,f) se puede apreciar los resultados de estas imágenes luego de aplicarles un modelo dere-proyección basado en los parámetros de cámara calibrados, se puede observar la diferenciade visualización en los bordes de cada imagen respecto de las que presentan distorsiones.

(a) (b) (c)

(d) (e) (f)

Figura 5.8: Ejemplo del proceso de corrección de las distorsiones en imágenes digitales del patrónde calibración (a,b,c) Imágenes con distorsiones en sus píxeles (d,e,f)Imágenes resultantes al aplicarlos (parámetros de corrección y re-proyección de píxeles a las imágenes (a,b,c) respectivamente.

5.4. Análisis y conclusiones

En este capítulo se ha descrito los resultados luego de aplicar los parámetros de correcciónobtenidos con la teoría mostrada en el Capítulo 3, de acuerdo a las pruebas realizadas con

Page 63: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 5. CALIBRACIÓN DE CÁMARA Y CORRECCIÓN DE IMÁGENES 47

distintas escenas, visualmente se puede observar una corrección de los píxeles de los bordesde la imagen, pero el factor de influencia de este efecto se analizará con mayor detalle enel capítulo de pruebas del sistema, por lo pronto podemos concluir que esta corrección nospermite tener un ordenamiento en la presentación de los píxeles en la imagen, lo cual podríainfluir en los resultados de estimación de distancia obtenidos por el sistema, tal suposiciónla evaluaremos cuando se hayan realizado las pruebas de estimación de distancia con unaimagen corregida y no corregida. Para finalizar podemos enunciar la validez de los resultadosde los parámetros de calibración al ser comparados con MatLab Calibration Toolbox y losobtenidos por la implementación en c++.

Page 64: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 6

Proceso de estimación de distancia

En el Capítulo 2 se ha hecho una revisión de los métodos utilizados hasta la actualidadpara la estimación robusta de distancia en imágenes digitales así como se han resaltado susbeneficios y deficiencias por resolver, en este capítulo describiremos el modelo del escánerutilizado en el sistema, luego se detalla el modelo matemático utilizado para elaborar laecuación de estimación de distancia y su relación con la posición del reflejo del punto láser enla imagen. El presente capítulo se divide como sigue, en la sección 6.1 analizaremos el modelode escáner utilizado para la realización de este trabajo, luego en la sección 6.2 procederemosa elaborar un modelo matemático basado en la geometría analizada en la sección anterior,en la sección 6.3 explicaremos el proceso para obtener las variables necesarias para el cálculode distancia en este trabajo para luego en la sección 6.4 se explicará como es realizado elproceso de estimación de distancia y su interacción con el usuario, finalmente presentaremosuna sección de análisis y conclusiones del respectivo capítulo.

6.1. Modelo de escáner

En esta sección se detalla el modelo de escáner utilizado en [Danko, 2007], para la ob-tención de distancia hacia un objeto de superficie plana. En aplicaciones de robótica unode los objetivos es dotar a los mini-robots de aparatos ligeros y pequeños que los ayu-den a desarrollar los objetivos para los cuales fueron diseñados, es por ello que se consi-deró utilizar una cámara web y un puntero láser de baja precisión, en la Figura 6.1 semuestra los escáneres implementados a lo largo del proyecto, las dos primeras imágenesmuestran el escáner diseñado en [Danko, 2007], el trabajo de T. Dando fue reproducidoen [Portugal-Zambrano and Mena-Chalco, 2009], luego como mejora, en este trabajo se mo-dificó el escáner considerando las deficiencias encontradas en el modelo anterior y logrando

48

Page 65: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 6. PROCESO DE ESTIMACIÓN DE DISTANCIA 49

un diseño más preciso y estable, el escáner modificado se puede apreciar en la Figura 6.1.

Figura 6.1: Imágenes desde diferentes puntos de vista del escáner elaborado para el sistema deestimación de distancias utilizado en este trabajo.

Se debe resaltar que la disposición de la cámara web y el puntero láser se encuentranen planos paralelos uno del otro, a una distancia relativa entre si. Se optó por apoyar elláser sobre una base plana para evitar la desalineación del mismo respecto de la cámara,también se aseguró la posición de la cámara web con cintas adhesivas para evitar el problemade desalineación por manipulación del escáner. La implementación del escáner, permitiócomprobar la ligereza del diseño así también el rápido cálculo de distancias reales a partirde un simple modelo.

6.2. Geometría del modelo

Se puede observar en la Figura 6.2 un modelo más detallado de la funcionalidad del escá-ner, se puede apreciar unos parámetros básicos para el cálculo de la distancia. La distanciaentre la cámara web y el puntero láser es definida por H (medida en cm), la distancia entreel escáner y el objeto de superficie plana es definida por D (también en cm). Obsérvesetambién que, la representación de la escena en la imagen formada por el lente de la cámaraweb es de tamaño A′B′ , siendo que AB representa la misma escena en tamaño real. Porotro lado, la distancia desde el centro de la imagen hasta la posición del reflejo del punteroláser en la imagen puede ser definida como pfc (pixels from center), siendo que θ representael ángulo de visión (en radianes) formado por la recta de proyección del reflejo del punteroláser en la imagen y el eje de la cámara.

Page 66: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 6. PROCESO DE ESTIMACIÓN DE DISTANCIA 50

Figura 6.2: Esquema de disposición cámara-láser. La distancia D es obtenida en base la proyecciónde puntero láser sobre la superficie (Figura adaptada de [Danko, 2007]).

Con este esquema podemos establecer la siguiente relación:

D =H

tan θ(6.1)

Debemos considerar que, de la relación planteada θ mantiene una relación lineal entre elángulo (en radianes) de apertura y su horizonte de visión en la imagen, es decir, cada ángulode grado de apertura en la cámara tiene su relación en unidades de medida (cm). Paraexpresar estas unidades de medida en la imagen utilizamos la representación de píxeles en eldispositivo de captura, a esto se le denomina total de píxeles por grado de luz entrante, aquídenominado rpc (radian per pixel pitch), logrando así convertir cada píxel en la imagen asu correspondiente valor en centímetros. La siguiente ecuación muestra rpc en relación conθ:

θ = pfc ∗ rpc (6.2)

Debido a la existencia de posibles deformaciones de la lente en la cámara web (Ver Capítulo 3,en la Ecuación 6.2 se debe de considerar también un parámetro que permita la correcciónde las distorsiones presentes en la alineación de los píxeles, aquí lo denominamos ro (radianoffset): Luego la Ecuación 6.2 quedaría como sigue:

θ = pfc ∗ rpc+ ro (6.3)

Page 67: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 6. PROCESO DE ESTIMACIÓN DE DISTANCIA 51

6.3. Obtención de rpc y ro

Para obtener los valores de rpc y ro utilizamos un modelo de ajuste lineal para hallar larelación entre una variable dependiente Y con k variables explicativas xk, los cuales generenun hiperplano de parámetros β. Generalmente este modelo lineal es definido como:

Y =∑

βkXk + ε (6.4)

donde ε es la perturbación aleatoria que recoge todos aquellos factores de la realidad nocontrolables y/o observables.Para este cálculo aplicamos un modelo de regresión lineal por lo que sólo se cuenta con dosparámetros: θ es considerada la variable dependiente y pfc la variable independiente. Elmodelo a resolver cumple la siguiente ecuación general:

Y = mX + b (6.5)

conm =

n∑xy −∑x

∑y

n∑x2 − (

∑x)2

, b =

∑y −m∑x

n,

donde n, es el total de muestras utilizadas; m, es la pendiente de la recta de regresión (ennuestro modelo representa al valor de rpc); b, es el valor originado por factores no controlados(representa a ro) y Y representa a θ (para hallar m y b se utilizan los valores de θ y pfcreales)

6.3.1. Modelo de regresión lineal para rpc y ro

Para obtener los valores de rpc y ro en la Ecuación 6.3 se aplica un modelo de regresiónlineal a datos como los mostrados en la Tabla 6.1 en donde la primera columna representaun conjunto de 26 datos de distancia real y sus respectivos pfc, la tercera columna θ resultade aplicar la Ecuación 6.1 a los valores de la primera columna (Distancia real) con un valorH = 25.

Para todo el conjunto de datos se calcula : (i)∑X, (ii)

∑Y , (iii)

∑XY , (iv)

∑X2 y

estos resultados se utilizan en las Ecuaciones 6.3 para hallar rpc y ro. Notar que la columnapfc representa los valores X y la columna θ representa los valores Y, para los datos de laTabla 6.1 los valores resultantes son: (i)

∑X = 3236, (ii)

∑Y = 5,22526, (iii)

∑XY =

728344, (iv)∑X2 = 466466, rpc = 0,00122433 y ro = 0,0485899.

Page 68: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 6. PROCESO DE ESTIMACIÓN DE DISTANCIA 52

DReal pfc θ

71 233 0.33855569576 222 0.31779800681 202 0.29936623486 192 0.28290085491 179 0.26811078396 169 0.254758302101 160 0.242647665106 153 0.23161643111 142 0.221528805116 135 0.212270496121 127 0.203744681126 121 0.195868843131 114 0.188572259

DReal pfc θ

136 108 0.181793989141 104 0.17548126146 99 0.16958816151 95 0.164074564156 89 0.158905262161 85 0.154049234166 83 0.149479049171 78 0.145170365176 75 0.14110151181 72 0.137253125186 70 0.13360787191 66 0.130150165196 63 0.126865975

Cuadro 6.1: Conjunto de datos de distancias reales utilizados para hallar rpc y ro en la ecuaciónde distancia, considera H = 25cm

La Ecuación 6.3 resultante para los datos de la Tabla 6.1 es:

θ = pfc ∗ 0,00122433 + 0,0485899

6.4. Cálculo de la distancia en tiempo real

Para obtener la distancia hacia el objetivo, se introduce la Ecuación 6.3 en la Ecua-ción 6.1, tomando como unidad de medida cm:

D =H

tan(pfc ∗ rpc+ ro)(6.6)

Denominamos a esta última formulación como la Ecuación de estimación de distancia. Enla Figura 6.3 se presenta un resumen del esquema del flujo de datos del sistema, debemos denotar que, para lograr estimar distancias primero se debe de calibrar el escáner apenas unaúnica vez (con una cámara calibrada o no). Nótese también que, en el proceso de calibracióndel escáner son obtenidos los valores correspondiente a rpc y ro.El proceso de estimación de distancia se divide en dos módulos, uno de calibración del escánery el otro de estimación de distancia, el proceso del sistema se inicia con la obtención de unasecuencia de frames de video en tiempo real, el escáner posee una distancia Cámara-Láserconstante(H) durante el proceso de calibración, el cual sirve para calcular el ángulo de visión

Page 69: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 6. PROCESO DE ESTIMACIÓN DE DISTANCIA 53

para cada distancia (D), en este paso se puede realizar un proceso de calibración de cámaraen base a homografías o realizar el cálculo de pfc para cada imagen sin haber corregido laimagen. Antes de comenzar con la estimación de distancias necesitamos obtener los valoresde rpc y ro para ello se realiza la calibración de la ecuación de distancia con el modelo deregresión lineal, se obtiene un conjunto de datos reales sobre los cuales se aplica la regresióny así completar los parámetros restantes de la ecuación de distancia, entonces para cadanuevo frame obtenido de la secuencia de video en tiempo real se puede calcular la distanciaEscáner-Objeto.

Cálculo de distancia

Detección del punto láser en

la imagen

Calibración de cámara

Calibración por

homografías

Obtención de los parámetros de corrección

Secuencia deimágenes

en tiempo real (frames),Distancia

Cámara-Láser (H) y conjunto de

Distancias reales Escáner-Objeto (D)

Cálculo del modelo de

regresión lineal

Distancia Escáner-Objeto

Cálculo del ángulo de visión (θ)

para cadadistancia (D)

Nueva secuencia de Imágenes en tiempo real

(frames)

Corrección de imagen

Calibración de la distancia

Cálculo de pfc para cada imagen

Calibración del escáner

Estimación de la distancia

Imagen Corregida

Parámetros internosde la cámara

Patrones ChessBoard

Esquina de lospatrones

Parámetros calibradosde la ecuación de distancia

Conjunto de datos a aplicar al modelo de regresión

Valor pfc para cada imagen de consulta

Figura 6.3: Diagrama esquemático de flujo de datos del sistema creado. Cada bloque representaun módulo mientras que cada flecha representa el flujo de datos entre cada módulo.

6.5. Análisis y conclusiones

En este Capítulo se ha descrito el modelo geométrico utilizado para la obtención dedistancia, este modelo está basado en un procedimiento de triangulación, y nos permite

Page 70: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 6. PROCESO DE ESTIMACIÓN DE DISTANCIA 54

obtener distancias de manera robusta y simple, a diferencia de los trabajos previos exploradospara este trabajo, se optó utilizar un modelo de regresión lineal para la corrección de loserrores en la estimación de distancia, de acuerdo a las pruebas en el cálculo de distancia,como se verá en el Capítulo siguiente, el modelo de corrección permite obtener buenosresultados en el cálculo de distancia, también se han presentado 2 parámetros que influyendirectamente en la ecuación de distancia, en Capítulos anteriores se habló de la existencia deerrores producidos por las distorsiones en las lentes, aquí se ha descrito la variable ro comoparámetro para controlar tales errores de distorsión, la recta de regresión nos permitirácorregir tal parámetro. Para finalizar se ha mostrado también el escáner final producto delproyecto, a diferencia de los anteriores, este escáner ha permitido mayor facilidad en laobtención de pruebas así como mejores resultados.

Page 71: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 7

Pruebas y análisis de la propuesta

En este Capítulo presentamos las pruebas realizadas con el escáner y el módulo de softwa-re implementado para distintas configuraciones, denominamos configuración a las distintasformas de obtención de distancia, entre ellas la utilización de distintas resoluciones de cáma-ra, distintas distancias H (Cámara-Láser) y la obtención de distancias en presencia de unacámara calibrada o no, luego de las pruebas se realizará un análisis de los resultados.

7.1. Implementación del sistema

El diseño del sistema fue implementado con software libre usando Eclipse Galileo co-mo IDE, Mingw como compilador en sistemas Windows y GCC4 en sistemas Linux, Qt4[Molkentin, 2007] para el diseño de la interface de usuario y la librería OpenCV2.1 para elprocesamiento de imágenes y vídeo [Gary and Adrian, 2008] .Las pruebas fueron desarrolladas en un computador portátil: AMD TurionX2x64 de 2.4Ghzcon 4Gb de RAM. La cámara web usada tiene una resolución de 1.3 hasta 5.2M píxeles auna tasa de 30fps, 48dbs de ruido y un rango focal de 30mm al infinito. Podemos observaren la Figura 7.1 dos capturas de pantalla de la interface de usuario creada para sistemasLinux con KDE4 (a) y para sistemas Windows 7 (b).

7.1.1. Descripción de la interface de usuario

La interface de usuario mostrada en la Figura 7.1 tiene como funcionalidad lograr calibrarlos parámetros de la Ecuación de distancia (Ecuación 6.6).

También posee un módulo para la calibración de la cámara web y por consiguiente la co-rrección de la imagen, como módulo final presenta un cuadro de visualización de la distancia

55

Page 72: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 56

(a) (b)

Figura 7.1: Interface de usuario del sistema para el cálculo de distancia. (a) Cuadro de diálogopara la entrada de datos. (b) Conjunto de datos utilizados para la calibración de los parámetros dela ecuación de distancia (Obtención de rpc y ro).

estimada, todos estos procesos son realizados en tiempo real y algunos con intervención delusuario.

Como se ha venido describiendo a los largo de este trabajo existen varios módulos quenos permitan llegar a nuestro objetivo de obtención de distancia, la interface implementadaha sido diseñada para manejar todos los módulos de obtención de distancia además depermitirnos realizar las pruebas necesarias para validar la robustez de los resultados. En laFigura 7.2 se pueden apreciar los componentes del software implementado para la estimaciónde distancias.

Figura 7.2: Descripción de los componentes de la interface de usuario del sistema de estimaciónde distancia.

Page 73: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 57

Nro. H Resolución CámaraCalibrada

Dist. Min. Dist. Max. Nro. muestras MAE MAPE(%)

1 10 320x240 No 26 121 20 1.3308 1.62 10 320x240 Si 27 142 24 1.2867 1.43 20 320x240 No 52 192 29 1.1880 0.94 20 320x240 Si 53 198 30 0.9447 0.75 25 320x240 No 70 195 26 1.1656 0.86 25 320x240 Si 75 195 25 0.5633 0.47 25 352x288 No 73 193 25 0.5681 0.48 25 352x288 Si 73 193 25 0.5590 0.49 25 640x480 No 71 196 26 0.8122 0.610 25 640x480 Si 72 197 26 0.7510 0.5

Cuadro 7.1: Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En elconjunto 7 se ha utilizado una distancia H de 25cm a una resolución de 352x288 utilizando unacámara sin calibrar, considerando 25 muestras, linealmente separadas por 5cm, para el modelo deregresión. La muestra va desde una distancia mínima de 73 hasta 193cm.

7.2. Pruebas y validación de la robustez del sistema

Para obtener una medida de distancia se necesita el reflejo del puntero láser en la imagen,esto genera una distancia mínima cuando se ubica en la parte inferior central y una distanciamáxima en la parte central de la imagen. El modelo del sistema ha sido probado considerandoalternativamente una cámara calibrada y una cámara no calibrada.Para este trabajo han sido utilizadas distintas medidas de H (separación entre cámara weby puntero láser), distintas resoluciones de imagen y distintas muestras de datos usadas enel modelo de regresión. Para la obtención de muestras (datos de distancia) utilizadas en elmodelo de regresión, perteneciente a la calibración del escáner, se considera un parámetrode salto S que expresa la diferencia entre cada muestra obtenida del mundo real. En elCuadro 7.1 se muestran los parámetros utilizados para la realización de las pruebas, todaslas muestras utilizadas en el modelo de regresión, fueron obtenidas considerando S = 5cm.

A modo de ejemplo en el Cuadro 7.2 mostramos los datos completos de los parámetros delconjunto 4 de el Cuadro 7.1, para este conjunto de datos se obtuvo los siguientes resultados:

∑X = 1396,

∑Y = 5,42069,

∑XY = 315,038,

∑X2 = 90588

conrpc = 0,00245033 y ro = 0,0666676

Page 74: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 58

Luego la ecuación de distancia es la siguiente:

D =20

tan(pfc ∗ 0,00245033 + 0,0666676)

En el Cuadro 7.2 los valores de la columna Dist. Obt son calculados con la ecuación de dis-tancia anterior, estos datos sirven para obtener el MAE (error absoluto de aproximación)que se calcula como la diferencia entre la distancia real y la distancia obtenida por el escáner(en caso de ser negativa se obtiene el valor absoluto).

DReal pfc θ Dist. Obt53 118 0.360836783 53.8179640958 108 0.332059468 58.1425868163 100 0.307397473 62.0725015468 89 0.286051442 68.3291012573 82 0.267410797 72.9473296578 75 0.251002687 78.1820261583 71 0.236456142 81.5008161488 64 0.223476601 87.9950451793 59 0.211827547 93.2678850398 55 0.201317108 97.94068592103 52 0.191788142 101.7506049108 48 0.183110817 107.2971389113 45 0.175176995 111.8554958118 41 0.167895923 118.550269123 38 0.161190914 124.1050397

DReal pfc θ Dist. Obt128 36 0.154996742 128.0985475133 34 0.149257595 132.3508814138 32 0.143925449 136.8882719143 29 0.138958767 144.295405148 27 0.134321442 149.6859376153 26 0.129981945 152.5322437158 24 0.125912626 158.5564318163 22 0.122089137 165.0676447168 22 0.118489959 165.0676447173 20 0.115096 172.1277838178 18 0.111890266 179.8097046183 17 0.108857583 183.9102057188 16 0.105984358 188.1997524193 15 0.103258381 192.6917817198 13 0.100668652 202.3437202

Cuadro 7.2: Conjunto de datos obtenidos para el conjunto 4 de parámetros mostrados en la Ta-bla 7.1, notar que la distancia obtenida es aquella que resulta de aplicar la ecuación de distancia.

Luego de obtener el error absoluto de aproximación para cada uno de los datos se calculael promedio de estos valores para obtener el promedio de error absoluto de aproximación,para este caso el valor es de 0,9447

7.3. Cálculo del error

Dado una serie de valores como los mostrados en el Cuadro 7.2 se puede obtener su errorpromedio absoluto como se mostró anteriormente, pero se necesita un valor que exprese enporcentaje el nivel de precisión de la linea de aproximación de valores, a este tipo de medidade precisión se le conoce por sus siglas en inglés como MAPE (Mean Absolute Percentage

Page 75: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 59

Error) el cual es una medida de precisión de una serie de valores ajustados en estadística,específicamente mide la tendencia. Esta medida es usualmente expresada como un porcentajey es definida por la fórmula:

M =1

N

n∑

t=1

∣∣∣∣vr − vavr

∣∣∣∣

donde Vr es el valor real, va es el valor aproximado y N el total de muestras obtenidas.Para los datos de el Cuadro 7.2 el MAPE obtenido es de 0,73% , se dice que se ha realizadouna aproximación o ajuste perfecto cuando MAPE = 0.Para terminar nuestro análisis en la Figura 7.3 se puede observar una comparación entrelos datos reales y los datos obtenidos por el escáner para la configuración de parámetrosmostrada con anterioridad. Su comportamiento muestra y confirma los valores de errorobtenidos (MAE y MAPE), las rectas de aproximación muestran un comportamiento similarentre ellas para los distintos valores obtenidos.

0 5 10 15 20 25 3040

60

80

100

120

140

160

180

200

220

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE =0.939239955MAPE = 0.73%

Figura 7.3: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescáner para la 4ta configuración de parámetros mostrados en el Cuadro 7.1

Page 76: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 60

Nro. S Dist.Min.

Dist.Max.

Nro.Da-tos

Ecuación

1 5 68 353 58 D =25

tan(pfc ∗ 0,00238129 + 0,0672509)

2 10 68 348 29 D =25

tan(pfc ∗ 0,00239844 + 0,06791033)

3 20 68 328 14 D =25

tan(pfc ∗ 0,00226256 + 0,0689858)

4 40 68 308 7 D =25

tan(pfc ∗ 0,00243234 + 0,0663518)

5 50 68 318 6 D =25

tan(pfc ∗ 0,00240646 + 0,0674797)

Cuadro 7.3: Ecuaciones de estimación de distancia obtenidas con una resolución de cámara de320x240, conjuntos de datos de regresión variables obtenidos con distintos valores de S.

Luego para cada una de las configuraciones utilizadas en el Cuadro 7.1 se ha calculadola diferencia entre la distancia real y la distancia obtenida por el escáner para cada muestradel conjunto (error absoluto de aproximación) y luego obtener el promedio de error paracada ecuación (MAE) y su respectivo MAPE.Un análisis al Cuadro 7.1 nos muestra que, cuando la medición de distancia se realiza conuna cámara web calibrada, el error de aproximación en la mayoría de los casos es menorcomparado al obtenido cuando se utiliza una cámara web sin calibrar. Esto es debido a lacorrección de la imagen por medio de los parámetros internos obtenidos en la calibración dela cámara. De esa forma, los valores de pfc corregidos (correctamente ubicados), permitenuna mayor robustez en el cálculo de distancias.Otro punto a considerar en la evaluación de robustez de estimación de distancia es la cantidadde muestras usadas para el modelo de regresión. La cantidad de muestras depende del valordel parámetro de paso S (a menor valor de S mayor cantidad de datos y viceversa). Para ellospresentamos el Cuadro 7.3 en la que podemos apreciar 5 conjuntos de parámetros utilizadospara la calibración del sistema, para cada conjunto se presenta su respectiva ecuación deestimación de distancia obtenida. El conjunto 1 ha sido tomado a distancias S = 5 con unamedida de distancia inicial de 68cm hasta una distancia máxima de 353cm, se tomaron untotal de 58 datos que generaron la ecuación de distancia:

D =25

tan(pfc ∗ 0,00238129 + 0,0672509)

Para cada uno de los conjuntos de parámetros mostrados en el Cuadro 7.3 se procedió aestimar la distancia utilizando la ecuación obtenida para cada uno de ellos (Ver Tabla 7.3,estos resultados son presentados en el Cuadro 7.4 donde se ha estimado el error MAE y

Page 77: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 61

Nro. S Dist. Min. Dist. Max. Nro. Datos MAE MAPE1 5 68 353 58 4.3361 1.30402 10 68 348 29 5.9259 2.04363 20 68 328 14 5.0719 2.48994 40 68 308 7 5.2168 1.93725 50 68 318 6 5.3089 1.9660

Cuadro 7.4: Conjuntos de muestras de regresión variables obtenidos con distintos valores de S.Fue utilizada una cámara web no calibrada y con resolución de 320x240.

MAPE para cada conjunto. Un análisis de los datos en el Cuadro 7.4 permite observar quelos valores de los errores de aproximación son altos en la mayoría de los casos en que Ses grande. Esto nos indica empíricamente que, para obtener un modelo de estimación dedistancia robusto se debe de utilizar valores pequeños de S.

En la Figura 7.4 son presentadas cinco gráficas de comparación entre la distancia real yla distancia obtenida para los distintos valores de S indicados en el Cuadro 7.4. Obsérveseque a mayor distancia Escáner-Objeto el cálculo de distancia posee un grado mayor de error,esto es debido a que el punto láser se encuentra en la parte central de la imagen y su tamañoes más pequeño lo que conlleva a que el proceso de detección del punto láser sea menospreciso.

Un análisis de la Figura 7.4 muestra que cuando las medidas sobrepasan los 2 metrosy medio el grado de error se incrementa generando una mayor variación en la estimaciónde la distancia, eso se puede traducir en una gráfica poco aproximada, esto se debe comose mencionó anteriormente a la ubicación del reflejo del punto láser, cuando se ubica en laparte inferior se alcanza una distancia mínima y cuando se ubica en la parte central de laimagen se alcanza una distancia máxima, en este punto el desplazamiento vertical del píxeles menos preciso debido a la distancia entre el objeto y el escáner esto genera que el mismodesplazamiento pueda ser generado para distintas distancias, incrementando así el nivel deerror en la estimación.

Page 78: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 62

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

S = 5 S = 10

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

S = 20 S = 40

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

S = 50

Figura 7.4: Gráfica de comparación entre distancias reales y distancias obtenidas de las muestrasobtenidas para cada una de las configuraciones descritas en el Cuadro 7.4.

Page 79: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 63

Evaluación de la robustez con figuras geométricas

La robustez del sistema propuesto también fue evaluada considerando estimaciones dedistancias formando figuras geométricas, para este caso se hizo siguiendo un movimientoen espiral. Para ello se generó un modelo a escala y se definió valores reales de distanciaaleatorios a lo largo de la misma, estas distancias estaban dirigidas hacia un mismo objetivoestático. En la Figura 7.5 se puede observar un esquema de la preparación del espiral y su re-lación con el objetivo. Para la calibración del escáner se ha utilizado los parámetros descritosen la Fila Nro. 1 mostrados en el Cuadro 7.4, seguidamente se procedió a ubicar el escáner encada marca indicada con un punto rojo en el espiral, obteniendo su correspondiente medidade distancia obtenida por el sistema.

Figura 7.5: Esquema de una espiral en relación al objetivo, utilizada para la evaluación de esti-mación de distancias. Cada marca en el espiral representa una distancia real hacia el objeto.

Este conjunto de distancias obtenidas en cada marca del espiral ha sido comparado consus respectivos valores reales, dicha comparación es mostrada en la Figura 7.6 en donde semuestra todas las estimaciones de distancias, comparadas con su valor real. El error promedioabsoluto de aproximación (MAE) fue de 0,5392cm y su MAPE fue de 0,822% utilizando paralas pruebas una cámara no calibrada y un MAE de 0,4295 y MAPE de 0,532% utilizandouna cámara calibrada.

Page 80: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 64

0 5 10 15 20 25 30 35 40 45 50 55 60100

110

120

130

140

150

160

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida (SC)

Dist. Obtenida (CC)

Figura 7.6: Comparación entre los datos de distancia real y su respectiva distancia obtenida porel escáner con una cámara no calibrada (SC) y calibrada (CC).

Evaluación de la robustez con diferentes objetos

Para validar la robustez en los resultados se ha optado por otra manera de evaluarlos resultados del sistema, debemos de notar que en trabajos anteriores, las pruebas eranrestringidas a sólo una posición del escáner, y la estimación de distancia se realizaba hacia

Figura 7.7: Esquema de una escena en donde el escáner se ubica en un eje fijo y se obtienendistintas distancias hacia varios objetivos.

Page 81: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 65

0 2 4 6 8 10 12 14 16 18 2060

80

100

120

140

160

180

Nro Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obt. (SC)

Dist. Obt. (CC)

Figura 7.8: Comparación entre los datos de distancia real y su respectiva distancia obtenida porel escáner para los datos obtenidos del esquema mostrado en la Figura 7.7.

un mismo objetivo, en este modelo de prueba se pretende cambiar esa restricción realizandopruebas de estimación de distancia hacia distintos objetivos de distinta forma, con diferentesposiciones, para ello se ha realizado un barrido a una escena como la descrita en la Figura 7.7,en donde se seleccionó una serie de distancias aleatorias reales a objetos a partir de un ejefijo. Cada linea representa una medida de distancia hacia un objetivo y para cada una deellas se obtuvo una distancia por medio del escáner. Nótese que, la estimación de distanciase realiza para un punto determinado en el objeto sin considerar la posición de este respectoal escáner y también no se ha considerado la forma del mismo. Luego de haber obtenido lasrespectivas distancias, se hizo una comparación de los resultados obtenidos por el escánercon sus respectivos valores reales para cada medida, los resultados comparativos entre lasdistancias reales y las distancias obtenidas por el escáner con una cámara web calibrada yno calibrada son mostrados en la Figura 7.8.

De esta última prueba podemos observar el alto grado de aproximación de las distanciasobtenidas por el escáner. Para todos eso valores se calculó el error promedio de aproximación(MAE) que fue de 0,8613cm y MAPE de 0,824% para una cámara no calibrada y finalmente0,6492cm de MAE y 0,557% de MAPE con una cámara calibrada.

Limitaciones

Si bien los resultados son prometedores y el tiempo de cálculo es casi instantáneo (milise-gundos) el sistema presenta ciertas limitaciones:• La ubicación del punto láser en la imagen genera una distancia mínima (punto láser

Page 82: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 66

en la parte inferior central de la imagen) y una distancia máxima (parte central de laimagen) esto es proporcional a H (distancia cámara-láser) por lo que para variar elrango de distancia a utilizar se debe de modificar la distancia H en el escáner. Noteque la disposición actual del escáner diseñado permite contornar esta limitación.

• El sistema ha sido probado con objetos de superficie plana, lisa y opaca. Creemosque existirá una degradación en la exactitud de estimación cuando sean consideradassuperficies rugosas no-planas, dado que la proyección del puntero láser sobre estassuperficies es afectada.

• El diseño del escáner es sencillo de implementar, pero su principal desventaja es elalcance en estimación de distancia (2 a 3 metros) en comparación con productos co-merciales existentes, pero compensa esta deficiencia con el costo de implementación.Sin embargo el alcance de este escáner se considera suficiente para la realización deotras tareas en ambientes académicos de experimentación.

7.4. Análisis de resultados y conclusiones

En este Capítulo se han llevado a cabo las pruebas de estimación de distancias condiversas configuraciones de escáner, los resultados previos nos llevaron a la conclusión de queutilizar un sistema de estimación de distancia con una cámara calibrada conlleva a mejoresresultados en la mayoría de casos, con el resto de resultados en los cuales no se obtiene losresultados esperados se puede concluir que para esos casos pueden haber ocurrido distorsionestanto en el manejo del escáner para la toma de las pruebas como alteraciones en la superficiedel objetivo, esto puede haber generado mínimas distorsiones en los resultados. También sehan realizado pruebas considerando distintas posiciones del escáner, la evaluación de estasmedidas y sus resultados fueron satisfactorios y demostraron que el sistema es efectivo antestales pruebas, además también se realizó las pruebas con distintos objetivos de distintasformas, en un principio se creía que las distancias tenían que realizarse sobre objetivos desuperficies planas, esta suposición fue descartada debido al hecho que el sistema obtiene unadistancia hacia un punto sobre un objetivo, lo que genera un plano virtual perpendicularhacia el objetivo, esto nos conduce a la conclusión de que se pueden obtener distancias haciacualquier objetivo en el espacio tridimensional, las pruebas realizadas con tales objetos dedistintas formas demostraron la validez de la suposición. Para finalizar se puede concluirque el sistema posee más restricciones de las detalladas con anterioridad pero la mayoría deellas se puede considerar despreciables en el cálculo de distancia, sólo se consideraron las de

Page 83: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 7. PRUEBAS Y ANÁLISIS DE LA PROPUESTA 67

alta influencia en el sistema. Se puede considerar como el principal aporte la robustez en laestimación de distancia , el costo de implementación y la efectividad del modelo.

Page 84: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Capítulo 8

Conclusiones y trabajos futuros

Luego de todo el trabajo realizado y las pruebas que sustentan la validación del modelo,se ha comprobado la funcionalidad y efectividad del escáner implementando el modelo mate-mático y el software necesario para su uso, a diferencia con nuestro trabajo previo realizadoen [Portugal-Zambrano and Mena-Chalco, 2009], en este trabajo se ha mejorado el diseñodel escáner y se ha probado el mismo con distintas configuraciones en sus parámetros. Eldiseño del escáner nos ha permitido comprobar el bajo costo de la implementación y laligereza de diseño. Se ha probado que se puede adaptar la configuración del escáner paraconsiderar distancias más grandes (2 a 3 metros) teniendo en cuenta que a mayor distanciade estimación los resultados pueden verse afectados por un mayor margen de error, estodebido a la visibilidad del punto láser por el dispositivo de captura.La detección del punto láser en la imagen es un paso importante para el proceso de estima-ción de distancia, en este trabajo se ha utilizado un formato de colores Y’CbCr, a diferenciadel formato RGB utilizado en [Portugal-Zambrano and Mena-Chalco, 2009], y se ha probadoque este formato permite una detección del punto láser de forma más precisa en ambientesmenos controlados utilizados en el trabajo anterior, logrando así que este paso sea mejora-do. Creo que se puede realizar un proceso de detección de punto láser más específico queconsidere ambientes de luz menos controlados, para ello el supuesto del costo computacionaldependería del método de detección del punto láser utilizado.Si bien el proceso de calibración de cámara no tiene una relación directa con el proceso deestimación de distancia, en este trabajo se ha probado que el aplicar un factor de correccióna la imagen en base a los parámetros de calibración de cámara obtenidos, se obtiene unamejora en la estimación de distancia disminuyendo el grado de error en las medidas obteni-das. Aquí el proceso de calibración de cámara se realizó en base a homografías, obteniendorelaciones lineales. Se puede enunciar como trabajos futuros el realizar un estudio mayor de

68

Page 85: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CAPÍTULO 8. CONCLUSIONES Y TRABAJOS FUTUROS 69

técnicas de calibración [Ji and Zhang, 2001, Savii, 2004, Remondino and Fraser, 2006] pro-curando buscar mayor eficiencia en este proceso. Adicionalmente, pueden ser consideradoslos trabajos [Kurisu et al., 2007, Lichti, 2008] con la intensión de elaborar un modelo detelémetro auto-calibrado aplicado sobre el modelo aquí desarrollado.Es importante destacar que, el proceso de calibración de cámara y el de estimación de distan-cia, ofrecen en conjunto, información necesaria y efectiva para un trabajo posterior de recons-trucción superficial de objetos tridimensionales [Jahne et al., 1999, Hartley and Zisserman, 2004,Paragios et al., 2005, Fernandes, 2006], trabajo que también puede ser llevado con posterio-ridad debido a que se cuenta con todo lo necesario para su logro. Si bien el diseño delescáner es efectivo en la realización de su tarea este no puede quedar limitado al mismodiseño, esto debido a que se puede considerar distintos diseños en varias aplicaciones, peroconsiderando la ubicación y relación entre el dispositivo capturador de imágenes y el láserutilizado Ej. Se puede implementar un robot móvil en la que tenga el dispositivo de visióncomo un ojo y el láser ubicado debajo del mismo a cierta distancia y en forma paralela alplano.// Se cree que este proyecto puede ser implementado en cualquier laboratorio utili-zando los componentes antes mencionados, asegurando así el acceso a un presupuesto fácilde manejar, de este modo se considera el bajo costo el principal aporte de este trabajo. Parafuturas aplicaciones se puede considerar el uso del presente escáner para robots móviles osistemas de visión cuyo objetivo sea relacionarse con ambientes reales de interacción ya seareconstrucción tridimensional, estimación de medidas de objetos, evasión de colisiones, etc,para ello se pretende liberar la implementación del software utilizado, esto será fácilmenterealizado debido a la utilización de software libre en la implementación del sistema ademásde ser un código multi-plataforma. En particular como trabajo futuro se puede configurar unnuevo modelo de escáner usando adicionalmente un segundo puntero láser y/o una segundacámara web que permita la reconstrucción de escenas en 3D, manteniendo información realde altura y profundidad, i.e. obtención de escenas 3D donde también se tenga informaciónreal de sus dimensiones.Para finalizar, gratamente se enuncia que el presente trabajo generó un artículo de inves-tigación que fue presentado para su evaluación en las Conferencias Latinoamericanas deEstudios en Informática CLEI2011 a realizarse en Ecuador, para fecha de escritura de estatesis, el artículo fue aceptado para su exposición un 18 de Julio del 2011 y será expuesto endicha conferencia en fecha de 10 Octubre del mismo año.

Page 86: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Apéndice A

Imágenes de prueba

Las pruebas de detección del punto láser se realizaron con el escáner en tiempo real, eneste apéndice se ha tomado un total de 30 imágenes de las cuales mostramos una muestrade 10 como referencia para el lector.

(1) (2) (3)

(4) (5) (6)

70

Page 87: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE A. IMÁGENES DE PRUEBA 71

(7) (8) (9)

(10) (11) (12)

(13) (14) (15)

(16) (17) (18)

Page 88: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE A. IMÁGENES DE PRUEBA 72

(19) (20) (21)

(22) (23) (24)

(25) (26) (27)

(28) (29) (30)

Page 89: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Apéndice B

Datos de estimación de distancia

En este apéndice se muestran todos los conjuntos de datos utilizados en el cuadro 7.1 delCapítulo 7, también se muestran sus respectivas gráficas de comparación de datos.

73

Page 90: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 74

Conjunto de parámetros Nro-1

DReal pfc θ Dist. Obt26 118 0.367173834 26.2894356331 100 0.312042122 30.8861629336 85 0.27094685 35.9715286341 74 0.2392316 40.7973713646 64 0.214060684 46.371694551 56 0.193621993 51.992946556 51 0.176708856 56.2224004261 48 0.162489109 59.0951300666 44 0.150371428 63.4002365671 40 0.139924671 68.36295626

DReal pfc θ Dist. Obt76 36 0.130827396 74.1479953281 32 0.122835239 80.9800693186 28 0.115759218 89.1739724991 27 0.109450949 91.4844477296 25 0.10379234 96.47941759101 24 0.098688261 99.18474096106 20 0.094061235 111.6955395111 20 0.08984754 111.6955395116 18 0.085994291 119.2018527121 17 0.082457237 123.3434483

0 2 4 6 8 10 12 14 16 18 2020

40

60

80

100

120

140

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE = 1.3155PAE = 1.66%

Figura B.1: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 1ra configuración de parámetros mostrados en la Tabla 7.1

Page 91: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 75

Conjunto de parámetros Nro-2

DReal pfc θ Dist. Obt27 116 0.354705652 27.1964814532 99 0.302884868 31.6766030637 82 0.263963724 37.7082482642 74 0.233743181 41.3439576947 65 0.209639846 46.3112526552 57 0.189988288 51.786234457 51 0.173671198 56.7834856462 45 0.159913123 62.8094697267 41 0.148160021 67.5687825972 37 0.138006024 73.0890902477 35 0.12914729 76.1945148582 32 0.121352001 81.37124645

DReal pfc θ Dist. Obt87 29 0.114440305 87.2898401292 27 0.108270591 91.7308830497 24 0.102729867 99.2976178102 23 0.097726907 102.1018721107 22 0.093187262 105.067481112 19 0.089049583 115.0854023117 17 0.085262869 122.8873478122 17 0.081784381 122.8873478127 15 0.07857803 131.8155084132 14 0.075613143 136.7811701137 13 0.07286348 142.1333755142 12 0.070306464 147.9191773

0 5 10 15 20 2520

40

60

80

100

120

140

160

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE = 1.0606 MAPE = 1.40%

Figura B.2: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 2da configuración de parámetros mostrados en la Tabla 7.1

Page 92: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 76

Conjunto de parámetros Nro-3

DReal pfc θ Dist. Obt52 118 0.367173834 52.4409656957 107 0.337456069 57.1871647462 97 0.312042122 62.2109144867 88 0.290086932 67.4623520872 81 0.27094685 72.1417556177 76 0.25412475 75.8688644282 68 0.2392316 82.6416349587 64 0.225959218 86.4725333992 59 0.214060684 91.7617042597 56 0.203336084 95.24145843102 52 0.193621993 100.2937236107 48 0.184783616 105.8880586112 44 0.176708856 112.1180059117 41 0.169303778 117.2765419122 40 0.162489109 119.0999406

DReal pfc θ Dist. Obt127 36 0.15619751 126.9804899132 34 0.150371428 131.3143385137 32 0.144961396 135.9470466142 30 0.139924671 140.9108971147 28 0.135224132 146.2429954152 26 0.130827396 151.9862058157 24 0.126706087 158.1903133162 22 0.122835239 164.9134791167 21 0.119192799 168.4906174172 19 0.115759218 176.1243933177 18 0.112517107 180.2030528182 17 0.109450949 184.4726333187 16 0.106546851 188.9469204192 15 0.10379234 193.6410599

0 5 10 15 20 25 3050

100

150

200

Nro de medida

Dis

tanc

ia (

cm)

Dist .Real

Dist. Obtenida

MAE =1.1704MAPE = 0.90%

Figura B.3: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 3ra configuración de parámetros mostrados en la Tabla 7.1

Page 93: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 77

Conjunto de parámetros Nro-4

DReal pfc θ Dist. Obt53 118 0.360836783 53.8179640958 108 0.332059468 58.1425868163 100 0.307397473 62.0725015468 89 0.286051442 68.3291012573 82 0.267410797 72.9473296578 75 0.251002687 78.1820261583 71 0.236456142 81.5008161488 64 0.223476601 87.9950451793 59 0.211827547 93.2678850398 55 0.201317108 97.94068592103 52 0.191788142 101.7506049108 48 0.183110817 107.2971389113 45 0.175176995 111.8554958118 41 0.167895923 118.550269123 38 0.161190914 124.1050397

DReal pfc θ Dist. Obt128 36 0.154996742 128.0985475133 34 0.149257595 132.3508814138 32 0.143925449 136.8882719143 29 0.138958767 144.295405148 27 0.134321442 149.6859376153 26 0.129981945 152.5322437158 24 0.125912626 158.5564318163 22 0.122089137 165.0676447168 22 0.118489959 165.0676447173 20 0.115096 172.1277838178 18 0.111890266 179.8097046183 17 0.108857583 183.9102057188 16 0.105984358 188.1997524193 15 0.103258381 192.6917817198 13 0.100668652 202.3437202

0 5 10 15 20 25 3040

60

80

100

120

140

160

180

200

220

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE =0.939239955MAPE = 0.73%

Figura B.4: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 4ta configuración de parámetros mostrados en la Tabla 7.1

Page 94: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 78

Conjunto de parámetros Nro-5

DReal pfc θ Dist. Obt70 119 0.34302394 70.4498419175 111 0.321750554 75.0595273380 102 0.302884868 80.9359245185 96 0.286051442 85.3396308890 92 0.27094685 88.5278410895 85 0.257323715 94.6710708100 80 0.244978663 99.5681113105 75 0.233743181 104.9644901110 71 0.223476601 109.6958518115 68 0.214060684 113.5186192120 64 0.205395389 119.0286425125 60 0.19739556 125.0747864130 58 0.189988288 128.3243603

DReal pfc θ Dist. Obt135 54 0.183110817 135.3369307140 50 0.176708856 143.1305093145 47 0.170735211 149.571163150 48 0.165148677 147.3626343155 45 0.159913123 154.1871661160 42 0.154996742 161.6559154165 41 0.150371428 164.3048253170 39 0.146012258 169.86554175 38 0.141897055 172.7862588180 36 0.138006024 178.9330503185 34 0.134321442 185.5240023190 32 0.130827396 192.6094101195 31 0.127509558 196.3553685

0 5 10 15 20 25 3060

80

100

120

140

160

180

200

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE =1.1778MAPE =0.85%

Figura B.5: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 5ta configuración de parámetros mostrados en la Tabla 7.1

Page 95: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 79

Conjunto de parámetros Nro-6

DReal pfc θ Dist. Obt75 114 0.321750554 75.0442901480 106 0.302884868 80.0041613485 99 0.286051442 84.8579395190 92 0.27094685 90.2827406895 87 0.257323715 94.56732897100 81 0.244978663 100.2371748105 77 0.233743181 104.3850667110 72 0.223476601 110.0489405115 68 0.214060684 115.0176785120 65 0.205395389 119.0341266125 60 0.19739556 126.359713130 57 0.189988288 131.1857227

DReal pfc θ Dist. Obt135 54 0.183110817 136.3805487140 52 0.176708856 140.0703641145 50 0.170735211 143.9587134150 47 0.165148677 150.2004284155 45 0.159913123 154.6622259160 43 0.154996742 159.3898489165 41 0.150371428 164.4080092170 39 0.146012258 169.744579175 37 0.141897055 175.4311135180 35 0.138006024 181.5034795185 34 0.134321442 184.6969211190 33 0.130827396 188.0026182195 31 0.127509558 194.9754752

0 5 10 15 20 2560

80

100

120

140

160

180

200

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE = 0.5651 MAPE = 0.40

Figura B.6: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 6ta configuración de parámetros mostrados en la Tabla 7.1

Page 96: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 80

Conjunto de parámetros Nro-7

DReal pfc θ Dist. Obt73 142 0.329947092 72.9163685178 132 0.310168061 77.9683196183 123 0.292561766 83.0862882488 116 0.276798159 87.5110743393 108 0.262609078 93.1310502698 102 0.249774789 97.80641496103 95 0.238113782 103.8485185108 91 0.22747498 107.6275795113 85 0.217731739 113.8113603118 81 0.208777182 118.3235656123 77 0.20052055 123.1911517128 74 0.192884312 127.1014991133 70 0.185801876 132.7024414

DReal pfc θ Dist. Obt138 66 0.179215745 138.800499143 63 0.173076031 143.7419835148 60 0.167339254 149.0368256153 58 0.161967352 152.7824092158 55 0.156926869 158.7574833163 54 0.152188286 160.8517022168 51 0.147725465 167.4710204173 49 0.143515176 172.1878158178 47 0.139536713 177.1720426183 45 0.135771557 182.4472827188 43 0.1322031 188.0399739193 41 0.128816405 193.9798565

0 5 10 15 20 2560

80

100

120

140

160

180

200

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE = 0.5679MAPE = 0.41%

Figura B.7: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 7ma configuración de parámetros mostrados en la Tabla 7.1

Page 97: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 81

Conjunto de parámetros Nro-8

DReal pfc θ Dist. Obt73 143 0.329947092 73.907328178 137 0.310168061 76.8599332883 125 0.292561766 83.4531612388 119 0.276798159 87.151492893 111 0.262609078 92.5793743398 104 0.249774789 97.87083249103 97 0.238113782 103.7600993108 92 0.22747498 108.3925973113 87 0.217731739 113.4342722118 83 0.208777182 117.8007081123 79 0.20052055 122.500539128 74 0.192884312 128.9062492

DReal pfc θ Dist. Obt133 71 0.185801876 133.0685356138 67 0.179215745 139.0392154143 64 0.173076031 143.868754148 62 0.167339254 147.2733227153 59 0.161967352 152.6841612158 56 0.156926869 158.496178163 54 0.152188286 162.6165386168 52 0.147725465 166.951505173 49 0.143515176 173.8948283178 47 0.139536713 178.8465292183 46 0.135771557 181.4275044188 44 0.1322031 186.8151223193 42 0.128816405 192.526361

0 5 10 15 20 2560

80

100

120

140

160

180

200

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE = 0.6801MAPE = 0.54%

Figura B.8: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 8va configuración de parámetros mostrados en la Tabla 7.1

Page 98: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 82

Conjunto de parámetros Nro-9

DReal pfc θ Dist. Obt71 233 0.338555695 72.0790741676 222 0.317798006 75.3414133781 202 0.299366234 82.0064970886 192 0.282900854 85.7568558991 179 0.268110783 91.1306867796 169 0.254758302 95.7084156101 160 0.242647665 100.2114112106 153 0.23161643 103.998486111 142 0.221528805 110.5278232116 135 0.212270496 115.1034876121 127 0.203744681 120.7959202126 121 0.195868843 125.4317891131 114 0.188572259 131.2916603

DReal pfc θ Dist. Obt136 108 0.181793989 136.7510632141 104 0.17548126 140.6410878146 99 0.16958816 145.8158174151 95 0.164074564 150.229469156 89 0.158905262 157.3596013161 85 0.154049234 162.4909448166 83 0.149479049 165.1810832171 78 0.145170365 172.3033897176 75 0.14110151 176.8727106181 72 0.137253125 181.6858451186 70 0.13360787 185.0399329191 66 0.130150165 192.1266075196 63 0.126865975 197.8018276

0 5 10 15 20 25 3060

80

100

120

140

160

180

200

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE =0.8250MAPE =0.63%

Figura B.9: Gráfica de comparación de datos entre la distancia real y la distancia obtenida por elescaner para la 9na configuración de parámetros mostrados en la Tabla 7.1

Page 99: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE B. DATOS DE ESTIMACIÓN DE DISTANCIA 83

Conjunto de parámetros Nro-10

DReal pfc θ Dist. Obt72 239 0.334198044 71.9354986377 221 0.313938213 77.2096818882 206 0.295926038 82.1664754687 194 0.279817109 86.5693378892 182 0.265332086 91.4284124497 166 0.252242458 98.75261791102 160 0.240359758 101.7899997107 149 0.229527354 107.8412713112 143 0.219614125 111.4378138117 137 0.210509562 115.2698546122 129 0.202119934 120.7881325127 122 0.194365266 126.0487024132 115 0.187176937 131.7686385

DReal pfc θ Dist. Obt137 106 0.18049576 139.9019062142 103 0.174270431 142.8330782147 98 0.168456273 147.9923485152 94 0.163014209 152.3879213157 91 0.157909921 155.8550153162 87 0.15311315 160.7242265167 82 0.148597122 167.2447365172 77 0.144338059 174.3036389177 75 0.140314777 177.2932568182 73 0.136508346 180.3851151187 70 0.132901795 185.2264595192 65 0.12947987 193.8883617197 64 0.126228821 195.7171604

0 5 10 15 20 25 3060

80

100

120

140

160

180

200

Nro de medida

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

MAE =1.000MAPE = 0.53%

Figura B.10: Gráfica de comparación de datos entre la distancia real y la distancia obtenida porel escaner para la 10ma configuración de parámetros mostrados en la Tabla 7.1

Page 100: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Apéndice C

Software implementado para el sistema

En este apartado describiré la aplicación de software utilizada para la demostración yvalidación del este trabajo, la aplicación fue desarrollada en el IDE ECLIPSE, como frame-work para el procesamiento de imágenes se utilizó OpenCV, como lenguaje de programaciónnativo se usó c++ y para el diseño de la interfaz de usuario se utilizó QT. Pasamos a definirlos componentes:

C.1. Eclipse IDE

Eclipse es un entorno de desarrollo integradode código abierto multiplataforma para desarrollarlo que el proyecto llama “Aplicaciones de ClienteEnriquecido", opuesto a las aplicaciones “Cliente-liviano"basadas en navegadores. Esta plataforma, tí-picamente ha sido usada para desarrollar entornos dedesarrollo integrados (del inglés IDE), como el IDEde Java llamado Java Development Toolkit (JDT) yel compilador (ECJ) que se entrega como parte deEclipse (y que son usados también para desarrollar el mismo Eclipse). Sin embargo, tambiénse puede usar para otros tipos de aplicaciones cliente, como BitTorrent o Azureus. Eclipsees también una comunidad de usuarios, extendiendo constantemente las áreas de aplicacióncubiertas. Un ejemplo es el recientemente creado Eclipse Modeling Project, cubriendo casitodas las áreas de Model Driven Engineering.Eclipse fue desarrollado originalmente por IBM como el sucesor de su familia de herramientaspara VisualAge. Eclipse es ahora desarrollado por la Fundación Eclipse, una organización in-

84

Page 101: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE C. SOFTWARE IMPLEMENTADO PARA EL SISTEMA 85

dependiente sin ánimo de lucro que fomenta una comunidad de código abierto y un conjuntode productos complementarios, capacidades y servicios. Eclipse fue liberado originalmentebajo la Common Public License, pero después fue re-licenciado bajo la Eclipse Public Licen-se. La Free Software Foundation ha dicho que ambas licencias son licencias de software libre,pero son incompatibles con Licencia pública general de GNU (GNU GPL).3 . Para mayorinformación puede visitar el site del proyecto http://www.eclipse.org/

C.2. OpenCV

OpenCV es una biblioteca libre de visión artificial originalmentedesarrollada por Intel. Desde que apareció su primera versión alfa en elmes de enero de 1999, se ha utilizado en infinidad de aplicaciones. Desdesistemas de seguridad con detección de movimiento, hasta aplicativos decontrol de procesos donde se requiere reconocimiento de objetos. Esto sedebe a que su publicación se da bajo licencia BSD, que permite que seausada libremente para propósitos comerciales y de investigación con lascondiciones en ella expresadas. Open CV es multiplataforma, existiendoversiones para GNU/Linux, Mac OS X y Windows. Contiene más de 500

funciones que abarcan una gran gama de áreas en el proceso de visión, como reconocimientode objetos (reconocimiento facial), calibración de cámaras, visión estereo y visión robótica.El proyecto pretende proporcionar un entorno de desarrollo fácil de utilizar y altamenteeficiente. Esto se ha logrado, realizando su programación en código C y C++ optimizados,aprovechando además las capacidades que proveen los procesadores multi núcleo. OpenCVpuede además utilizar el sistema de primitivas de rendimiento integradas de Intel, un con-junto de rutinas de bajo nivel específicas para procesadores Intel. Para mayor informaciónver el site http://opencv.willowgarage.com/wiki/

C.3. Qt

Qt es una biblioteca multiplataforma ampliamente usadapara desarrollar aplicaciones con una interfaz gráfica de usuarioasí como también para el desarrollo de programas sin interfazgráfica como herramientas para la línea de comandos y consolaspara servidores. Es producido por la división de software Qt deNokia, que entró en vigor después de la adquisición por parte

Page 102: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE C. SOFTWARE IMPLEMENTADO PARA EL SISTEMA 86

de Nokia de la empresa noruega Trolltech, el productor original de Qt, el 17 de junio de2008.16 Nokia anuncio que va a detener sus desarrollos en Symbian para usar la plataformade Microsoft para sus telefonos inteligentes en Febrero de 2011. En marzo del mismo año,anunciaron la adquisición de las licencias comerciales de QT por Digia PLC, aunque Nokiava a continuar como la fuerza de desarrollo principal atras de la librería.Qt es utilizada en KDE, un entorno de escritorio para sistemas como GNU/Linux o FreeBSD,entre otros. Qt utiliza el lenguaje de programación C++ de forma nativa, adicionalmentepuede ser utilizado en varios otros lenguajes de programación a través de bindings. Tambiénes usada en sistemas informáticos empotrados para automoción, aeronavegación y aparatosdomésticos como frigoríficos. Funciona en todas las principales plataformas, y tiene un amplioapoyo. El API de la biblioteca cuenta con métodos para acceder a bases de datos medianteSQL, así como uso de XML, gestión de hilos, soporte de red, una API multiplataformaunificada para la manipulación de archivos y una multitud de otros para el manejo deficheros, además de estructuras de datos tradicionales. Distribuida bajo los términos deGNU Lesser General Public License (y otras), Qt es software libre y de código abierto. Paramayor información visitar el site http://qt.nokia.com/products/

C.4. Descripción de la aplicación

Figura C.1: Integración del plugin de Qt para Eclipse, se pueden ver sus cajas de herramientas ysu diseñador integrado de interfaces de usuario.

El funcionamiento de la aplicación se describe en la Figura 6.3 en donde se puede apreciarel flujo de procesos de la aplicación, el desarrollo de la aplicación se hizo en IDE Eclipse

Page 103: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE C. SOFTWARE IMPLEMENTADO PARA EL SISTEMA 87

Versión Ganymede y la integración de QT con Opencv se llevó a cabo con el QT EclipsePlugin Integration disponible en http://qt.nokia.com/products/eclipse-integration. En laFigura C.1 podemos ver el plugin de QT integrado en Eclipse, se pueden apreciar sus cajasde herramientas y su diseñador integrado de interfaces de usuario.

C.4.1. Componentes del sistema

Para un mejor entendimiento de la estructura de la aplicación se muestra su respectivoDiagrama UML de componentes y de clases utilizados en el sistema.

DIAGRAMA DE COMPONENTES

Figura C.2: Diagrama de Componentes de la aplicación desarrollado para validación del modelode estimación de distancia.

Page 104: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

APÉNDICE C. SOFTWARE IMPLEMENTADO PARA EL SISTEMA 88DIA

GRAMA

DE

CLA

SES

Fig

ura

C.3

:Diagram

ade

clases

dela

aplicacióndesarrollado

para

valid

acióndelm

odelode

estimaciónde

distan

cia.

Page 105: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Apéndice D

Artículos presentados al SCGI 2009 yCLEI 2011

Acerca del SCGI2009 El Simposio de Computación Gráfica y Procesamiento de Imá-genes es un evento organizado por la Sociedad Peruana de Computación. El propósito deeste evento es fomentar la diseminación, investigación y desarrollo de software no conven-cional en áreas afines a la Computación Gráfica y Procesamiento de imágenes (CGI). Eltercer Simposio SCGI se llevó a cabo los días 28 y 29 de Diciembre del 2009 en la ciudad deArequipa.

Acerca del CLEI 2011 El CLEI, es un evento anual promovido por el Centro Latinoa-mericano de Estudios en Informática, que reúne investigadores docentes y estudiantes deUniversidades y Centros de Investigación Latinoamericanos para discutir la investigación,la docencia y el desarrollo del área de Informática en la región. El CLEI 2011 comprenderádiversas actividades, incluyendo sesiones técnicas de presentación de trabajos, foros, panelesde discusión, concurso de tesis y disertaciones, así como conferencias de importantes perso-nalidades del área.La trigésima séptima edición de este evento, el CLEI 2011, será realizado desde el 10 al 14de Octubre de 2011 en la ciudad de Quito, Ecuador.

89

Page 106: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

III SIMPOSIO PERUANO DE COMPUTACION GRAFICA Y PROCESAMIENTO DE IMAGENES, SCGI-2009 1

Estimacion de distancias absolutas utilizandoun puntero laser y una camara web

Christian Portugal Zambrano, Jesus P. Mena-Chalco

Resumen — En la actualidad existe un gran interes en el estudio de reconstrucciones 3D a partir de imagenes. Laaplicacion de algoritmos fotogrametricos han permitido mejoras relevantes en calibracion, movimiento, recuperacionde formas a partir de sombras y profundidad en imagenes. El proceso de obtencion de distancia a partir de imagenesestaticas es muy importante para la determinacion de medidas de profundidad en cualquier proceso de reconstruccion3D. En este artıculo, correspondiente al tema de tesis de pre-grado, aun en desarrollo, se describe una adaptacionde un prototipo de escaner elaborado en base a una camara web y un puntero laser de baja precision, aplicado a ladeterminacion de distancias absolutas en imagenes obtenidas de secuencias de vıdeo en tiempo real. Fueron realizadaspruebas experimentales que demuestran la efectividad del calculo de distancia en tiempo real. Finalmente es realizadoun analisis de los resultados obtenidos, ası como son descritas posibles mejoras al proceso de estimacion de distancia.

Terminos de indexacion — Fotogrametrıa, calibracion de camara, vision computacional.

1. Introduccion

La vista es uno de los principales sentidos usados por elhombre para moverse en el mundo. La cantidad de infor-macion que se recibe a traves de la vision es incomparablecon la de los demas sentidos, pero gran cantidad de infor-macion ha logrado ser procesada gracias a los avances enel campo de Vision por Computador.

El proposito de la vision artificial (vision por computa-dor) es programar un computador para que entiendalas caracterısticas de una imagen o construya una de-scripcion de escena de una imagen [19]. Para conseguiruna descripcion de una escena, la vision por computadorbrinda tecnicas como reconocimiento de patrones, apren-dizaje estadıstico, geometrıa proyectiva, procesamientode imagenes, teorıa de graficos, entre otros. Una tecnicaque esta tomando mas adeptos en el area de Vision Com-putacional, hoy en dıa, es la obtencion del rango enimagenes, la cual es definida como la distancia existenteentre el objeto en la escena y el sensor de captura deimagenes [18]. Este tipo de tecnica permite obtener infor-macion tridimensional de la escena como fondo, forma, yprofundidad de los objetos presentes.

Muchas aplicaciones fueron creadas considerando in-formacion de profundidad, como por ejemplo deteccionde colisiones en robots autonomos, Ingenierıa Inversa us-ando sensores opticos de rango [9] y elaboracion de ma-pas de navegacion, tambien fueron creadas aplicacionesen areas como control de calidad y planeamiento de al-macenaje, este ultimo es de gran importancia para empre-sas que necesitan obtener medidas de objetos tridimen-sionales para su manipulacion [6], en oposicion encon-tramos que este tipo de tecnica demanda mucho tiempode procesamiento y/o requiere de componentes de hard-

Christian Portugal Z. es estudiante de Quinto Ano de la EscuelaProfesional de Ingenierıa de Sistemas de la Universidad Nacional deSan Agustın, Arequipa. Peru. E-mail: [email protected]

Jesus P. Mena-Chalco es estudiante de Doctorado de la Universidadde Sao Paulo (IME-USP). E-mail:[email protected]

ware (e.g. sensores de distancia) cuya adquisicion, insta-lacion y puesta en ejecucion requieren de elevados costosfinancieros y personal adecuado para su implementacion.

El presente trabajo de tesis, aun en desarrollo, esta ori-entado hacia la estimacion robusta de distancias abso-lutas utilizando un puntero laser. La propuesta de tesisesta basada en el trabajo de [14], en el cual se consid-eran dispositivos de facil y economica adquisicion comoel de una camara web de uso domestico y un punterolaser, utilizados para una estimacion rapida de distan-cias reales. Para el diseno del escaner, fue dispuesto tantola camara web, como el puntero laser en formacion par-alela para la simplificacion de calculos de proyeccion.La principal ventaja de esta configuracion (denomıneseescaner) es la utilizacion de componentes de bajo re-curso economico y el bajo costo de complejidad computa-cional. Adicionalmente, fue realizado un estudio e imple-mentacion de tecnicas de calibracion de camara para elcorrecto computo de distancias. Como parte complemen-taria, y final, para este trabajo fue realizado la evaluacionde la robustez en estimacion de distancias en tiempo real.

El presente artıculo esta organizado de la siguientemanera: En la seccion 2 estan descritos brevemente lostrabajos previos relacionados a estimacion de distancias.En la seccion 3 se describe el procedimiento usado para lacalibracion de la camara. El escaner considerado y la ge-ometrıa del modelo estan detallados en la seccion 4. Losresultados y conclusiones obtenidas hasta el momentoestan presentadas en las secciones 5 y 6, respectivamente.

2. Trabajos Previos

Hasta ahora no fueron muchos los trabajos relaciona-dos con la estimacion de distancias usando dispositivostales como una camara web y un puntero laser. A seguirson descritos brevemente algunos trabajos previos rela-cionados con el proyecto de tesis:

Published by SCGI 2009

Page 107: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

AREQUIPA - PERU SCGI-2009 2

Close-Range Camera Calibration [3] en este trabajo seestablece la importancia de la estimacion de distan-cias cercanas fotogrametricas para la obtencion demedidas de estructuras, esto dio origen a tecnicas fo-togrametricas mas refinadas las cuales fueron apli-cadas a la obtencion de medidas de antenas paraboli-cas.

Estimacion de distancias con un laser de lınea y unacamara [14] En este trabajo se describe un sistema deescaner laser, compuesto por una camara y un apun-tador laser, el cual proyecta una linea horizontal querastrea todo el objeto y se basa en si un obstaculoesta lejos o cerca del escaner, la idea general erapoder estimar la distancia al objeto en base a la difer-encia de ubicacion del reflejo del puntero laser en laimagen.Se observo que a menor distancia el reflejodel laser se aproximaba a la parte inferior de la im-agen y a mayor distancia se acercaba al centro de laimagen.

Um Metodo Projetivo para calculo de dimensoes de caixasen tempo real [6] Este trabajo describe un metodo pre-ciso para la computacion de dimensiones de cajasen tiempo real, utilizando un enfoque de geometrıaproyectiva la cual usa informacion de las siluetas dela caja y de la proyeccion de dos punteros laser sobreuna de las caras de la caja, logrando ası obtener susdimensiones en tiempo real.La efectividad de este trabajo fue demostrada im-plementando un prototipo de escaner que imple-mento su metodo.

WebCam DIY Laser RangeFinder [5] Aquı se ex-plica la necesidad de disenar dispositivos ligeros enpeso, debido a que en algunas aplicaciones como larobotica aerea el peso es un tema muy importante, espor ello que se describe como se puede configurar unlaser de baja precision con una Webcam de bajo costocon la finalidad de proveer una maquina de visioncon informacion de rango.

Tomando los avances de [6] se propuso modificar latecnica de obtencion de distancia en base a la idea prop-uesta por [5,14] estas dos propuestas junto con un procesoprevio de calibracion de la camara usada en el escanermencionado en [1] la cual fue originada por [3] per-mitio elaborar un esquema de obtencion de distancia quebrinde informacion tridimensional en tiempo real.

Existen varios aspectos a tener en cuenta a la hora decomparar los resultados obtenidos por una u otra tecnica,siendo la precision de los resultados la mas importante.En ese sentido, fue adoptado la calibracion propuesta porAbdel-Aziz y Karara [1] que fueron los primeros en de-sarrollar la Direct Linear Transformation (DLT). Esta tecnicatrata de detectar los dos tipos de parametros a la vezmediante una ecuacion lineal. Mas tarde Karara, en 1979mejoro el metodo para tener en cuenta las distorsionesopticas. La simplicidad del modelo y los buenos resul-

tados obtenidos han hecho que se extienda su uso en lacomunidad cientıfica.

3. Calibracion de camara y correccionde imagenes

La calibracion de camaras ha sido siempre un compo-nente de medida fotogrametrico, utilizado especialmenteen la obtencion de rangos con alta precision [16].

Es necesario realizar un procedimiento de orientaciony de calibracion de camara preciso [2], con el objetivo deextraer informacion metrica 3D confiable de las imagenescomo paso previo a una reconstruccion tridimensionalde movimiento y recuperacion de forma [15]. Para nue-stro proposito el concepto de calibracion de camara seentiende como la existencia de una relacion directa en-tre las coordenadas de la imagen y coordenadas del ob-jeto relativas al centro de la camara, pero sin embargo laposicion de la camara en el espacio no es necesariamenteconocida. Mucho trabajo se ha realizado en el calibradode camaras, algunos autores propusieron el uso de algo-ritmos geneticos [10, 17] y tambien en el pre y post proce-samiento de los datos. Desde un punto de vista practico,algunos autores sugieren el metodo basado en una plan-tilla bidimensional como el mas facil de realizar [4] y queobtiene buenos resultados.

La orientacion de la camara incluye la determinacionde los parametros de ubicacion externos para definir suestado y su eje en un sistema de coordenadas de altoorden generalmente llamado Sistema de coordenadas delmundo (World Coordinate System), para ello es que recur-rimos a la ubicacion de tres parametros traslacionales ytres parametros rotacionales por cada camara utilizada1

Modelo de camara Pinhole

Una camara en terminos matematicos es vista como unmapeamiento(relacion) entre el espacio del objeto y el es-pacio de la imagen, la cual es representada por matri-ces matematicas con propiedades particulares que las de-scriben. El modelo basico Pinhole es caracterizado porqueel centro de proyeccion es el sistema de coordenadas Eu-clidiano donde se considera al plano Z = f , el cual esllamado plano de la imagen o plano focal. Bajo el mod-elo de camara Pinhole un punto en el espacio con coorde-nadas X = (x, y, z)T es relacionado o mapeado hacia unpunto en el plano de la imagen formando una rectaX queapunta hacia el origen del sistema de coordenadas, estoes conocido como un mapeamiento de coordenadas eu-clidianas 3D a coordenadas euclidianas 2D. El centro deproyeccion es llamado centro de la camara o centro optico,la linea desde el centro de la camara y perpendicular alplano de la imagen es llamada eje principal o rayo principalde la camara y el punto donde el eje principal intercepta el

1En nuestro sistema estamos considerando el uso de una sola camaraweb de uso domestico.

Page 108: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

AREQUIPA - PERU SCGI-2009 3

Figura 1: Patrones usados para el proceso de calibracion, de-nominados Chessboard.

plano de la imagen es conocido como punto principal. Parauna descripcion mas detallada de este modelo sırvase re-visar [8].

Proceso de calibracion

Para el proceso de calibracion se ha utilizado unatecnica basada en homografıas haciendo uso de unpatron de calibracion denominado Chessboard, del cualse conoce sus dimensiones, en la figura 1 se puede apre-ciar los diez patrones de tablero utilizados para nuestracalibracion.

Deteccion de las esquinas y puntos del patronde calibracion

Con el objetivo de hallar las esquinas de cada unode nuestros patrones se procedio a un proceso de pre-procesamiento, compuesto por una umbralizacion y unasaturacion de pıxeles lo que permitio hacer un rastreo delos colores de diferentes pıxeles secuenciales y detectarlas esquinas de cada uno de los patrones presentados, lafigura 2 muestra la deteccion de esquinas y puntos en dospatrones de los presentados en la figura 1.

Debemos de notar que nuestros patrones son de igualdimension, razon por la cual si decidimos redimensionarnuestra imagen por un factor tambien debemos de agre-gar este factor a la dimension de medida de nuestropatron para no perder credibilidad en los datos. Termi-nado el proceso de obtencion de las esquinas y puntosde cada uno de los patrones se procede a realizar la cali-bracion con cada uno de los puntos obtenidos iterandolosen cada patron subsecuente.

En la figura 3 se puede apreciar la relacion de losparametros externos en relacion con el eje de la camara,

(a) (b)

Figura 2: (a) Deteccion de las esquinas del patron. (b) Deteccionde los puntos internos del patron.

(a) (b)

(c) (d)

Figura 3: (a) Vista de las posiciones externas de los objetos (b)Vista de las posiciones de los objetos (c) Vista de los objetos enreferencia a la camara (d) Vista del eje de la camara.

para cada patron presentado se conoce su posicion y ori-entacion al eje principal, esto nos sirve para lograr unarelacion entre todos los puntos de los tableros y obtenerun modelo de correccion para cualquier punto presen-tado a futuro.

Page 109: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

AREQUIPA - PERU SCGI-2009 4

Figura 4: Imagenes del escaner implementado desde diferentes puntos de vista.

4. Estimacion de distancia

En esta seccion se detalla el modelo de escaner consid-erado en [5], utilizado para la obtencion de distancia haciaun objeto de superficie plana.

En aplicaciones de robotica uno de los objetivos esdotar a los minirobots de aparatos ligeros y pequenos,es por ello que se considero utilizar una camara web yun puntero laser de baja precision, en la figura 4 se re-salta que la disposicion de la camara web y el punterolaser se encuentran en planos paralelos a una distanciarelativa uno del otro. Se opto por apoyar el laser sobreuna base plana para evitar la desalineacion del mismo re-specto de la camara, tambien se aseguro la posicion de lawebcam con cintas adhesivas para evitar el problema an-terior. La implementacion del escaner, permitio compro-bar la ligereza del diseno.

Geometrıa del modelo

En la figura 5 se puede observar un modelo mas de-tallado de funcionalidad del escaner y se establecen unosparametros basicos para el calculo de la distancia. La dis-tancia entre la camara web y el puntero laser es definidacomo h medida en cm, la distancia entre el escaner yel objeto de superficie plana es definida como D tambienen cm, la representacion del objeto en la imagen formadapor el lente de la webcam es referenciada por A y B en elobjeto y proyectados como AI y BI respectivamente enla imagen, la proyeccion del punto laser en el objeto esdefinida en la imagen como pfc2 que representa la can-tidad de pıxeles tomados desde la proyeccion del puntolaser hasta el centro de la imagen, θ representa el anguloen radianes formado por la recta de proyeccion del pun-tero laser y la recta perpendicular al plano focal y paralelaal eje de la camara.

Luego de haber explicado los parametros correspon-dientes a la figura 5 establecemos la primera ecuacionbasica:

tan θ =h

D(1)

Si despejamos el parametro D la ecuacion quedarıa como:

D =h

tan θ(2)

2pfc = pixel from center

Objeto

Laser

Camara

D

PFC

h

A

B

I

IB

A

Figura 5: Modelo de escaner considerado en el calculo de dis-tancia en base a un puntero laser. Figura adaptada de [5].

El valor de θ al tomar varias mediciones muestra un com-portamiento decreciente conforme la distancia Escaner-Objeto va en aumento y viceversa.De la relacion planteada se requiere obtener el total depıxeles por grado de luz entrante denominado rpc3, lo-grando ası convertir cada pıxel en la imagen a su corre-spondiente en centımetros. La siguiente relacion muestrarpc definido como:

rpc =θ

pfcRad/Pixel

A continuacion expresamos la misma relacion pero enotro orden.

θ = pfc ∗ rpc (3)

Para completar la ecuacion nos enfocamos en la presen-cia de un factor de correccion de alineacion, denominadoro4 producido por la deformacion en la lente5. Luego deconsiderar el factor de correccion, la ecuacion serıa repre-sentada como:

θ = pfc ∗ rpc+ ro (4)

3rpc=radian per pixel pitch.4ro=radian offset5Por ser una camara web de bajo costo las deformaciones se deben a

su radio de curvatura predominando las deformaciones radiales y tan-genciales

Page 110: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

AREQUIPA - PERU SCGI-2009 5

DR PFC1 PFC2 PFC3 PFC4 PFC5 PFCP

1 30 214 212 210 210 208 2112 35 198 196 194 194 196 1963 40 184 186 188 186 184 1864 45 180 176 180 178 176 1785 50 170 172 174 170 168 1716 60 160 158 160 158 160 1597 70 150 150 152 150 152 1518 80 146 146 146 146 146 1469 90 140 140 140 141 142 141

10 100 139 136 136 138 139 13811 110 134 134 134 134 136 13412 120 132 130 132 130 132 13113 140 128 129 128 129 128 12814 160 124 124 123 125 124 12415 180 122 122 121 122 122 12216 190 122 121 120 120 122 12117 210 118 119 120 118 117 118

Cuadro 1: Cuadro que muestra las cinco muestras tomadas dePıxeles desde el centro - PFCP = el promedio de las medidas.

Obtencion de rpc y ro

Para poder completar nuestra ecuacion necesitamosobtener los valores de rpc y ro aproximados, de los cualessolo tenemos pfc, para poder obtener una aproximacionse tomo un total de 17 valores reales de Distancia comose puede ver en el cuadro 1 en donde para cada distanciareal DR se obtuvo 5 valores PFC para luego obtener unpromedio ponderado de ellos.

Una vez obtenido el valor de PFCP despejamos laecuacion (1) para obtener la siguiente ecuacion

θReal = arctan

(h

D

)(5)

Ahora vamos a obtener una aproximacion de rpc, paraello vamos a tomar el primer valor de θReal y lo eti-quetaremos como θ1 y al siguiente valor de este como θ2para luego establecer las siguientes dos ecuaciones:

θ1 = PFC1 ∗ rpc+ ro

θ2 = PFC2 ∗ rpc+ ro

Eliminando ro 6 de las ecuaciones anteriores nos queda lasiguiente igualdad:

rpc =θ2 − θ1

PFC2 − PFC1(6)

Observar que en el cuadro 2 no se toma el valor de lafila 17 debido a que en la columna de PFCP presenta unvalor menor que la mitad de la altura de la imagen cap-turada la cual resultarıa en un valor negativo de nuestradistancia. Aplicando la ecuacion (6) para cada uno de losvalores de las filas del cuadro 2 obtenemos cada uno delos valores de la columna rpc en la misma tabla.

Para hallar el valor de ro adecuamos la ecuacion (4):

θReal = PFCReal ∗ rpc+ ro

6Considerando por ahora el valor de ro tan proximo que serıaniguales

DR PFCP θReal θObt rpc ro DObt Error

1 30 211 0.26682 0.26503 0.002413 0.040995 30.21 0.712 35 196 0.23013 0.22723 0.002793 0.042117 35.46 1.323 40 186 0.20220 0.20236 0.002888 0.039050 39.97 -0.084 45 178 0.18024 0.18346 0.002457 0.035998 44.19 -1.795 50 171 0.16255 0.16555 0.002304 0.036213 49.08 -1.846 60 159 0.13583 0.13670 0.002287 0.038334 59.61 -0.657 70 151 0.11661 0.11581 0.003014 0.040011 70.49 0.708 80 146 0.10214 0.10388 0.002089 0.037481 78.66 -1.689 90 141 0.09086 0.09045 0.003014 0.039627 90.42 0.46

10 100 138 0.08182 0.08298 0.002315 0.0380 98.59 -1.4111 110 134 0.07441 0.07503 0.001931 0.038594 109.09 -0.8312 120 131 0.06823 0.06707 0.003472 0.040372 122.08 1.7313 140 128 0.05850 0.06010 0.001658 0.037613 136.27 -2.6714 160 124 0.05121 0.04916 0.002582 0.041257 166.66 4.1715 180 122 0.04552 0.04369 0.002991 0.041047 187.57 4.2016 190 121 0.04313 0.04170 0.001578 0.040644 196.53 3.4417 210 118 0.03903 0.03523 0 0.04 232.64 10.78

Cuadro 2: Relacion entre el PFCP y los parametros para ob-tencion de DObt.

y despejamos el valor de ro:

ro = θReal − PFCReal ∗ rpc (7)

Usando la ecuacion anterior 7 para cada valor de la filadel cuadro 2 obtenemos un valor de rpc distinto, por lotanto para terminar de establecer la ecuacion procede-mos a obtener un valor promedio para las columnas rpcy ro los cuales seran conocidos como rpcprom y roprom. Fi-nalmente expresamos la ecuacion para el calculo de θ enfuncion de rpcprom y roprom:

θObt = PFCP ∗ rpcprom + roprom (8)

donde θObt expresa el valor de θ obtenido en tiempo real.Note que el valor de θObt depende de PFCProm debido aque rpcprom y roprom son constantes.

Calculo de la distancia en tiempo real

Para obtener la distancia hacia el objetivo [5], fue intro-ducido la ecuacion (8) en la ecuacion (2), tomando comounidad de medida cm:

DObt =h

tan(PFC ∗ rpcprom + roprom)(9)

donde PFC expresa la medida de pıxeles hacia el centroen el momento que se desea hacer la estimacion de dis-tancia, ambos obtenidos en tiempo real. Los valores denuestro calculo son:

d = 8,2

rpc = 0,002487006708

ro = 0,039212892130

El valor de PFC se obtiene en tiempo real cada vez que senecesite obtener el rango (distancia) hacia el objetivo.

Page 111: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

AREQUIPA - PERU SCGI-2009 6

(a) (b)

Figura 6: (a) Interface de usuario del sistema para el calculo de distancia, hecha enteramente en Qt4. (b) Imagen con datos sobrela posicion del punto laser y su distancia calculada.

5. Implementacion y analisis de re-sultados obtenidos

El diseno del sistema fue realizado con software libreusando Eclipse Galileo como IDE, Mingw como compi-lador, Qt4 [13] para el diseno de la interface (ver figura6(a)) y la librerıa Opencv1.1 [7] para el procesamiento devideo, la pruebas fueron desarrolladas y probadas en uncomputador convencional: Pentium IV, con procesadorIntel de 2.8Ghz y 1Gb de RAM. La webcam usada tieneuna resolucion de 1.3 hasta 5.2 M pixeles a una taza de30fps, 48dbs de ruido y un rango focal de 30mm al in-finito.

Luego de haber obtenido los parametros de la ecuacion(9) manualmente, el proceso de obtencion de distancia serealiza de manera interna en el sistema como sigue:

1. Se implemento la ecuacion (9) de la seccion anterior.

2. El sistema maneja una secuencia de vıdeo capturadapor la webcam del escaner.

3. Para realizar el calculo de distancia se obtiene unframe de la secuencia de vıdeo y se realiza unabusqueda del pıxel mas brillante en la imagen, obte-niendo ası sus coordenadas (x,y)7.

4. Se calcula internamente PFC como PFC = y −Alto de Imagen/2 y se aplica la ecuacion (9) para elcalculo de distancia, en la figura 6(b) se observa lasposiciones (x,y) y su respectivo calculo de distanciapara el punto laser fijado por un recuadro rojo.

Note que el proceso anterior se realiza internamente ysolo es ejecutado por el usuario por medio de la interfacedel sistema, se probo el sistema para las medidas determi-nadas en el cuadro 2, columna DR, y se obtuvo como re-sultado los datos mostrados en la columna DObt asociadoa su respectivo error obteniendo un porcentaje maximoerror de 4,20 para una distancia de 180cm y un porcentaje

7Se considera la posicion (0,0) en la parte superior izquierda de laimagen

mınimo de −0,08 para una distancia de 40cm. En la figura7 se puede ver la relacion entre la medida real y la medidacalculada por el sistema para cada uno de los datos delcuadro 2.

Limitaciones

Si bien los resultados son prometedores y el tiempo decalculo es casi instantaneo (menos de un segundo) el sis-tema presenta ciertas limitaciones:

El grado de efectividad en la deteccion del pıxel masbrillante se ve afectado en presencia de luz ambiente,por lo que se sugiere el uso de un ambiente contro-lado con poca luz para la realizacion de pruebas.

El alcance de calculo de nuestro sistema fue de unmınimo de 30cm (Distancias menores no pueden sercalculadas) y un maximo de 190cm (Distancias may-ores no puede ser calculadas), este alcance se ve in-fluenciado por la distancia entre la webcam y el pun-tero laser de modo directamente proporcional. Segunnuestras pruebas comprobamos que a mayor distan-cia Camara-Laser mayor sera el alcance mınimo ymaximo.

El sistema ha sido probado con objetos de superfi-cie plana y lisa. Es logico pensar que existira unadegradacion en la exactitud de estimacion cuandosean consideradas superficies rugosas no-planas,dado que la proyeccion del rayo laser sobre estas su-perficies se vera afectada.

6. Conclusiones y Trabajos Futuros

Se comprobo la funcionalidad y efectividad del escaner,implementando el modelo matematico, este sistemapuede verse mejorado intentando disenar configura-ciones y posiciones diferentes de escaner-laser. Creemosque se puede adaptar la configuracion del escaner paraconsiderar distancias mas grandes. Como parte impor-tante del trabajo de tesis, a ser realizada, consideraremos

Page 112: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

AREQUIPA - PERU SCGI-2009 7

Figura 7: Grafico de relacion entre los valores de D. Real y D. Obtenida para cada Numero de Prueba del cuadro 2.

el estudio de la influencia de diversas configuraciones delescaner en la estimacion de distancias.

El proceso de calibracion de camara es un paso im-portante para obtencion de informacion tridimensional,en este trabajo se realizo un proceso de calibracion enbase a homografıas, obteniendo relaciones lineales, sepropone realizar un estudio mayor de tecnicas de cali-bracion [10,16,17] procurando buscar mayor eficiencia eneste paso. Actualmente, con las pruebas realizadas, se ob-servo que el calculo de distancia no sufre mayor influ-encia por el proceso de calibracion de camara, existiendoindependencia entre ambos pasos. Nuestro estudio pos-terior tambien estara centrado en una mejor indagacionsobre este hecho. Seran consideradas diferentes config-uraciones de camaras con aparentes distorsiones, con lafinalidad de estimar la robustez de estimacion de distan-cias. Adicionalmente seran considerados los trabajos [11]y [12] con la intension de elaborar un modelo de Self-Calibration RangeFinder aplicando el modelo aquı desar-rollado. Es importante destacar que, si bien el proceso decalibracion de camara no tiene una relacion directa conel calculo de distancia, ambos pasos en conjunto poseeninformacion necesaria y efectiva para un trabajo poste-rior de reconstruccion superficial de objetos tridimen-sionales [6, 8, 9, 15]. En particular se puede configurar unnuevo modelo de escaner usando adicionalmente un se-gundo puntero laser y/o una segunda camara web quepermita la reconstruccion de escenas en 3D, manteniendoinformacion real de altura y profundidad, i.e. obtencionde escenas 3D donde tambien se tenga informacion realde sus dimensiones.

Referencias

[1] Y.I. Abdel-Aziz and H.M. Karara. Direct linear transfor-mation from comparator coordinates into object space co-ordinates in close-range photogrammetry. Proceedings ofthe Symposium on Close-Range Photogrammetry, pages 1–18,1971.

[2] J.-Y. Bouguet. Camera calibration toolbox for matlab.http://www.vision.caltech.edu/bouguetj/index.html,2008.

[3] D.C. Brown. Close-range camera calibration. Photogram-metric Engineering, 37(8):855–866, 1971.

[4] P. Campos D. Aracena and C. Tozzi. Comparacion detecnicas de calibracion de camaras digitales. Universidadde Tarapaca, 13(1):57–68, 2005.

[5] T. Danko. Webcam based DIY laser rangefinder.http://sites.google.com/site/todddanko/home/webcamlaser ranger, 2008.

[6] L. A. Frata Fernandes. Um metodo projetivo para calculode dimensoes de caixas em tempo real. Master’s thesis,Universidade Federal Do Rio Grande Do Soul, 2006.

[7] B. Gary and K. Adrian. Learning OpenCV: Computer Visionwith the OpenCV Library. O’Reilly, first edition, 2008.

[8] R.I. Hartley and A. Zisserman. Multiple View Geometry incomputer Vision. Cambridge University Press, second edi-tion, 2004.

[9] B. Jahne, H. HauBecker, and P. Geibler. HandBook of Com-puter Vision and Applications, volume third. AcademicPress, first edition, 1999.

[10] Q. A. Ji and Y. M. Zhang. Camera calibration with ge-netic algorithms. IEEE Trans. Systems, Man and Cybernetics,31(2):120–130, 2001.

[11] M. Kurisu, H. Muroi, and Y. Yokokohji. Calibration oflaser range finder with a genetic algorithm. pages 346–351.IEEE, 2007.

[12] D. D. Lichti. Self-calibration of a 3D range camera. In IS-PRS Congress, page B5: 927 ff, 2008.

[13] D. Molkentin. The Book of Qt 4. No Starch Press, first edi-tion, 2007.

[14] J.Y. Montiel, J.L. Lopez, and R. Hernandez. Estimacion dedistancias con un laser de linea y una camara. Cientıfica,11(3):129–134, 2007.

[15] N. Paragios, Y. Chen, and O. Faugeras. Handbook Of Math-ematical Models In Computer Vision. Springer-Verlag, firstedition, 2005.

[16] F. Remondino and C.S. Fraser. Digital camera calibrationmethods: Considerations and comparisons. volume 36,pages 266–272, 2006.

[17] G. G. SAVII. Camera calibration using compound genetic-simplex algorithm. Journal of optoelectronics and advancedmaterials, 6(4):1255–1261, 2004.

[18] M. Shah. Fundamentals of computer vision. University ofCentral Florida, 1997.

[19] L. G. Shapiro and G. C. Stockman. Computer Vision. Pren-tice Hall, 2001.

Page 113: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

CLEI 2011

Estimacion robusta de distancias mediante un

puntero laser y una camara web

Christian E. Portugal-Zambrano 1

Sociedad Peruana de ComputacionCatedra Concytec en Tecnologıas de la Informacion

Universidad Nacional de San Agustın – Arequipa, Peru

Jesus P. Mena-Chalco 2

Instituto de Matematica e EstatısticaUniversidade de Sao Paulo – Sao Paulo, Brasil

Resumen

En la actualidad existe un gran interes en el estudio de reconstrucciones tridimensionales a partirde imagenes digitales. La aplicacion de algoritmos fotogrametricos ha permitido mejoras relevantesen procesos de calibracion de camara, movimiento de objetos en escenas, recuperacion de formasa partir de sombras y profundidad en imagenes. El proceso de obtencion de distancia a partirde imagenes estaticas es muy importante para la determinacion de medidas de profundidad encualquier proceso de reconstruccion tridimensional de escenas. En este trabajo, se describe unaadaptacion de un prototipo de escaner elaborado en base a una camara web y un puntero laser debaja precision, aplicado a la determinacion robusta de distancias absolutas en imagenes obtenidasde secuencias de vıdeo en tiempo real. Se han realizado pruebas experimentales que demuestranla efectividad del calculo de distancias en tiempo real a traves de un simple modelo geometricoy un sistema de regresion lineal. Para un conjunto amplio de pruebas, realizadas con distintosparametros de escaner, se han obtenido buenos resultados de estimacion de distancias.

Palabras clave: fotogrametrıa, calibracion de camara, vision computacional, estimacion dedistancias.

1. Introduccion

La vista es uno de los principales sentidos usados por el hombre para mo-verse en el mundo. La cantidad de informacion que se recibe a traves de la

1 Email:[email protected] Email:[email protected]

Page 114: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

vision es incomparable con la de los demas sentidos, pero gran cantidad deinformacion ha logrado ser procesada gracias a los avances en el campo dela Vision por Computador. El proposito de la vision artificial (en el ambitode vision por computador) es programar un computador para que entiendalas caracterısticas de una imagen o construya una descripcion de la escena deuna imagen [28]. Para conseguir una descripcion de una escena, la vision porcomputador brinda tecnicas como reconocimiento de patrones, aprendizaje es-tadıstico, geometrıa proyectiva, procesamiento de imagenes, teorıa de graficos,entre otros. Una tecnica que esta tomando mas adeptos en el area de VisionComputacional, hoy en dıa, es la obtencion del rango en imagenes, la cual esdefinida como la distancia existente entre el objeto en la escena y el sensor decaptura de imagenes [8,10,11,13]. Este tipo de tecnica permite obtener infor-macion tridimensional de la escena como fondo, forma, y profundidad de losobjetos presentes. Muchas aplicaciones han sido creadas considerando infor-macion de profundidad, como por ejemplo deteccion de colisiones en robotsautonomos [2,10], aplicaciones en Ingenierıa Inversa usando sensores opticosde rango [15] y elaboracion de mapas de navegacion. Tambien fueron creadasaplicaciones en areas como control de calidad y planeamiento de almacena-je, este ultimo es de gran importancia para empresas que necesitan obtenermedidas de objetos tridimensionales para su manipulacion [8].

El presente trabajo, esta orientado hacia la estimacion robusta de dis-tancias absolutas, trabajo tratado en [6,7,8,21,24], en el cual se considerandispositivos de facil y economica adquisicion como el de una camara web deuso domestico y un puntero laser de bajo costo, utilizados para una estimacionrapida de distancias obtenidas del mundo real. Para el diseno del escaner, fuedispuesto tanto la camara web, como el puntero laser en formacion paralelapara la simplificacion de calculos de proyeccion. La principal ventaja de estaconfiguracion (denomınese escaner) es la utilizacion de componentes de bajorecurso economico y el bajo costo de complejidad computacional. Adicional-mente, fue realizado un estudio e implementacion de una tecnica de calibra-cion de camara como mejora al correcto computo de distancias. Como partecomplementaria, para este trabajo fue realizado la evaluacion de la robustezen estimacion de distancias en tiempo real. Este trabajo ha sido motivadoen parte por la necesidad de brindar una tecnica manual que satisfaga lasnecesidades de los investigadores en vision computacional y deseen construirsistemas de imagenes tridimensionales que cumplan las necesidades de susaplicaciones. En la actualidad estan emergiendo una variedad de aplicacionesque se fundamentan en la rapidez, eficiencia y bajo costo [14].

El presente artıculo esta organizado de la siguiente manera: en la Seccion 2estan descritos brevemente los trabajos previos relacionados a estimacion dedistancias. En la Seccion 3 se presenta el procedimiento usado para la ca-libracion de la camara. El escaner considerado y la geometrıa del modelo

2

Page 115: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

estan detallados en la Seccion 4. Finalmente, la implementacion, analisis yconclusiones obtenidos de los resultados se describen en las Secciones 5 y 6,respectivamente.

2. Trabajos Previos

Hasta ahora en la literatura se han tratado diversos trabajos relacionadoscon la estimacion de distancias usando dispositivos tales como una camaraweb y un puntero laser. A seguir describimos brevemente los trabajos previosmas representativos relacionados con el tema:

Calibracion de camara en corto alcance (1971) [4]. En este trabajo se esta-blece la importancia de la estimacion de distancias cercanas fotogrametricaspara la obtencion de medidas de estructuras, esto dio origen a tecnicas fo-togrametricas mas refinadas las cuales fueron aplicadas a la obtencion demedidas de antenas parabolicas.

Adquisicion de distancias 3D a traves de la absorcion diferencial de la luz(2002) [18]. Este trabajo relata la obtencion de informacion tridimensionalde objetos que han sido inmersos en un lıquido coloreado y a su vez fueronirradiados por una fuente de luz circular, la intensidad es una funcion derango con la adicion de otros parametros como la orientacion de la superficie,la posicion de las fuentes de luz, las caracterısticas espectrales del lıquido yla posicion del observador.

Un telemetro de bajo costo basado en ultrasonido (2002) [13]. En este trabajose presenta un metodo de bajo costo para la estimacion de rango basado enacustica el cual provee alta velocidad y precision. El metodo esta basado enel tiempo de demora de la senal recibida con respecto a la senal transmitidacausada por distancia entre el receptor y el transmisor.

Un sensor con capacidad sensitiva y selectiva de luz para la estimacion ro-busta de distancias (2004) [22]. En el trabajo desarrollado por Oike se pre-senta un array de sensores de 120x110 pıxeles que puede detectar la posicionde una luz de baja intensidad proyectada en una superficie no uniforme paraun sistema de telemetrıa. En este trabajo, los autores han logrado recons-truir tridimensionalmente un objeto utilizando un barrido de escaner.

Un metodo proyectivo para el calculo de dimensiones de cajas en tiempo real(2006) [8]. Este trabajo describe un metodo preciso para la computacion dedimensiones de cajas en tiempo real, utilizando un enfoque de geometrıaproyectiva la cual usa informacion de las siluetas de la caja y de la pro-yeccion de dos punteros laser sobre una de las caras de la caja, lograndoası obtener sus dimensiones en tiempo real. La efectividad de este trabajofue demostrada por medio de un prototipo de escaner que implemento sumetodo.

3

Page 116: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

Autocalibracion extrınseca de una camara para la estimacion de distancia deescenas naturales (2007) [27]. En este trabajo se describe un nuevo enfoquede calibracion extrınseca de una camara con un escaner de obtencion dedistancia, para ello utiliza puntos de correspondencia seleccionados por unusuario a partir de una escena obtenida por dos sensores, luego de haberdado los puntos de correspondencia la calibracion extrınseca es realizadacon un algoritmo lineal seguido por un proceso de refinamiento no lineal.

Estimacion de distancias con un laser de lınea y una camara (2007) [21].En este trabajo se describe un sistema de escaner-laser, compuesto por unacamara y un puntero laser, el cual proyecta una linea horizontal que rastreatodo el objeto y determina si un obstaculo esta lejos o cerca del escaner, laidea general era poder estimar la distancia al objeto en base a la diferenciade ubicacion del reflejo del puntero laser en la imagen. En este trabajo sedescribio el efecto de que, a menor distancia el reflejo del laser se aproximaa la parte inferior de la imagen y a mayor distancia se acerca al centro dela imagen.

Telemetro webcam (2007) [6]. En el trabajo de T. Danko se explica la ne-cesidad de disenar dispositivos ligeros en peso, debido a que en algunasaplicaciones, como la robotica aerea, el peso es un tema muy importante.Este trabajo describe como se puede configurar un laser de baja precisioncon una camara web de bajo costo con la finalidad de proveer una maquinade vision con informacion de rango.

Existen varios aspectos a tener en cuenta a la hora de comparar los resul-tados obtenidos por una u otra tecnica, siendo la precision de los resultados lamas importante. En ese sentido, fue adoptado la calibracion de camara pro-puesta por Abdel-Aziz y Karara [1] quienes fueron los pioneros en desarrollarla Transformacion Lineal Directa (Direct Linear Transformation, DLT). Mastarde Karara, en 1979, mejoro el metodo para tener en cuenta las distorsio-nes opticas. La simplicidad del modelo y los buenos resultados obtenidos hanhecho que se extienda el uso de esta tecnica en la comunidad cientıfica.

En este trabajo, tomando los avances de [8], se modifico la tecnica deobtencion de distancia en base a la idea propuesta por [6,21]. Considerandoestas dos propuestas, junto con un proceso previo de calibracion de la cama-ra, se elaboro un esquema de obtencion de distancia que brinda informaciontridimensional (profundidad) en tiempo real 3 .

3 La version previa, que sirvio de base para este trabajo, fue presentada en el II Concurso deTrabajos de Tesis de pregrado en Computacion Grafica y Procesamiento de Imagenes [24].

4

Page 117: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

3. Calibracion de camara y correccion de imagenes

La calibracion de camaras ha sido siempre un componente de medida fo-togrametrico, utilizado especialmente en la obtencion de rangos con alta pre-cision [25]. Con el objetivo de extraer informacion metrica 3D confiable delas imagenes, como paso previo a una reconstruccion tridimensional de movi-miento y recuperacion de forma [23], comunmente es necesaria la realizacionde un procedimiento de orientacion y de calibracion precisa de camara [3],

Para nuestro proposito, el concepto de calibracion de camara se entiendecomo la existencia de una relacion directa entre las coordenadas de la imageny coordenadas del objeto relativas al centro de la camara, pero sin embargola posicion de la camara en el espacio no es necesariamente conocida.

Mucho trabajo se ha realizado en el calibrado de camaras, algunos au-tores propusieron el uso de algoritmos geneticos [16,26] y tambien en el prey post procesamiento de los datos. Desde un punto de vista practico, algu-nos autores sugieren el metodo basado en una plantilla bidimensional comoel mas facil de realizar [5] y que obtiene buenos resultados. La orientacion dela camara incluye la determinacion de los parametros de ubicacion externospara definir su estado y su eje en un sistema de coordenadas de alto orden,generalmente llamado Sistema de coordenadas del mundo. Para ello utilizamosla deteccion de tres parametros traslacionales y tres parametros rotacionalespor cada camara 4 . Vea en [24] una descripcion del proceso de calibracion decamara utilizado. Para la implementacion de nuestra propuesta se ha usadoOpenCV [9] y se han validado los resultados de calibracion con la herramientaCamera Calibration Toolbox [3].

Figura 1. Modelo de escaner utilizado en este trabajo (basado en el modelo propuesto en [6]). Veaen [24] una implementacion y validacion del modelo propuesto en [6].

4 En nuestro sistema estamos considerando el uso de una sola camara web de uso domestico.

5

Page 118: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

Figura 2. Esquema de disposicion camara-laser. La distancia D es obtenida en base la proyeccionde puntero laser sobre la superfıcie (figura adaptada de [6]).

4. Estimacion de distancia

En esta seccion se detalla el escaner utilizado para la obtencion de distanciahacia un objeto de superficie plana. En la Figura 1 se muestra la disposicion dela camara web y puntero laser. Esta configuracion mantiene ambos objetos enforma paralela, permitiendo ası el rapido calculo de distancias reales a partirde un simple modelo.

Geometrıa del modelo

Observe en la Figura 2 un esquema utilizado para el calculo de distancias.La distancia entre la camara web y el puntero laser es definida por H (medidaen cm), la distancia entre el escaner y el objeto de superficie plana es definidapor D (tambien en cm). Observese tambien que, la representacion de la escenaen la imagen formada por el lente de la camara web es de tamano A′B′ , siendoque AB representa la misma escena en tamano real. Por otro lado, la distanciadesde el centro de la imagen hasta la posicion del reflejo del puntero laseren la imagen puede ser definida como pfc (pixels from center), siendo que θrepresenta el angulo de vision (en radianes) formado por la recta de proyecciondel reflejo del puntero laser en la imagen y el eje de la camara.

Con este esquema podemos establecer la siguiente relacion:

D =H

tan θ(1)

Debemos considerar que, de la relacion planteada se puede obtener el totalde pıxeles por grado de luz entrante, aquı denominado rpc (radian per pixelpitch), logrando ası convertir cada pıxel en la imagen a su correspondiente

6

Page 119: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

valor en centımetros. La siguiente ecuacion muestra rpc en relacion con θ:

θ = pfc ∗ rpc (2)

Debido a la existencia de posibles deformaciones de la lente en la camara web,en la Ecuacion 2 se debe de considerar tambien un parametro de permita lacorreccion de alineacion, aquı denominado ro (radian offset):

θ = pfc ∗ rpc+ ro (3)

Para obtener los valores de rpc y ro utilizamos un modelo de ajuste linealpara hallar la relacion entre una variable dependiente Y con k variables expli-cativas xk, los cuales generen un hiperplano de parametros β. Generalmenteeste modelo lineal es definido como:

Y =∑

βkXk + ε (4)

donde ε es la perturbacion aleatoria que recoge todos aquellos factores dela realidad no controlables y/o observables. Para este calculo aplicamos unmodelo de regresion lineal por lo que solo se cuenta con dos parametros: θ esconsiderada la variable dependiente y pfc la variable independiente. El modeloa resolver cumple la siguiente ecuacion general:

Y = mX + b (5)

con

m =n∑xy −∑

x∑y

n∑x2 − (

∑x)2

, b =

∑y −m

∑x

n,

donde n, es el total de muestras utilizadas; m, es la pendiente de la rectade regresion (en nuestro modelo representa al valor de rpc); b, es el valororiginado por factores no controlados (representa a ro) y Y representa a θ(para hallar m y b se utilizan los valores de θ y pfc reales)

Para obtener la distancia hacia el objetivo, se introduce la Ecuacion 3 enla Ecuacion 1, tomando como unidad de medida cm:

D =H

tan(pfc ∗ rpc+ ro)(6)

Denominamos a esta ultima formulacion como la Ecuacion de estimacion dedistancia. En la Figura 3 se presenta un resumen del esquema del flujo de datosdel sistema. Debemos de notar que, para lograr estimar distancias primero sedebe de calibrar el escaner apenas una unica vez (con una camara calibrada ono). Notese tambien que, en el proceso de calibracion del escaner son obtenidoslos valores correspondiente a rpc y ro.

7

Page 120: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

Cálculo de distancia

Detección del punto láser en

la imagen

Calibración de cámara

Calibración por

homografías

Obtención de los parámetros de corrección

Secuencia deimágenes

en tiempo real (frames),Distancia

Cámara-Láser (H) y conjunto de

Distancias reales Escáner-Objeto (D)

Cálculo del modelo de

regresión lineal

Distancia Escáner-Objeto

Cálculo del ángulo de visión (θ)

para cadadistancia (D)

Nueva secuencia de Imágenes en tiempo real

(frames)

Corrección de imagen

Calibración de la distancia

Cálculo de pfc para cada imagen

Calibración del escáner

Estimación de la distancia

Imagen Corregida

Parámetros internosde la cámara

Patrones ChessBoard

Esquina de lospatrones

Parámetros calibradosde la ecuación de distancia

Conjunto de datos a aplicar al modelo de regresión

Valor pfc para cada imagen de consulta

Figura 3. Diagrama esquematico de flujo de datos del sistema creado. Cada bloque representa unmodulo mientras que cada flecha representa el flujo de datos entre cada modulo.

Deteccion del punto laser en la imagen

Definimos punto laser como el reflejo de la luz emitida por el puntero laseren un objeto y capturado en una imagen por la camara web. Para nuestrotrabajo, se ha utilizado un laser que emite luz roja y su deteccion en la imagenes considerada como una forma de introducir profundidad en la imagen. Elproceso de deteccion se ve influenciado por (i) la presencia de iluminacion en elambiente de trabajo; (ii) la textura del objeto apuntado con el laser, ası comosu color y (iii) el tamano del reflejo del puntero laser en la imagen (varıa enfuncion de la proximidad del escaner hacia el objeto, a mayor distancia, menortamano).

En trabajos previos, como en [8], se ha utilizado dos punteros laser clase IIcon una longitud de onda de 650nm para realizar una proyeccion. En [21], J.Y. Montiel y colaboradores, utilizaron un laser de linea clase II de 633-670nmcon la finalidad de obtener distancias a objetos aplicando barrido de linea.Para nuestro trabajo se ha utilizado una modificacion de un puntero laserClase II de color rojo con 630-650nm de longitud de onda.

En [6,24] la deteccion de la posicion del reflejo del punto laser fue hechaa partir del color rojo en los canales RGB, este procedimiento se ve afectado

8

Page 121: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

con la presencia de objetos del mismo color ası como tambien la presencia dealta incidencia de luz. Una solucion eficiente fue propuesta en [8], donde setrato la utilizacion de informacion de luminancia en la imagen considerandoel formato de canales Y’CbCr. En [24] se observo que el reflejo del punto laseren la imagen muestra un desplazamiento vertical en relacion con la distanciaescaner-objeto, a mayor distancia la ubicacion del punto laser se aproxima ala mitad de la imagen y a menor distancia se aproxima a la parte inferior dela imagen. Dada esta caracterıstica, la deteccion del punto laser en la imagen(en su representacion Y’CbCr) puede ser realizada apenas para una sub-regionde la imagen que esta localizada en la mitad inferior de la imagen, evitandoası busquedas innecesarias del punto laser en la totalidad de la imagen.

5. Pruebas y analisis de la propuesta

El diseno del sistema fue implementado con software libre usando EclipseGalileo como IDE, Mingw como compilador en sistemas Windows y GCC4en sistemas Linux, Qt4 [20] para el diseno de la interface y la librerıaOpenCV2.1 [9] para el procesamiento de imagenes y vıdeo. Las pruebas fue-ron desarrolladas en un computador portatil: AMD TurionX2x64 de 2.4Ghzcon 4Gb de RAM. La camara web usada tiene una resolucion de 1.3 hasta5.2M pıxeles a una tasa de 30fps, 48dbs de ruido y un rango focal de 30mm alinfinito. Vea en la Figura 4 dos capturas de pantalla de la interface de usuariocreada. Para obtener una medida de distancia se necesita el reflejo del punterolaser en la imagen, esto genera una distancia mınima cuando se ubica en laparte inferior central y una distancia maxima en la parte central de la imagen.El modelo del sistema ha sido probado considerando alternativamente unacamara calibrada y una camara no calibrada.

Han sido utilizadas distintas medidas de H (separacion entre camara web y

(a) (b)

Figura 4. Interface de usuario del sistema para el calculo de distancia. (a) Cuadro de dialogo parala entrada de datos. (b) Conjunto de datos utilizados para la calibracion de los parametros de laecuacion de distancia (Obtencion de rpc y ro).

9

Page 122: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

Nro. H Resolucion CamaraCalibrada

Dist. Min. Dist. Max. Nro. muestras MAE

1 10 320x240 No 26 121 20 1.3308

2 10 320x240 Si 27 142 24 1.2867

3 20 320x240 No 52 192 29 1.1880

4 20 320x240 Si 53 198 30 0.9447

5 25 320x240 No 70 195 26 1.1656

6 25 320x240 Si 75 195 25 0.5633

7 25 352x288 No 73 193 25 0.5681

8 25 352x288 Si 73 193 25 0.5590

9 25 640x480 No 71 196 26 0.8122

10 25 640x480 Si 72 197 26 0.7510

Cuadro 1Conjunto de parametros utilizados para la realizacion de pruebas. Ejemplo: En el conjunto 7 seha utilizado una distancia H de 25cm a una resolucion de 352x288 utilizando una camara sin

calibrar, considerando 25 muestras, linealmente separadas por 5cm, para el modelo de regresion.La muestra va desde una distancia mınima de 73 hasta 193cm.

puntero laser), distintas resoluciones de imagen y distintas muestras de datosusadas en el modelo de regresion. Para la obtencion de muestras utilizadas enel modelo de regresion, perteneciente a la calibracion del escaner, se consideraun parametro de salto S que expresa la diferencia entre cada muestra obtenidadel mundo real.

En el Cuadro 1 se muestran los parametros utilizados para la realizacionde las pruebas. Todos las muestras, utilizadas en el modelo de regresion, fue-ron obtenidas considerando S = 5cm. Para cada una de las configuracionesutilizadas en el Cuadro 1 se ha calculado la diferencia entre la distancia realy la distancia obtenida por el escaner para cada muestra del conjunto (errorabsoluto de aproximacion) para luego obtener el promedio de error para cadaecuacion.

Un analisis al Cuadro 1 nos muestra que, cuando la medicion de distanciase realiza con una camara web calibrada, el error de aproximacion es menorcomparado al obtenido cuando se utiliza una camara web sin calibrar. Esto

Nro. S Dist. Min. Dist. Max. Nro. Datos MAE

1 5 68 353 58 4.3361

2 10 68 348 29 5.9259

3 20 68 328 14 5.0719

4 40 68 308 7 5.2168

5 50 68 318 6 5.3089

Cuadro 2Conjuntos de muestras de regresion variables obtenidos con distintos valores de S. Fue utilizada

una camara web no calibrada y con resolucion de 320x240.

10

Page 123: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

S = 5 S = 10

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

S = 20 S = 40

0 5 10 15 20 25 30 35 40 45 50 55 6050

100

150

200

250

300

350

400

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida

S = 50

Figura 5. Grafica de comparacion entre distancias reales y distancias obtenidas de las muestrasobtenidas para cada una de las configuraciones descritas en el cuadro 2.

es debido a la correccion de la imagen por medio de los parametros internosobtenidos en la calibracion de la camara. De esa forma, los valores de pfc co-rregidos (correctamente ubicados), permiten una mayor robustez en el calculode distancias.

Otro punto a considerar en la evaluacion de robustez de estimacion dedistancia es la cantidad de muestras usadas para el modelo de regresion. Lacantidad de muestras depende del valor del parametro de paso S (a menor va-lor de S mayor cantidad de datos y viceversa). Vea en el Cuadro 2 las pruebas

11

Page 124: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

Figura 6. Esquema de una espiral en relacion al objetivo, utilizada para la evaluacion de estimacionde distancias. Cada marca en el espiral representa una distancia real hacia el objeto.

realizadas con distintos valores de S. Un analisis de las muestras en el Cua-dro 2 permite observar que los valores de errores de aproximacion son mayoresque los obtenidos en el Cuadro 1. Esto nos indica empıricamente que, para ob-tener un modelo de estimacion de distancia robusto se debe de utilizar valorespequenos de S. En la Figura 5 son presentadas cinco graficas de comparacionentre la distancia real y la distancia obtenida para los distintos valores de Sindicados en el Cuadro 2. Observese que a mayor distancia Escaner-Objetoel calculo de distancia posee un grado mayor de error, esto es debido a queel punto laser se encuentra en la parte central de la imagen y su tamano esmas pequeno lo que conlleva a que el proceso de deteccion del punto laser seamenos preciso.

La robustez del sistema propuesto tambien fue evaluada considerando es-

0 5 10 15 20 25 30 35 40 45 50 55 60100

110

120

130

140

150

160

Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obtenida (SC)

Dist. Obtenida (CC)

Figura 7. Comparacion entre los datos de distancia real y su respectiva distancia obtenida por elescaner con una camara no calibrada (SC) y calibrada (CC).

12

Page 125: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

timaciones de distancias siguiendo un movimiento en espiral. Para ello se ge-nero un modelo a escala y se definio valores reales de distancia aleatorios alo largo de la misma. En la Figura 6 se puede observar un esquema de lapreparacion del espiral y su relacion con el objetivo. Para la calibracion delescaner se ha utilizado los parametros descritos en la fila Nro. 1 mostradosen el Cuadro 2. Seguidamente, se procedio a ubicar el escaner en cada marcaindicada con un punto rojo en el espiral, obteniendo su correspondiente me-dida de distancia. Este conjunto de distancias obtenidas en cada marca delespiral se comparo con sus valores reales. En la Figura 7 se muestra todas lasestimaciones de distancias, comparadas con su valor real. El error promediode aproximacion (MAE) fue de 0,5392cm y MAPE de 0,82 %con una camarano calibrada y presenta un MAE de 0,4295cm y MAPE de 0,53 % con unacamara calibrada.

Figura 8. Esquema de una escena en donde el escaner se ubica en un eje fijo y se obtienen distintasdistancias hacia varios objetivos.

Otra manera de comprobar la robustez del sistema fue realizando un ba-rrido a una escena como la descrita en la Figura 8, en donde se selecciono unaserie de distancias aleatorias a objetos a partir de un eje fijo. Cada linea re-presenta una medida de distancia hacia un objetivo y para cada una de ellasse obtuvo una distancia por medio del escaner. Notese que, la estimacion dedistancia se realiza para un punto determinado en el objeto sin considerarla posicion de este respecto al escaner. Los resultados comparativos entre lasdistancias reales y las distancias obtenidas por el escaner con una camara webcalibrada y no calibrada son mostrados en la Figura 9.

De esta ultima prueba podemos observar el alto grado de aproximacionde las distancias obtenidas por el escaner. El error promedio de aproximacion(MAE) fue de 0,8613cm y MAPE de 0,824 % para una camara no calibrada ypresenta un MAE de 0,6492cm y MAPE de 0,557 % con una camara calibrada.

13

Page 126: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

0 2 4 6 8 10 12 14 16 18 2060

80

100

120

140

160

180

Nro Muestra

Dis

tanc

ia (

cm)

Dist. Real

Dist. Obt. (SC)

Dist. Obt. (CC)

Figura 9. Comparacion entre los datos de distancia real y su respectiva distancia obtenida por elescaner para los datos obtenidos del esquema mostrado en la Figura 8.

Limitaciones

Si bien los resultados son prometedores y el tiempo de calculo es casi ins-tantaneo (milisegundos) el sistema presenta ciertas limitaciones:

La ubicacion del punto laser en la imagen genera una distancia mınima(punto laser en la parte infe rior central de la imagen) y una distanciamaxima (parte central de la imagen) esto es proporcional a H (distanciacamara-laser) por lo que para variar el rango de distancia a utilizar se debede modificar la distancia H en el escaner. Note que la disposicion actual delescaner disenado permite contornar esta limitacion.

El sistema ha sido probado con objetos de superficie plana, lisa y opaca.Creemos que existira una degradacion en la exactitud de estimacion cuandosean consideradas superficies rugosas no-planas, dado que la proyeccion delpuntero laser sobre estas superficies es afectada.

6. Conclusiones y Trabajos Futuros

Se ha comprobado la funcionalidad y efectividad del escaner implemen-tando el modelo matematico y el software necesario para su uso, a diferenciacon nuestro trabajo previo realizado en [24], en este trabajo se ha mejoradoel diseno del escaner y se ha probado el mismo con distintas configuracionesen sus parametros. Se ha probado que se puede adaptar la configuracion delescaner para considerar distancias mas grandes. La deteccion del punto laseren la imagen es un paso importante para el proceso de estimacion de distancia,en este trabajo se ha utilizado un formato de colores Y’CbCr, a diferencia delformato RGB utilizado en [24], y se ha probado que este formato permite unadeteccion del punto laser mas precisa en ambientes menos controlados utiliza-dos en el trabajo anterior, logrando ası que este paso sea mejorado. Creemos

14

Page 127: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

que la utilizacion de una camara web con infrarojo aumentarıa la vision eidentificacion del punto laser.

Si bien el proceso de calibracion de camara no tiene una relacion directacon el proceso de estimacion de distancia, en este trabajo se ha probado queel aplicar un factor de correccion a la imagen en base a los parametros decalibracion de camara obtenidos, se obtiene una mejora en la estimacion dedistancia disminuyendo el grado de error en las medidas obtenidas. Aquı elproceso de calibracion de camara se realizo en base a homografıas, obteniendorelaciones lineales. En los proximos pasos, realizaremos un estudio mayor detecnicas de calibracion [16,25,26] procurando buscar mayor eficiencia en esteproceso. Adicionalmente, pueden ser considerados los trabajos [17,19] con laintencion de elaborar un modelo de telemetro autocalibrado aplicado sobre elmodelo aquı desarrollado.

Es importante destacar que, el proceso de calibracion de camara y elde estimacion de distancia, ofrecen en conjunto, informacion necesaria yefectiva para un trabajo posterior de reconstruccion superficial de objetostridimensionales [8,12,15,23]. En particular se puede configurar un nuevomodelo de escaner usando adicionalmente un segundo puntero laser (dado queambos punteros esten separados una distancia ) y/o una segunda camara webque permita la reconstruccion de escenas en 3D, manteniendo informacionreal de altura y profundidad, i.e. obtencion de escenas 3D donde tambiense tenga informacion real de sus dimensiones y ademas creemos que estametodologıa puede ser usada en aplicaciones de robotica movil y amplia-mente usada en la estimacion de medidas reales de objetos en escenas digitales.

Agradecimientos. Este trabajo conto con el apoyo de la Catedra Concytec en TICs dela Universidad Nacional de San Agustın a quienes les agradecemos por el soporte en el laboratorioy equipos de computo, necesarios para el desarrollo e implementacion de los modelos presentadosen este trabajo, y al Consejo Nacional de Ciencia y Tecnologıa.

Referencias

[1] Y.I. Abdel-Aziz and H.M. Karara. Direct linear transformation from comparator coordinatesinto object space coordinates in close-range photogrammetry. Proceedings of the Symposiumon Close-Range Photogrammetry, 1:1–18, 1971.

[2] H. Baltzakis, A. A. Argyros, and P. Trahanias. Fusion of laser and visual data for robot motionplanning and collision avoidance. Machine Vision and Applications, 15(2):92–100, 2003.

[3] J. Y. Bouguet. Matlab camera calibration toolbox. In Technical Report, 2000.

[4] D.C. Brown. Close-range camera calibration. Photogrammetric Engineering, 37(8):855–866,1971.

[5] P. Campos D. Aracena and C. Tozzi. Comparacion de tecnicas de calibracion de camarasdigitales. Universidad de Tarapaca, 13(1):57–68, 2005.

[6] T. Danko. Webcam based DIY laser rangefinder.http://sites.google.com/site/todddanko/home/webcam laser ranger, 2007.

15

Page 128: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Portugal Z. - Mena Ch.

[7] A. Derhgawen. Obstacle detector using webcam and laser pointer.http://ashishrd.blogspot.com/2006/11/obstacle-detector-using-webcam-and.html, 2011.

[8] L. A. Frata Fernandes. Um metodo projetivo para calculo de dimensoes de caixas em temporeal. Master’s thesis, Universidade Federal Do Rio Grande Do Soul, 2006.

[9] B. Gary and K. Adrian. Learning OpenCV: Computer Vision with the OpenCV Library.O’Reilly, first edition, 2008.

[10] N. Gonzales. Sistema de vision por computadora para la medicion de distancia e inclinacionde obstaculos para robots moviles. Pontificia Universidad Javeriana: Facultad deIngenieria,9(2):125–134, 2005.

[11] Yann Goyat, Thierry Chateau, and Laurent Trassoudaine. Tracking of vehicle trajectory bycombining a camera and a laser rangefinder. Mach. Vis. Appl, 21(3):275–286, 2010.

[12] R.I. Hartley and A. Zisserman. Multiple View Geometry in computer Vision. CambridgeUniversity Press, second edition, 2004.

[13] H. Hua, Y. Wang, and D. Yan. A low-cost dynamic range-finding device based on amplitude-modulated continuous ultrasonic wave. Instrumentation and Measurement, IEEE Transactionson, 51(2):362–367, 2002.

[14] K.F. Hulme, E.M. Kasprzak, K.E. Lewis, D. Moore-Russo, P. Singla, and D.P. Fuglewicz.Game-based experiential learning in dynamics education using motion simulation. In TheInterservice/Industry Training, Simulation & Education Conference (I/ITSEC), volume 2010.NTSA, 2010.

[15] B. Jahne, H. HauBecker, and P. Geibler. HandBook of Computer Vision and Applications,volume third. Academic Press, first edition, 1999.

[16] Q. A. Ji and Y. M. Zhang. Camera calibration with genetic algorithms. IEEE Trans. Systems,Man and Cybernetics, 31(2):120–130, 2001.

[17] M. Kurisu, H. Muroi, and Y. Yokokohji. Calibration of laser range finder with a geneticalgorithm. pages 346–351. IEEE, 2007.

[18] D. Laurendeau, R. Houde, M. Samson, and D. Poussart. 3d range acquisition throughdifferential light absorption. Instrumentation and Measurement, IEEE Transactions on,41(5):622–628, 2002.

[19] D. D. Lichti. Self-calibration of a 3D range camera. In ISPRS Congress, page B5: 927 ff, 2008.

[20] D. Molkentin. The Book of Qt 4. No Starch Press, first edition, 2007.

[21] J.Y. Montiel, J.L. Lopez, and R. Hernandez. Estimacion de distancias con un laser de linea yuna camara. Cientıfica, 11(3):129–134, 2007.

[22] Y. Oike, M. Ikeda, and K. Asada. A 120x110 position sensor with the capability of sensitiveand selective light detection in wide dynamic range for robust active range finding. Solid-StateCircuits, IEEE Journal of, 39(1):246–251, 2004.

[23] N. Paragios, Y. Chen, and O. Faugeras. Handbook Of Mathematical Models In ComputerVision. Springer-Verlag, first edition, 2005.

[24] C. Portugal-Zambrano and J. P. Mena-Chalco. Estimacion de distancias absolutas utilizandoun puntero laser y una camara web. In II Concurso de trabajos de Pregrado en CGI - IIISimposio Peruano de Computacion Grafica y Procesamiento de Imagenes, SCGI-2009, Dec.28–29 2009.

[25] F. Remondino and C.S. Fraser. Digital camera calibration methods: Considerations andcomparisons. In IAPRS, editor, ISPRS Commission V Symposium Image Engineering andVision Metrology, volume 36, pages 266–272, 2006.

[26] G. G. SAVII. Camera calibration using compound genetic-simplex algorithm. Journal ofoptoelectronics and advanced materials, 6(4):1255–1261, 2004.

[27] D. Scaramuzza, A. Harati, and R. Siegwart. Extrinsic self calibration of a camera and a 3dlaser range finder from natural scenes. In Intelligent Robots and Systems, 2007. IROS 2007.IEEE/RSJ International Conference on, pages 4164–4169. IEEE, 2007.

[28] L. G. Shapiro and G. C. Stockman. Computer Vision. Prentice Hall, 2001.

16

Page 129: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Índice alfabético

Autocalibración, 26

Cálculo de error, 58Calibracion

de cámara, 21fotométrica, 26métodos estándar de, 26paso principal de, 42por algoritmos genéticos, 27por estereoscopía, 27y corrección de imágenes, 40

Chroma, 14Chrominance, 14color

Espacio RGB de, 15Espacio Y’CbCr de, 15Espacios de, 13

computacionalvisión, 7

Deteccióndel punto láser, 30

DistorsiónCorrección de la, 46modelos de, 43

Distorsionde lentes, 27radial, 28tangencial, 29

EscánerGeometría del modelo de, 49Modelo de, 48Obtención de rpc y ro, 51

Espacio Proyectivo, 11Estimación de distancia

Cálculo de, 52Proceso de, 48

Fotogrametría, 16

Gamut, 14

Homografíascalibración en base a, 41detección de esquinas, 41

Hue, 14

imagenprocesamiento de, 8rango en, 16

Implementacióndel sistema, 55

Luminance, 14

Marcación Láser, 30

Parámetrosextrínsecos, 24intrínsecos, 24, 25

Pinhole, 5, 22

113

Page 130: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

ÍNDICE ALFABÉTICO 114

profundidadpercepción de, 9

proyectivageometría, 10, 25Transformación, 13

Pruebas y análisis, 55

Regresión Lineal, 51

Saturation, 14

Trabajos Previos, 17

Page 131: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

Bibliografía

[Abdel-Aziz and Karara, 1971] Abdel-Aziz, Y. and Karara, H. (1971). Direct linear trans-formation from comparator coordinates into object space coordinates in close-range pho-togrammetry. Proceedings of the Symposium on Close-Range Photogrammetry, 1:1–18. 19,41

[B. Cyganek, 2009] B. Cyganek, J. P. S. (2009). An Introduction to 3D Computer VisionTechniques and Algorithms. John Wiley and Sons. 21, 26

[Baltzakis et al., 2003] Baltzakis, H., Argyros, A. A., and Trahanias, P. (2003). Fusion oflaser and visual data for robot motion planning and collision avoidance. Machine Visionand Applications, 15(2):92–100. 1, 3

[Bigun, 2006] Bigun, J. (2006). Vision with Direction:A Systematic Introduction to ImageProcessing and Computer Vision. Springer. 13

[Bouguet, 2000] Bouguet, J. Y. (2000). Matlab camera calibration toolbox. In TechnicalReport. 21, 29, 40, 45

[Brown, 1971] Brown, D. (1971). Close-range camera calibration. Photogrammetric Engi-neering, 37(8):855–866. 3, 16, 17

[D. Aracena and Tozzi, 2005] D. Aracena, P. C. and Tozzi, C. (2005). Comparación detécnicas de calibración de cámaras digitales. Universidad de Tarapacá, 13(1):57–68. 21,24, 40

[Danko, 2007] Danko, T. (2007). Webcam based DIY laser rangefinder. xii, 2, 3, 19, 20, 48,50

[Derhgawen, 2008] Derhgawen, A. (2008). Obstacle detector using webcam and laser pointer.http://ashishrd.blogspot.com/2006/11/obstacle-detector-using-webcam-and.html. 2, 3

[Fernandes, 2006] Fernandes, L. A. F. (2006). Um método projetivo para cáculo de dimen-sões de caixas em tempo real. Master’s thesis, Universidade Federal Do Rio Grande DoSoul. 1, 2, 17, 19, 20, 30, 32, 34, 36, 69

[Fisher et al., 1999] Fisher, R., Ashbrook, A., Robertson, C., and Werghi, N. (1999). A low-cost range finder using a visually located, structured light source. In 3-D Digital Imagingand Modeling, 1999. Proceedings. Second International Conference on, pages 24–33. IEEE.18

115

Page 132: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

BIBLIOGRAFÍA 116

[Gary and Adrian, 2008] Gary, B. and Adrian, K. (2008). Learning OpenCV: ComputerVision with the OpenCV Library. O’Reilly, first edition. x, x, 21, 22, 23, 27, 55

[Gonzales, 2005] Gonzales, N. (2005). Sistema de visión por computadora para la medi-ción de distancia e inclinación de obstáculos para robots móviles. Pontificia UniversidadJaveriana: Facultad deIngenieria, 9(2):125–134. 1, 3

[Goyat et al., 2010] Goyat, Y., Chateau, T., and Trassoudaine, L. (2010). Tracking of vehicletrajectory by combining a camera and a laser rangefinder. Mach. Vis. Appl, 21(3):275–286.1

[Hartley and Zisserman, 2004] Hartley, R. and Zisserman, A. (2004). Multiple View Geo-metry in computer Vision. Cambridge University Press, second edition. 23, 25, 26, 69

[Hua et al., 2002] Hua, H., Wang, Y., and Yan, D. (2002). A low-cost dynamic range-findingdevice based on amplitude-modulated continuous ultrasonic wave. Instrumentation andMeasurement, IEEE Transactions on, 51(2):362–367. 1, 18

[Hulme et al., 2010] Hulme, K., Kasprzak, E., Lewis, K., Moore-Russo, D., Singla, P., andFuglewicz, D. (2010). Game-based experiential learning in dynamics education usingmotion simulation. In The Interservice/Industry Training, Simulation & Education Con-ference (I/ITSEC), volume 2010. NTSA. 2

[Jahne et al., 1999] Jahne, B., HauBecker, H., and Geibler, P. (1999). HandBook of Com-puter Vision and Applications, volume third. Academic Press, first edition. 1, 69

[Jarvis, 1983] Jarvis, R. A. (1983). A perspective on range finding techniques for computervision. Pattern Analysis and Machine Intelligence, IEEE Transactions on, I(2):122–139.18

[Ji and Zhang, 2001] Ji, Q. A. and Zhang, Y. M. (2001). Camera calibration with geneticalgorithms. IEEE Trans. Systems, Man and Cybernetics, 31(2):120–130. 21, 26, 27, 40,69

[Joblove and Greenberg, 1978] Joblove, G. H. and Greenberg, D. (1978). Color spaces forcomputer graphics. Computer Graphics, 12(3):20–25. 14

[Kurisu et al., 2007] Kurisu, M., Muroi, H., and Yokokohji, Y. (2007). Calibration of laserrange finder with a genetic algorithm. In Genetic Algorithm, pages 346–351. IEEE. 26,27, 69

[Laurendeau et al., 2002] Laurendeau, D., Houde, R., Samson, M., and Poussart, D. (2002).3d range acquisition through differential light absorption. Instrumentation and Measure-ment, IEEE Transactions on, 41(5):622–628. 18

[Lewis and Johnston, 1977] Lewis, R. and Johnston, A. (1977). A scanning laser rangefinderfor a robotic vehicle. In Proc. 5th Int. Joint Conf. on Art. Intel., pages 762–768. 3, 17

Page 133: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

BIBLIOGRAFÍA 117

[Li, 2010] Li, F.-F. (2010). Stanford university cs 223b: Introduction to computer vision.http://vision.stanford.edu/teaching/cs223b/. x, x, 8, 9

[Lichti, 2008] Lichti, D. D. (2008). Self-calibration of a 3D range camera. In ISPRS Congress,page B5: 927 ff. 24, 69

[Molkentin, 2007] Molkentin, D. (2007). The Book of Qt 4. No Starch Press, first edition.55

[Montiel et al., 2007] Montiel, J., López, J., and Hernández, R. (2007). Estimación de dis-tancias con un láser de linea y una cámara. Científica, 11(3):129–134. 2, 3, 19, 20, 30

[Oike et al., 2004] Oike, Y., Ikeda, M., and Asada, K. (2004). A 120x110 position sensorwith the capability of sensitive and selective light detection in wide dynamic range forrobust active range finding. Solid-State Circuits, IEEE Journal of, 39(1):246–251. 19

[Paragios et al., 2005] Paragios, N., Chen, Y., and Faugeras, O. (2005). Handbook Of Mat-hematical Models In Computer Vision. Springer-Verlag, first edition. 21, 40, 69

[Portugal-Zambrano and Mena-Chalco, 2009] Portugal-Zambrano, C. and Mena-Chalco,J. P. (2009). Estimación de distancias absolutas utilizando un puntero láser y una cá-mara web. In II Concurso de trabajos de Pregrado en CGI - III Simposio Peruano deComputación Gráfica y Procesamiento de Imágenes, SCGI-2009. 2, 16, 20, 30, 32, 33, 48,68

[Poynton, 2011] Poynton, C. (2011). Frequently asked question about color.http://www.poynton.com/PDFs/ColorFAQ.pdf. 15

[R. Sendra, 2011] R. Sendra, L. Alvarez, L. G. (2011). Algebraic lens distortion modelestimation demo. http://mw.cmla.enscachan.fr/megawave/demo/lens_distortion/. 24,28

[Remondino and Fraser, 2006] Remondino, F. and Fraser, C. (2006). Digital camera cali-bration methods: Considerations and comparisons. In IAPRS, editor, ISPRS CommissionV Symposium Image Engineering and Vision Metrology, volume 36, pages 266–272. 3, 21,24, 40, 69

[Saint-Marc et al., 1991] Saint-Marc, P., Jezouin, J., and Medioni, G. (1991). A versatile pc-based range finding system. Robotics and Automation, IEEE Transactions on, 7(2):250–256. 18

[Savii, 2004] Savii, G. G. (2004). Camera calibration using compound genetic-simplex algo-rithm. Journal of optoelectronics and advanced materials, 6(4):1255–1261. 21, 26, 27, 40,69

[Scaramuzza et al., 2007] Scaramuzza, D., Harati, A., and Siegwart, R. (2007). Extrinsicself calibration of a camera and a 3d laser range finder from natural scenes. In IntelligentRobots and Systems, 2007. IROS 2007. IEEE/RSJ International Conference on, pages4164–4169. IEEE. 19

Page 134: INGENIERO DE SISTEMAS · 7.1 Conjunto de parámetros utilizados para la realización de pruebas. Ejemplo: En el conjunto 7 se ha utilizado una distancia H de 25cm a una resolución

BIBLIOGRAFÍA 118

[Shah, 1997] Shah, M. (1997). Fundamentals of computer vision. University of CentralFlorida. 9, 16

[Shapiro and Stockman, 2001] Shapiro, L. G. and Stockman, G. C. (2001). Computer Vi-sion. Prentice Hall. 1, 7, 8, 9

[Slama, 1980] Slama, C. C. (1980). Manual of Photogrammetry. Book. 16

[Strickon, 1999] Strickon, J. A. (1999). Design and HCI applications of a low-cost scan-ning laser rangefinder. Master’s thesis, Massachusetts Institute of Technology, Dept. ofelectrical Engineering and Computer Science. 3, 18

[Surmann et al., 2001] Surmann, H., Lingemann, K., Nüchter, A., and Hertzberg, J. (2001).A 3D laser range finder for autonomous mobile robots. IEEE ASSP Magazine, 1:153–158.3

[Surmann et al., 2003] Surmann, H., Nüchter, A., and Hertzberg, J. (2003). An autonomousmobile robot with a 3D laser range finder for 3d exploration and digitalization of indoorenvironments. Robotics and Autonomous Systems, 45(3-4):181–198. 3

[Taylor and Probert, 1996] Taylor, R. and Probert, P. (1996). Range finding and featureextraction by segmentation of images for mobile robot navigation. In Robotics and Au-tomation, 1996. Proceedings., 1996 IEEE International Conference on, volume 1, pages95–100. IEEE. 18

[Tsai, 1986] Tsai, R. (1986). An efficient and accurate camera calibration technique for 3dmachine vision. In Proc. IEEE Conf. on Computer Vision and Pattern Recognition, 1986.26

[Unnikrishnan and Hebert, 2008] Unnikrishnan, R. and Hebert, M. (2008). Fast extrinsiccalibration of a laser rangefinder to a camera. In CMU Robotics Institute. 24