UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
FACULTAD DE INGENIERÍA
INGENIERÍA CATASTRAL Y GEODESIA
EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA
GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES
MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO
KAREN TATIANA DUARTE JIMÉNEZ
BOGOTÁ
FEBRERO DE 2018
2
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
FACULTAD DE INGENIERÍA
INGENIERÍA CATASTRAL Y GEODESIA
EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA
GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES
MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO
KAREN TATIANA DUARTE JIMÉNEZ
PROYECTO DE GRADO COMO REQUISITO PARCIAL PARA OPTAR AL
TÍTULO DE INGENIERO CATASTRAL Y GEODESTA
DIRECTOR
Ph. D. ERIKA SOFÍA UPEGUI CARDONA
BOGOTÁ, COLOMBIA
FEBRERO DE 2018
3
NOTA DE ACEPTACIÓN
_______________________
_______________________
_______________________
_______________________
__________________________________
FIRMA DEL DIRECTOR
ERIKA SOFÍA UPEGUI CARDONA
__________________________________
FIRMA DEL JURADO
__________________________________
FIRMA DEL JURADO
BOGOTÁ D.C. FEBRERO DE 2018
4
Tabla De Contenido
1. Introducción ..................................................................................................................... 8
2. Definición Del Problema .................................................................................................. 9 3. Justificación .................................................................................................................... 11 4. Objetivos ........................................................................................................................ 13
4.1. Objetivo General ........................................................................................................... 13
4.2. Objetivos Específicos .................................................................................................... 13
5. Marco Referencial .......................................................................................................... 13 5.1. Marco Teórico ............................................................................................................ 13
5.1.1. Plataformas UAV ................................................................................................ 13
5.1.2. Proceso fotogramétrico ....................................................................................... 16
5.1.3. Imágenes multiespectrales................................................................................... 26
5.1.4. Modelos Digitales De Elevación ......................................................................... 28
5.1.5. Ortofotomosaicos ................................................................................................ 28
5.2. Estado Del Arte .......................................................................................................... 29
5.3. Marco geográfico ........................................................................................................ 35
6. Materiales ....................................................................................................................... 38
6.1. Vehículo Aéreo No Tripulado .................................................................................... 38
6.2. Sensores ...................................................................................................................... 39
6.3. Antena De Recepción Topcon GR-5 .......................................................................... 40
6.4. Controlador Topcon FC 2600 ..................................................................................... 42
6.5. Navegador Garmin GPSMAP 64s .............................................................................. 42
6.6. Software De Procesamiento........................................................................................ 43
6.6.1. Mission Planner ................................................................................................... 43
6.6.2. Inpho.................................................................................................................... 44
6.6.3. Imagine Photogrammetry (LPS) ......................................................................... 45
6.6.4. Agisoft PhotoScan ............................................................................................... 46
6.6.5. Pix4D Mapper ..................................................................................................... 49
6.6.6. Drone2Map.......................................................................................................... 50
7. Metodología ................................................................................................................... 51 7.1. Fase 1: Documentación e Investigación ..................................................................... 53
7.2. Fase 2: Operativa ........................................................................................................ 54
7.3. Fase 3: Análisis ........................................................................................................... 54
8. Resultados ...................................................................................................................... 55 8.1. Proceso Fotogramétrico: Primera Etapa ..................................................................... 55
5
8.2. Selección de Softwares y Trámite de Licencias ......................................................... 59
8.3. Proceso Fotogramétrico: Segunda Etapa .................................................................... 60
8.3.1. Procesado de datos con softwares convencionales ............................................. 61
8.3.2. Segundo control terrestre .................................................................................... 71
8.3.3. Procesado de datos con softwares orientados a los UAV’s ................................ 73
9. Análisis de Resultados ................................................................................................... 87
9.1. Precisión Geométrica .................................................................................................. 88
9.2. Calidad Visual ............................................................................................................ 89
9.3. Tiempo De Procesamiento .......................................................................................... 99
9.4. Facilidad De Uso ...................................................................................................... 100
9.5. Costo ......................................................................................................................... 100
10. Conclusiones ................................................................................................................ 101 11. Bibliografía................................................................................................................... 103
Índice De Figuras
Figura 1. Modelo de vuelo fotogramétrico .............................................................................. 19 Figura 2. Segmentos GNSS ...................................................................................................... 22
Figura 3. Calibración del UAV en posición horizontal y vertical ............................................ 24 Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas
individuales ................................................................................................................................... 25
Figura 5. Espectro electromagnético ........................................................................................ 27
Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal
de una ortofoto (derecha) .............................................................................................................. 29
Figura 7. Mapa de la zona de estudio ....................................................................................... 37 Figura 8. UAV TAROT 680 PRO ............................................................................................ 38 Figura 9. Cámaras Canon PowerShot A2300 .......................................................................... 40
Figura 10. Energía electromagnética percibida por el sensor .................................................. 40 Figura 11. Receptor Topcon GR-5 ........................................................................................... 41 Figura 12. Controlador Topcon FC 2600 ................................................................................. 42 Figura 13. Navegador Garmin GPSMAP 64s .......................................................................... 43
Figura 14. Flujo metodológico ................................................................................................. 52 Figura 15. Plan de vuelo ........................................................................................................... 56
Figura 16. Control terrestre ...................................................................................................... 57 Figura 17. Toma de GCP (marcas físicas artificiales) en campo ............................................. 57 Figura 18. Fotografías aéreas en condiciones de neblina ......................................................... 58 Figura 19. UAV en ejecución del vuelo y en aterrizaje ........................................................... 58 Figura 20. Datos GPS/IMU registrados en un vuelo ................................................................ 59
Figura 21. Distribución de GCP ............................................................................................... 60 Figura 22. Definición de parámetros de la cámara en Inpho ................................................... 62 Figura 23. Importación de datos GPS/IMU y asignación de desviaciones en Inpho ............... 63
Figura 24. Importación de coordenadas de GCP y asignación de desviaciones en Inpho ....... 63
6
Figura 25. Asignación de fotografías correspondientes por línea de vuelo en Inpho .............. 64 Figura 26. Visualización de líneas de vuelo, fotografías y GCP en Inpho .............................. 64 Figura 27. Localización de los GCP en Inpho ......................................................................... 65 Figura 28. Inicialización de la orientación externa en Inpho ................................................... 66
Figura 29. Error en ajuste fotogramétrico en Inpho ................................................................. 66 Figura 30. Alteración en la visualización de líneas de vuelo, fotografías y GCP en Inpho ..... 67 Figura 31. Definición de parámetros de la cámara en LPS ...................................................... 68 Figura 32. Carga de datos GPS/IMU por fotografía en LPS .................................................... 68 Figura 33. Localización de los GCP en LPS ............................................................................ 69
Figura 34. Visualización de GCP y fotografías en LPS ........................................................... 69 Figura 35. Error en la generación automática de puntos tie en LPS ........................................ 70 Figura 36. Error en triangulación en LPS ................................................................................ 70 Figura 37. Toma de GCP (marcas físicas naturales) en campo ............................................... 72
Figura 38. Carga de datos GPS/IMU por fotografía en Agisoft PhotoScan ............................ 74 Figura 39. Parámetros de la cámara detectados por Agisoft PhotoScan .................................. 75
Figura 40. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados ..... 77 Figura 41. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados y
fotoidentificados ........................................................................................................................... 78
Figura 42. Proceso en Agisoft PhotoScan para el Vuelo 2 NIR G B con GCP preseñalizados 78 Figura 43. Carga de datos GPS/IMU por fotografía en Pix4D Mapper ................................... 79
Figura 44. Definición de parámetros de la cámara en Pix4D Mapper ..................................... 80 Figura 45. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados ........... 82 Figura 46. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados y
fotoidentificados ........................................................................................................................... 82 Figura 47. Proceso en Pix4D Mapper para el Vuelo 2 NIR G B con GCP preseñalizados ..... 83
Figura 48. Carga de datos GPS por fotografía en Drone2Map ................................................ 84 Figura 49. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados ................ 86
Figura 50. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados y
fotoidentificados ........................................................................................................................... 86
Figura 51. Proceso en Drone2Map para el Vuelo 2 NIR G B con GCP preseñalizados ......... 87 Figura 52. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP
preseñalizados ............................................................................................................................... 90 Figura 53. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP
preseñalizados y fotoidentificados ................................................................................................ 91 Figura 54. Comparación de ortofotomosaicos obtenidos del Vuelo 2 NIR G B con GCP
preseñalizados ............................................................................................................................... 92
Índice De Tablas
Tabla 1. Características de UAV TAROT 680 PRO ............................................................... 38 Tabla 2. Especificaciones de la cámara Canon PowerShot A2300 ......................................... 39 Tabla 3. Especificaciones generales del receptor Topcon GR-5 ............................................. 41 Tabla 4. Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s .... 43 Tabla 5. Funcionalidades por módulo en Inpho ...................................................................... 45 Tabla 6. Funcionalidades de Agisoft PhotoScan en Versión Estándar y Versión Profesional 48
7
Tabla 7. Requisitos mínimos y recomendados del sistema para el uso de Drone2Map ......... 50 Tabla 8. Parámetros para la planeación del vuelo ................................................................... 55 Tabla 9. Coordenadas de los GCP preseñalizados .................................................................. 60 Tabla 10. Características de los equipos usados en la ejecución de los paquetes
fotogramétricos ............................................................................................................................. 61 Tabla 11. Número de fotografías identificadas para cada GCP .............................................. 71 Tabla 12. Características y coordenadas de los GCP fotoidentificados .................................. 72 Tabla 13. Parámetros usados en el procesamiento de Agisoft PhotoScan .............................. 78 Tabla 14. Parámetros usados en el procesamiento de Pix4D Mapper ..................................... 83
Tabla 15. Parámetros usados en el procesamiento de Drone2Map ......................................... 87 Tabla 16. RMSE de GCP y reproyección de acuerdo al software y proceso .......................... 89 Tabla 17. Comparación de errores visuales para los ortofotomosaicos en RGB .................... 93 Tabla 18. Comparación de errores visuales para los ortofotomosaicos en NIR G B .............. 94
Tabla 19. Información de los subprocesos y producto final ................................................... 96 Tabla 20. Imágenes calibradas por procesamiento.................................................................. 97
Tabla 21. Visualización de calibración de imágenes en los modelos de Pix4D Mapper y
Drone2Map ................................................................................................................................... 98 Tabla 22. Tiempos de procesamiento ...................................................................................... 99
8
1. Introducción
El creciente y constante avance tecnológico ha incursionado en las últimas décadas en la
creación de nuevas técnicas fotogramétricas mediante el desarrollo de Vehículos Aéreos No
Tripulados; sistemas con ventajas y resultados excepcionales en contraste con las técnicas
tradicionales que parten del uso de plataformas aéreas tripuladas, tales como datos espaciales
precisos, generación de datos de forma periódica, bajo costo, aplicaciones en inspección,
reconocimiento y cartografía con alta resolución espacial y temporal (Uysal, Toprak, & Polat,
2015), captura de imágenes aéreas en zonas de difícil acceso o inaccesibles (Peternel, Kumelj,
Oštir, & Komac, 2017), facilidad de despliegue en campo de los puntos de control terrestres y
medición de los mismos al usarse típicamente esta clase de vehículos para escalas espaciales más
pequeñas que en los levantamientos aéreos convencionales (James, Robson, d’Oleire-Oltmanns,
& Niethammer, 2017), y finalmente su significancia como medio complementario entre las
adquisiciones terrestres y aéreas clásicas (Popescu, Iordan, & Păunescu, 2016), entre otros.
En conjunto y paralelo al desarrollo de tecnologías para la captura de fotografías aéreas, surge
el progreso de paquetes de software fotogramétricos con compilación de los principios de la
fotogrametría digital tradicional y un énfasis hacia el procesamiento de datos capturados con
Vehículos Aéreos No Tripulados (Gonçalves & Henriques, 2015), fundamentados mediante un
algoritmo conocido como “estructura del movimiento” para la identificación de patrones en las
imágenes e impulsado por una lógica de producción automatizada (Turner, Harley, & Drummond,
2016), que permite una reducción de tiempo de hasta un 80% en comparación con métodos
tradicionales (P. Zarco, Diaz, Angileri, & Loudjani, 2014).
9
En este trabajo de grado se aplicaron procesos fotogramétricos desde trabajos de campo en el
Parque Nacional Natural Chingaza con la toma de fotografías aéreas multiespectrales capturadas
por un Vehículo Aéreo No Tripulado TAROT 680 PRO equipado con cámaras digitales Canon
PowerShot A2300 y la toma de datos de puntos de control terrestres, hasta trabajos de oficina con
el procesamiento de imágenes para la reconstrucción de geometría tridimensional de la escena,
georreferenciación, generación de Modelos Digitales de Superficie y finalmente ortofotomosaicos;
esto mediante el uso de diferentes softwares tanto convencionales como orientados a Vehículos
Aéreos No Tripulados a modo de comparación en resultados como la precisión geométrica y
calidad visual, y factores intrínsecos de los mismos como el costo, la facilidad de uso y el tiempo
de procesamiento.
2. Definición Del Problema
“Actualmente, los sensores remotos aéreos y satelitales son formas comunes para adquirir datos
de monitoreo de recursos naturales en la mayoría de países, pero ellos no son lo suficientemente
efectivos, rápidos y exactos” (Xing, Wang, & Xu, 2010),esto debido a que el procesamiento de los
datos no se da en tiempo real, esto es, las imágenes generalmente se procesan fuera de línea en su
llegada a la estación terrestre (en el caso de los satélites) o después del aterrizaje (Wischounig &
Rinner, 2015), sumado al hecho de que cada vez se requieren datos con mayor resolución espacial
para múltiples aplicaciones. Adicional a ello, “la adquisición de imágenes por parte de satélites y
vehículos aéreos tripulados muestra algunas limitaciones, como los altos costos de
lanzamiento/vuelo, adquisición de datos lenta y dependiente del clima, maniobrabilidad restringida
y disponibilidad limitada”(Cesetti et al., 2011).
10
Tal y como lo expresan Hunt et al., 2010 el costo elevado en la adquisición de imágenes por
medio de vehículos aéreos tripulados se debe principalmente al uso de cámaras de formato amplio,
que evidentemente poseen un costo mayor que las cámaras convencionales debido a su propósito.
Además de “la dificultad técnica implicada en la captura de imágenes frecuentes de un área
geográfica determinada”(Zarco et al., 2008). Es así, que para solventar los inconvenientes que
poseen las técnicas de adquisición de imágenes tradicionales (costo, tiempo, detalle), este proyecto
de grado pretende hacer uso de un Vehículo Aéreo No Tripulado (cuyas siglas en inglés son UAV)
para llevar a cabo un levantamiento fotogramétrico.
En general, y teniendo en cuenta las principales desventajas de la adquisición de imágenes por
plataformas aéreas y satelitales, se optará por realizar este levantamiento en una zona cuyas
condiciones medioambientales hacen difícil la obtención de imágenes por métodos
convencionales, para así demostrar si los UAV son una alternativa para la toma de datos en esta
clase de condiciones, tal y como lo describen distintos trabajos (Xing et al., 2010).
De tal forma, y con base en la afirmación de Hunt et al., 2010 se usará una cámara convencional
a bordo de un UAV para la captura de imágenes multiespectrales en el páramo de Chingaza, más
específicamente con centro en las coordenadas 4º44’52.23’’ N, 73º51’19.38 W con un área de
estudio aproximada de una hectárea. Se escoge esta zona, principalmente por las condiciones
climáticas que impiden realizar un monitoreo constante de una zona endémica y de vital
importancia para la preservación del recurso hídrico, sumado al hecho que se trata de una extensión
con cobertura vegetal significativa y que acorde a la revisión bibliográfica, tal condición limita la
obtención de productos cartográficos libres de error, dada la complejidad de llevar a cabo la
correspondencia de imágenes en la cual se basa la actual fotogrametría digital, de esta manera se
11
espera evaluar la posibilidad de lograr productos con buena precisión a partir de imágenes tomadas
con UAV en una zona que trae complicaciones como esta.
Como resultado se busca obtener un mosaico de ortofotos generadas con las imágenes
capturadas de este levantamiento, esto gracias al procesamiento en cinco softwares
fotogramétricos con el fin de demostrar que este método de adquisición de imágenes permite
generar diferentes productos cartográficos. Finalmente, y con el fin de realizar una aproximación
a un usuario interesado por cualquier ortomosaico generado con imágenes tomadas por un UAV,
se realizará una comparación en cuanto a las características obtenidas de cada producto en los
softwares usados, a fin de establecer acorde a las necesidades y características particulares del
usuario, cuál sería el software más adecuado para tal obtención.
3. Justificación
Los UAV’s son vehículos motorizados de control remoto que pueden ser manejados de forma
autónoma o semi-autónoma, por lo que la principal diferencia respecto a otros vehículos es la
ausencia de un piloto dentro del vehículo, sin embargo se requiere de una tripulación responsable
de este. Por ende, la fotogrametría de UAV puede ser entendida como una nueva herramienta de
medición fotogramétrica que hace uso de una plataforma controlada de forma remota, bien sea de
una forma automática o semi-automática (Eisenbeiß, 2009), o también, vista como un
complemento a la fotogrametría de aviones tripulados con la capacidad de disponer de soluciones
rápidas sin mayor infraestructura alguna (Gomez & Purdie, 2016). No obstante, Uysal et al., 2015
afirman que el uso de los UAV’s se establece como una alternativa a la captura tradicional de datos
dirigida a aplicaciones cartográficas con alta resolución espacial y temporal, además de representar
bajos costos con respecto a la fotogrametría clásica. En este sentido, ante a la creciente demanda
12
de adquisición de imágenes aéreas con alta resolución, y la dificultad de uso y consumo de tiempo
explicados por la carencia de información auxiliar suficientemente precisa (Gross & Heumann,
2016), se ha revolucionado actualmente el sector aeroespacial con la aplicación de los UAV’s
como solución a las falencias mencionadas en términos de adquisición y procesamiento de datos
espaciales (Fernández & Gutiérrez, 2016), esto en conjunto con las demás ventajas características
de tales vehículos como lo son: el acceso a entornos peligrosos para la vida humana, la inexistencia
de permisos de control aéreos para vuelos de baja altitud en gran parte de los países, la obtención
de productos y datos de posicionamiento con alta calidad y precisión (Xing et al., 2010), la
habilidad para adquirir económica y sistemáticamente conjuntos de fotografías aéreas en altitudes
entre los 10 y los 100 metros (Vollgger & Cruden, 2016), la minimización de los errores humanos
reduciendo de esa manera posibles accidentes, la maniobrabilidad de alto rendimiento, amplio
rango de uso (Vogeltanz, 2016) en inspección, vigilancia, reconocimiento y cartografía en tiempo
real; hace que la fotogrametría con UAV sea no sólo importante en la geomática sino también en
otras disciplinas (Uysal et al., 2015), ejemplo de ello es su aplicación en los ámbitos forestales,
agrícolas, medioambientales, arqueológicos y arquitectónicos, en gestión de emergencias y
vigilancia del tráfico (Nex & Remondino, 2014).
Dada la amplia utilización de las imágenes adquiridas con UAV’s, y los diferentes softwares
propuestos en el mercado, este trabajo de grado busca evaluar el rendimiento y desempeño para la
generación de productos cartográficos en cinco softwares fotogramétricos, a saber, Inpho, Imagine
Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map, a través de la
evaluación de los ortofotomosaicos producidos, esto basado en el avance computacional de los
últimos años que ha permitido la incursión de la fotogrametría con UAV (James et al., 2017).
13
4. Objetivos
4.1. Objetivo General
Evaluar el desempeño de distintos softwares para la generación de ortofotomosaicos a partir
de imágenes multiespectrales tomadas con un vehículo aéreo no tripulado.
4.2. Objetivos Específicos
1. Realizar las actividades relativas a la señalización y materialización de los puntos de control
terrestres, que permitirán realizar posteriormente el ajuste de las imágenes capturadas de la
zona de estudio.
2. Obtener un ortomosaico desarrollado en cinco softwares fotogramétricos (a saber Inpho,
Imagine Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map) a partir
del levantamiento realizado en la zona de estudio.
3. Realizar una comparación cuantitativa y cualitativa entre los productos cartográficos
obtenidos por cada software acorde a las características propias de éstos con fines de la
elección del usuario a adquirir los productos cartográficos obtenidos por este medio.
5. Marco Referencial
5.1. Marco Teórico
5.1.1. Plataformas UAV
Las plataformas UAV en su habilidad para la adquisición de fotografías aéreas a resoluciones
que no pueden lograrse por medio de las técnicas tradicionales (Vollgger & Cruden, 2016); dados
los vuelos a altitudes significativamente más bajas en un orden de menos de 100 metros sobre el
14
nivel del suelo para unas resoluciones espaciales finas de hasta 1 centímetro (Gross & Heumann,
2016), hacen que su uso se haya intensificado específicamente en las geociencias (Vollgger &
Cruden, 2016). Sumado al hecho de que los UAV son una alternativa efectiva en términos de
costos para el proceso de adquisición de imágenes (Gross & Heumann, 2016); siendo menos
costosas las plataformas y los costos operativos que los aviones tripulados por lo general
(Eisenbeiß, 2009), que pueden acceder a zonas peligrosas o de difícil acceso para las aeronaves
tripuladas (Gross & Heumann, 2016), que aún en condiciones de tiempo nublado es posible la
adquisición de datos en caso que la distancia al objeto permita volar por debajo de las nubes;
situación que bajo las mismas condiciones climáticas y el uso de aviones tripulados no permitiría
la captura de datos al requerirse una mayor altura de vuelo sobre el suelo (Eisenbeiß, 2009).
Adicionalmente, la facilidad para la medición en campo y despliegue de los puntos de control
terrestres al usarse en áreas significativamente menores que en el caso de los levantamientos
convencionales (James et al., 2017), y finalmente su capacidad para la consecución rápida de datos
y en tiempo real a la estación de control terrestre (Eisenbeiß, 2009), hacen que los UAV sean
ampliamente utilizados actualmente.
En este sentido, “los UAV’s se presentan como tecnologías muy prometedoras que seguirán
influyendo en el desarrollo de la geomática en los próximos años, cerrando la brecha entre
adquisiciones terrestres y aéreas clásicas” (Popescu et al., 2016). De esta manera la combinación
de métodos fotogramétricos con los UAV’s proporcionan los datos necesarios para la creación de
productos cartográficos como Modelos Digitales de Superficie (DSM), Modelos Digitales de
Elevación (DEM) (Gomez & Purdie, 2016), nubes de puntos en 3D (Yucel & Turan, 2016), mapas
topográficos con alta precisión usados para levantamientos catastrales (Lee & Sung, 2016), así
como para la rectificación de imágenes y sus derivados que bien pueden ser mosaicos de imágenes
15
o mapas utilizados en la interpretación de imágenes (Eisenbeiß, 2009). De acuerdo a
Nikolakopoulos, Soura, Koukouvelas, & Argyropoulos, s. f. los estudios demuestran que los
productos en mención pueden lograr una gran exactitud y ser usados para realizar mediciones
precisas pese a las fuentes de error que pueden incluir los trabajos basados en UAV’s; y es así que
en esencia, para la adquisición de datos espaciales de forma productiva y segura se debe hacer
desde el diseño planificado y de la inclusión de capacidad flexible de gestión de misión en tiempo
real, los instrumentos a emplear para su consecución (Colomina & Molina, 2014), Dichos
elementos, representan un papel trascendental en la automatización del procesamiento de datos,
que permiten la reducción de esfuerzo y tiempos invertidos en los procesos (Popescu et al., 2016).
Por otro lado y acorde a las aplicaciones geomáticas, los UAV’s pueden clasificarse en
consonancia a su motor o sistema de propulsión en plataformas sin potencia y plataformas
accionadas, y alternativamente según sus características aerodinámicas y físicas en plataformas
más ligeras que el aire, de ala rotativa (Nex & Remondino, 2014); vehículos de despegue y
aterrizaje verticales (Gabrlik, 2015), y de ala fija (Nex & Remondino, 2014); siendo estos dos
últimos tipos de plataformas distinguidos por sus capacidades de alcance, donde los UAV’s de ala
rotativa poseen un corto alcance (hasta de 2 Km) y son utilizados para misiones de escala local, en
contraste a los UAV’s de ala fija que son caracterizados por una precisión de largo alcance (Gomez
& Purdie, 2016) con un rango de hasta decenas de kilómetros (Gabrlik, 2015); por lo que en una
escala regional su uso es más apropiado al permitir la cobertura de grandes áreas en un corto
periodo de tiempo (Gomez & Purdie, 2016). Cabe adicionar que autores como Bemis et al., 2014
afirman que “para estudios que requieren una alta resolución, los UAV’s de ala rotativa tienen
ventajas significativas respecto a los UAV’s de ala fija, porque estos pueden volar a alturas
excepcionalmente bajas con cámaras que son generalmente de mayor calidad (respecto al tamaño
16
del vehículo) montadas en una plataforma estable”. Sin embargo, se destaca de los UAV’s de ala
fija su estabilidad inherente y su fácil maniobrabilidad; siendo controlados remotamente sin
ninguna estabilización, esto en comparación con los de ala rotativa cuyas turbinas no son estables
y hacen necesario el uso de algún tipo de sistema de estabilización ya sea mecánico o electrónico
(Gabrlik, 2015).
Adicional a lo anterior, los UAV se pueden clasificar de acuerdo al tamaño o peso, altura
máxima de vuelo, duración del mismo y resistencia; donde el último aspecto se encuentra
influenciado por la autonomía del vuelo, la disponibilidad del enlace del radio para controlar el
avión y el enlace de telemetría; en clases de micro, mini, clases de corto, medio y largo alcance,
así como de baja, media y alta altitud (Eisenbeiß, 2009).
Teniendo en cuenta las características previas en mención no se puede obviar el hecho que el
uso de los UAV’s como herramienta para la captura de imágenes se encuentra aún limitada, ya
sea por la propias limitaciones técnicas de los mismos como es el caso del rango o capacidades de
vuelo, por la necesidad de contar aún con puntos de control terrestres para la obtención de una alta
precisión, por las más recientes leyes de aviación debido al auge de los vehículos aéreos citados,
o por las condiciones de luz y climáticas (Gomez & Purdie, 2016); o en general influencias
ambientales que inciden en la alteración de los ángulos de posición que ocasionan vistas en
perspectivas arbitrarias (Wischounig & Rinner, 2015).
5.1.2. Proceso fotogramétrico
La fotogrametría siendo por lo general, una rama de la ciencia orientada al procesamiento de
información a partir de fotografías, se ocupa de la reconstrucción de formas, medición del tamaño
y posición de los objetos visibles en las mismas. De ésta se desencadena no solamente la
17
fotogrametría aérea en sus clases sino que también se encuentra la fotogrametría que utiliza datos
terrestres o fotográficos espaciales, haciendo así uso de diversas tecnologías y métodos de
procesamiento que han marcado una progresión histórica partiendo desde técnicas analógicas y
analíticas hasta técnicas digitales y automáticas (Gabrlik, 2015).
En lo concerniente a la teledetección; definida como aquella técnica que “supone la observación
exterior de la superficie terrestre” (Chuvieco, 1995) a distancia y posible gracias a algún tipo de
interacción existente entre los objetos y el sensor a través de un flujo energético que constituye
una forma de radiación electromagnética. En sus orígenes espaciales se tenían factores
diferenciales frente a la fotogrametría aérea, siendo el caso que en teledetección los sensores CCD
(Dispositivos de Acoplamientos de Cargas) permitían el trabajo en una amplia gama de radiaciones
en el espectro electromagnético, mientras que en fotogrametría las cámaras analógicas usadas para
entonces se limitaban al espectro visible únicamente. En cuanto a la resolución espacial para la
fotogrametría la altura de vuelo y calidad fotográfica hacía que ésta alcanzara un valor inferior a
0,10 m; muy por debajo de la teledetección que contaba con valores superiores a 10 m por su
dependencia del tipo de sensor y los parámetros orbitales de los satélites. Hoy en día la concepción
entre estos términos es otra, pues se reconoce que la fotogrametría hace parte de la teledetección
y la evolución sobre estos ha hecho que los factores diferenciales en mención desaparezcan, esto
a causa de que la fotogrametría ha incorporado sensores CCD y que la teledetección ha alcanzado
resoluciones espaciales inferiores al metro (Hernández, 2006).
Haciendo énfasis en la fotogrametría aérea, Gabrlik, 2015 sostiene que hablar de su desarrollo
requiere remontarse a más de cien años atrás con la toma de las primeras fotografías en globos de
aire caliente y aviones tripulados que permitieron el progreso técnico constante, a tal punto que,
en la actualidad difícilmente se encuentra un lugar en la Tierra que no haya sido mapeado, lo
18
anterior gracias a la implementación de satélites, aviones tripulados diseñados con fines
cartográficos y más recientemente de manera innovadora el uso de los UAV’s como una alternativa
para mapear rápidamente un área local con bajos costos (Gabrlik, 2015), sin embargo su desarrollo
inicial estaba dirigido a aplicaciones militares con el objeto de realizar inspecciones no tripuladas,
vigilancia y reconocimiento de la cartografía en áreas enemigas, y sólo hace tres décadas se
realizaron las primeras aplicaciones civiles y geomáticas que impulsaron en gran medida la mejora
de las plataformas, tecnologías de comunicación y software, la posibilidad de sus aplicaciones y
la implementación de estas plataformas como un elemento común para la adquisición de datos
(Nex & Remondino, 2014); adicional a ello “la evolución de los UAV’s a lo largo del siglo XX y
principios del siglo XXI no ha sido el concepto de vehículos aéreos sin pilotos, sino la posibilidad
de controlarlos con mayor precisión y tenerlos más autónomos” (Gomez & Purdie, 2016).
Acorde al procedimiento general para la toma y procesamiento de imágenes aéreas Cepero,
2015 sostiene que el flujo de trabajo se basa en cuatro puntos fundamentales como sigue:
1. Plan de vuelo: Con el fin de garantizar una operación exitosa es indispensable la
planificación del vuelo fotogramétrico que depende del tipo de aplicación, de los detalles
a capturar en la zona de vuelo (Eisenbeiß, 2009) y con ello la resolución espacial o escala
que se pretenda obtener dados por la altura de vuelo, la definición de la ruta, velocidad de
ascenso o desplazamiento, inclinación de la cámara, punto de captura de la fotografía
(Cepero, 2015), líneas de vuelo y su longitud media (Claros, Guevara, & Pacas, 2016), así
como la definición de superposición o traslape de imágenes; siendo común en los planes
de misión para la fotogrametría con UAV’s una superposición grande con un 80% para la
longitudinal o frontal y en un rango de 60-80% para la transversal o lateral (Figura 1), esto
como compensación a la inestabilidad de la aeronave (Colomina & Molina, 2014) y
19
garantía de una fácil detección de los puntos de unión a utilizar en la orientación de
imágenes (Saleri et al., 2013). Además de ajustar el plan de vuelo a las condiciones de
viento de la zona en el momento de llevarlo a cabo, pues su gestión en tiempo real cumple
un papel clave en este primer proceso (Colomina & Molina, 2014).
Figura 1. Modelo de vuelo fotogramétrico
Fuente: (Claros et al., 2016)
2. Apoyo Topográfico: Se hace necesaria la obtención de posiciones precisas sobre el terreno
para lograr una georreferenciación acertada del producto a obtener, principal fundamento
para usar puntos sobre el terreno que puedan identificarse fácilmente en las fotografías
aéreas asegurando una correcta correlación y una minimización de errores (Cepero, 2015)
debido a la imprecisión del Sistema de Posicionamiento Global (GPS) de metros a
centímetros (Claros et al., 2016). Las anteriores posiciones son conocidas como puntos de
control terrestre (GCP, por sus siglas en inglés) que hacen referencia a marcas físicas ya
sean naturales o artificiales establecidas de forma uniforme en el área de estudio y sobre
las cuales se realiza la toma de datos de su posición (Gabrlik, 2015) planimétrica y
altimétrica. Estas posiciones permiten obtener las coordenadas a utilizar como
20
comprobación de la precisión y cubrimiento a los fallos en la técnica fotogramétrica (Claros
et al., 2016).
Sobre el número de los GCP Claros et al., 2016 afirman que la cantidad depende o se
encuentra en función de la precisión relativa de las coordenadas de las fotografías, sin
embargo sostienen que en términos generales para realizar el ajuste se necesitan como
mínimo tres GCP y en caso de tratarse de proyectos grandes se hace la recomendación del
uso de 5 a 10; aclarándose que el hecho de hacer uso de más puntos no implica una mejora
representativa en los resultados a obtener así como tampoco los afecta de forma negativa
(Claros et al., 2016). En este orden de ideas, lo que se busca además de georreferenciar las
imágenes es contar con un número suficiente de GCP; dados también por la complejidad
del área de estudio, que permitan derivar nubes de puntos de alta calidad útiles para la
adquisición de características y análisis que tengan cabida en el proyecto desarrollado (Nex
& Remondino, 2014).
Haciendo alusión a la toma de datos, pero no sin antes enfatizar en las dos clases de
georreferenciación aplicadas a la técnica fotogramétrica y denominadas como directa e
indirecta, se acentúa entre ellas la distinción de la interacción con el área medida. La
georreferenciación directa es una medición sin contacto con el área de estudio; útil en zonas
inaccesibles o peligrosas, y posible gracias a los sensores a bordo que permiten la obtención
de la orientación exterior, la precisión alcanzada para las coordenadas obedece a la
precisión con la que cuentan los sensores a bordo. Generalmente los sensores en mención
con los que cuentan los UAV’s son receptores de Sistema Global de Navegación Satelital
por Cinemática en Tiempo Real (RTK GNSS) que permiten una precisión al orden del
centímetro (Popescu et al., 2016); así como también se presentan para el caso de los micro
21
UAV’s receptores GNSS de bajo costo o comúnmente GPS con precisión en su posición
en unidades de metros, sumado a una Unidad de Medición Inercial (IMU) (Gabrlik, 2015)
equipada con acelerómetros y giroscopios para llegar a una precisión de orientación al
orden de hasta pocas décimas de grado (Popescu et al., 2016). Por su parte la
georreferenciación indirecta necesita de los GCP, del conocimiento de sus posiciones para
determinar la orientación y por ende del contacto o interacción con el área (Gabrlik, 2015);
datos que pueden ser adquiridos también mediante equipos de GNSS.
Explícitamente y sobre el término GNSS, se trata de una serie de sistemas de
posicionamiento por satélite que consta de tres componentes fundamentales (Figura 2): el
segmento espacial, el segmento de control y el segmento de usuario. El primero consiste
en satélites GNSS en órbita alrededor 20.000 kilómetros sobre la tierra y acondicionados
para proporcionar una adecuada cobertura, emitiendo una señal que los identifica y
brindando sus datos con respecto al tiempo, órbita y estado. El segmento de control
comprende una red terrestre de estaciones maestras de control, estaciones de carga de datos
y estaciones de monitoreo donde el flujo de trabajo entre ellas consiste en captar las señales
y estado de los satélites; esto por parte de las estaciones de monitoreo, y transmitir la
información a las estaciones maestras de control donde se realiza el ajuste y corrección de
los parámetros de la órbita de los satélites y relojes de alta precisión a bordo para que en
últimas sean enviados a los satélites por medio de las estaciones de carga de datos. Para
terminar, el segmento de usuario se refiere a los equipos procesadores de las señales
recibidas de los satélites GNSS para llegar a la información de ubicación o posición
(NovAtel, s. f.).
22
Figura 2. Segmentos GNSS
Fuente: (NovAtel, s. f.)
En relación al método de posicionamiento RTK, éste consiste en un sistema de
referencia relativo o diferencial donde al menos es necesario contar simultáneamente con
dos equipos para llevar a cabo las mediciones y a partir de ellos se determina la distancia
o diferencia posicional, generalmente se aplica este método en posicionamientos
cinemáticos en el cual se da lugar a la determinación de las coordenadas en tiempo real
acorde a la situación de uno de los equipos o antenas que estará en movimientos superiores
a la precisión del sistema (1 o 2 cm + 1 ppm); el anterior es conocido como receptor móvil
o también rover a diferencia de la otra antena que actúa como receptor fijo en modo estático
sobre un punto con coordenadas conocidas (Farjas, s. f.). La técnica consiste en primer
lugar de cerciorarse de la recepción de señal de como mínimo cuatro satélites, a mayor
disponibilidad de satélites mejores resultados posicionales, sin embargo se trata de una
condición limitada por cada receptor de acuerdo a sus capacidades de potencia
computacional para utilizar satélites adicionales (NovAtel, s. f.), consecuentemente se
ubica el receptor fijo cuyo radio módem cumple la funcionalidad de transmitir los datos de
23
observación por ondas de radio al receptor móvil y que guardará en su unidad de control
registrando cada uno de los puntos tomados donde se ha posicionado el rover (Cardozo &
Arenas, 2016).
3. Toma fotográfica: El paso a seguir es la implementación del plan de vuelo siguiendo la
ruta creada para la captura de las imágenes (Cepero, 2015), para ello se debe realizar la
preparación del equipo, despegue y aterrizaje. Hace parte de la preparación del equipo la
revisión de la correcta instalación de sus componentes, revisión del estado de batería del
control y del dispositivo móvil, ubicación de la hélices del UAV, configuración de la
cámara, instalación de la tarjeta de memoria para el almacenamiento de las fotografías,
disposición de control, conexión del software para la operación del vehículo y calibración
del mismo mediante el giro de 360º de modo horizontal y vertical (Figura 3) con fines de
un eficaz desempeño durante el vuelo, ante la observación de una deriva considerable
durante el vuelo y la carencia de una trayectoria del UAV en línea recta se debe realizar
una recalibración. Sumado a lo anterior y previo al despegue también se requiere corroborar
la correcta disposición de señal del GPS del UAV, ya que si hay una lectura errónea de las
coordenadas el vehículo podría volar en dirección aleatoria; condición dada en entornos
con interferencia por su cercanía a estructuras metálicas o grandes construcciones, por lo
que es recomendable realizar los vuelos en espacios abiertos así como el proceso de
calibración mencionado anteriormente. Por último y estando en condiciones aptas para el
vuelo la aplicación o software a usar hace envío de la misión de vuelo al UAV manteniendo
la conexión entre sí para poder activar la cámara consecutivamente, se ha de realizar el
despegue, elevación y aterrizaje en una zona libre de obstáculos, la aplicación sigue la
misión realizando un vuelo automatizado (Claros et al., 2016) y siendo posible visualizar
24
de forma simultánea y en tiempo real la información transmitida a la computadora, que
bien puede ser sobre mediciones, el estado del vehículo y su respectiva posición, para
terminar se realiza la toma fotográfica y aterrizaje (Cepero, 2015).
Figura 3. Calibración del UAV en posición horizontal y vertical
Fuente: (Claros et al., 2016)
4. Procesado y cálculo: Contando ya con las fotografías aéreas, sus parámetros
asociados y con las coordenadas correspondientes a los GCP, se lleva a cabo el
proceso de aerotriangulación para el cálculo de los parámetros de orientación
externa de las fotografías; se trata de un modelo matemático con ecuaciones de
colinealidad y la inclusión de un número significativo de redundancias que permitan
dar validez y fiabilidad tanto al sistema como a los resultados del mismo (Cepero,
2015), su principal objetivo consiste en la obtención de los parámetros para
posicionar de manera correcta el haz de los rayos de la imagen con respecto a un
sistema de referencia vinculado al terreno (Hernández, 2006); o en otras palabras la
consecución de coordenadas de numerosos puntos sobre los fotogramas con base a
los GCP cuya posición ya es conocida en el terreno, lo cual supone una reducción
en los trabajos de campo (J. Pérez, 2001). En la Figura 4 se observa el principio
descrito de la orientación externa donde “las coordenadas imagen y el centro de
25
proyección asociado de una fotografía definen un haz espacial de rayos” (J. Pérez,
2001).
Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas individuales
Fuente:(J. Pérez, 2001)
Sobre el modelo matemático para la realización del ajuste se presentan a
continuación las ecuaciones de la colinealidad:
𝑥′ = −𝑓𝑎11(𝑥𝑖 − 𝑥0) + 𝑎12(𝑦𝑖 − 𝑦0) + 𝑎13(𝑧𝑖 − 𝑧0)
𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0)
𝑦′ = −𝑓𝑎21(𝑥𝑖 − 𝑥0) + 𝑎22(𝑦𝑖 − 𝑦0) + 𝑎23(𝑧𝑖 − 𝑧0)
𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0)
Ecuación 1. Ecuaciones de colinealidad en el proceso de orientación externa
Fuente: (J. Pérez, 2001)
Donde (x’, y’, -f) son las coordenadas de un punto en la fotografía, (x0, y0, z0) las
coordenadas del centro de proyección, (xi, yi, zi) las coordenadas de un punto sobre
el terreno, (a11, aij,…, anm) los elementos de una matriz A en función de un sistema
de referencia tridimensional con rotaciones angulares ω, ϕ, k sobre los ejes x, y, z
respectivamente y dados por los giros de la cámara. Presentado el caso las
incógnitas a resolver son: x0, y0, z0, ω, ϕ, k; y para ello resulta indispensable realizar
26
en primer lugar la orientación interna en la determinación de parámetros internos y
reconstrucción del haz perspectivo de rayos dados por los puntos imagen y el centro
de proyección, de este modo se parte de los datos de calibración de la cámara como
lo son distancia focal, marcas fiduciales y distorsión (J. Pérez, 2001), por otro lado
y con una mínima variación al proceso para el caso de las imágenes digitales se
determina el centro de proyección o posición del punto principal de acuerdo al
centro de la imagen digital (fila, columna) puesto que tales imágenes carecen de
marcas fiduciales, además al tratarse de un proceso automático son suficientes
únicamente los parámetros de calibración (A. Gómez & Sandoval, 2016).
5.1.3. Imágenes multiespectrales
Partiendo del concepto de radiación electromagnética que como se había citado previamente
corresponde al flujo energético constituido entre la cubierta terrestre y un sensor (Chuvieco, 1995),
se tiene una colección sobre la escena medida del concepto en mención para cada intervalo de
energía empleado y que forman para cada uno, una imagen digital conocida como banda, cuya
representación es la distribución espacial de valores de radiación provenientes de la escena de la
cubierta terrestre y donde el conjunto de bandas compone una imagen multiespectral. Cabe anotar
que la imagen multiespectral no sólo representa la distribución espacial de las propiedades físicas
observadas en la escena, sino también la respuesta del sensor y los mecanismos de interferencia
presentes en la toma de la escena que pueden resultar como limitantes y degradantes de la
información (Lira, 2010).
Específicamente y sobre las bandas espectrales, éstas constituyen el espectro electromagnético
en función de las longitudes de onda o frecuencia (Figura 5); comprendiendo desde las longitudes
27
de onda más cortas como los rayos gamma y los rayos x, hasta las kilométricas correspondientes
a las de tele-comunicación (Chuvieco, 1995). Por otro lado, teniendo en cuenta el concepto de
fotografía multiespectral dado por Claros et al., 2016 referido como una “fotografía tomada con
cámara multiespectral o con un ensamblaje de varias cámaras con distintos filtros para cubrir
distintas porciones del espectro visible y de la región infrarroja cercana” conviene hacer la
descripción para estas bandas espectrales:
Espectro visible: Se trata de la única radiación electromagnética que se percibe a la vista,
esta región está comprendida entre las longitudes de onda de 0,4 a 0,7 μm y sobre la
cual se distinguen tres bandas elementales en función a los colores primarios que los
ojos perciben a dichas longitudes de onda; estos son el azul (0,4 - 0,5 μm), el verde (0,5
- 0,6 μm), y el rojo (0,6 – 0,7 μm) (Chuvieco, 1995).
Infrarrojo cercano: Está comprendido entre las longitudes de onda de 0,7 a 1,3 μm
(Chuvieco, 1995), sus aplicaciones se encuentran en la composición de química
superficial, vegetación y propiedades bilógicas (Lira, 2010); trascendiendo
notablemente por su capacidad de discriminación de masas vegetales y concentración
de humedad (Chuvieco, 1995).
Figura 5. Espectro electromagnético
28
Fuente: (Chuvieco, 1995)
5.1.4. Modelos Digitales De Elevación
Los Modelos Digitales de Elevación se definen como una estructura numérica de datos que
representan la distribución espacial con respecto a la altitud en la superficie terrestre. Se trata de
una serie de puntos con coordenadas bidimensionales conocidas y a las cuales se les asocia un
valor de elevación (INEGI, 1999), de modo que haciendo el uso de tales modelos se pueden
cuantificar las características de la superficie del modelo y obtener productos como mapas de
pendientes, curvas de nivel y ortofotomosaicos, entre otros (Pucha et al., 2017).
Adicionalmente, se distinguen diferentes designaciones de los modelos, estos pueden ser
Modelos Digitales de Superficie o Modelos Digitales de Terreno; ambos en la habilidad de
representar la superficie del terreno pero con la distinción de que el primero incluye todos los
objetos sobre la misma mientras que el otro no los toma en cuenta, este es el caso de plantaciones
o edificaciones (S. Pérez, Pérez, & Reyes, 2017).
5.1.5. Ortofotomosaicos
Los ortofotomosaicos resultan de la integración de imágenes georreferenciadas y corregidas de
deformaciones por lo cual es posible realizar mediciones exactas en estas. Las anteriores son
provenientes de las fotografías aéreas y son conocidas como ortoimágenes u ortofotos (Claros
et al., 2016); su proceso de corrección llamado ortorrectificación consiste en lograr representar una
proyección ortogonal sin efectos de perspectiva de la cámara (Figura 6) que se traduce en
deformaciones en conjunto con otros factores como altura de toma, velocidad del movimiento de
la cámara (Cepero, 2015), distorsiones propias de la lente además de distorsiones de los objetos
causados por desplazamientos debidos al relieve, entre otros que son los que presentan las
29
fotografías aéreas crudas (Quiñones & Segura, 2012), es así que una ortofoto combina la
propiedades de detalles de las fotografías aéreas con las propiedades geométricas de un plano
(Cepero, 2015).
Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal de una
ortofoto (derecha)
Fuente: (Quiñones & Segura, 2012)
5.2.Estado Del Arte
Dentro de las explicaciones que permiten entender la razón acerca del aumento sustancial del
uso de UAV’s para aplicaciones diversas (principalmente en la geomática y los productos
cartográficos que se derivan de su uso), de las más aceptadas ha sido el avance exponencial en el
área computacional, tal y como lo afirman Sona, Pinto, Pagliari, Passoni, & Gini, 2014, este
aumento se debe al hecho del “desarrollo de nuevas plataformas equipadas con sistemas
automáticos para la planeación y control de los vuelos, junto con la mejora de los sensores y
dispositivos de adquisición de datos”, así como también a la difusión de softwares que hacen uso
del sistemas de visión por computadora llevando en últimas, nuevos motivos para el uso de los
UAV’s como una herramienta para la gestión de la tierra. Adicional a ello, Vollgger & Cruden,
2016 hacen hincapié en que los progresos en el área computacional han permitido generar “nubes
tridimensionales densas de puntos georreferenciados a partir de una secuencia de imágenes
30
bidimensionales superpuestas”, que en últimas son el principal insumo para la generación de
productos cartográficos como los DEM o las ortofotos, por lo que la obtención de estos productos
con UAV también ha aumentado de manera considerable, mientras que James et al., 2017 muestran
que estos avances en el hardware “han mejorado rápidamente las capacidades de recopilación de
imágenes gracias a la mejora de la estabilidad y el tiempo de vuelo de las plataformas”, desarrollos
que han llevado a su aplicación dentro de los levantamientos fotogramétricos gracias a la captura
de imágenes óptimas. Por último, autores como Stöcker, Eltner, & Karrasch, 2015 mencionan que
estos avances han llevado a la generación de estos productos cartográficos de forma sencilla y con
gran exactitud, por lo que los UAV pueden verse como un método efectivo para llevar a cabo
levantamientos fotogramétricos.
Haciendo mención nuevamente de las limitaciones implicadas en el uso de los UAV’s, pero
más específicamente en relación a los sistemas de bajo costo y de carga reducida en los que se
emplean cámaras de formato pequeño o medio que hacen de la adquisición de datos un proceso
más extenso; esto en el sentido de que han de necesitarse un mayor número de imágenes para
conseguir la misma cobertura de imagen a una resolución comparable; razón por la cual y a modo
de solución es indispensable contar con un software automatizado de orientación que permita la
reducción del tiempo de procesamiento en sectores de código abierto y de bajo costo (Nex &
Remondino, 2014). Pese a que Eisenbeiß, 2009 indique que para entonces los paquetes de software
comerciales existentes y con aplicación de datos fotogramétricos rara vez soportaban imágenes de
UAV por la carencia de implementación de flujos de trabajo estandarizados y de modelos de
sensores, el actual crecimiento de los UAV’s en el mercado ha conllevado a los constantes
adelantos del hardware y el software usados para el procesamiento de los datos provenientes de
esta clase de captura (Lindner, Schraml, Mansberger, & Hübl, 2016), que vistos en conjunto
31
pueden ser entendidos también como estaciones de control terrestre (GCS’s) explicadas como
dispositivos estacionarios o transportables en la capacidad de supervisar y ordenar las aeronaves
no tripuladas en la ejecución de la misión, destacando de éstas, la interfaz que permiten crear con
la inteligencia humana para su control y observación ante cualquier cambio de ruta, errores en la
plataforma y resultados (Colomina & Molina, 2014).
Particularmente, cabe resaltar que algunos paquetes de software fotogramétricos
convencionales cuentan con la capacidad de procesar imágenes tomadas con los UAV’s, sin
embargo se tiene el desarrollo de paquetes que además de compilar los fundamentos de la
fotogrametría tradicional se encuentran orientados y especializados en el procesamiento de datos
de imágenes a partir de UAV’s y cuyo enfoque es habitualmente conocido como estructura del
movimiento (SfM) (Gonçalves & Henriques, 2015); se trata de un algoritmo basado en la
identificación de patrones y características comunes visualizadas en varias imágenes donde el
número de puntos identificados está dado acorde a la textura y resolución de la imagen (Fernández
& Gutiérrez, 2016), el anterior es un proceso automatizado de coincidencia de características, su
implementación en UAV’s consiste en poder derivar reconstrucciones tridimensionales a partir de
una serie de fotografías superpuestas, donde resulta adecuado un alto grado de superposición de la
región capturada en diferentes posiciones y orientaciones y sobre las cuales la plataforma móvil se
relaciona con el objetivo o escena estática (Turner et al., 2016), además éste método se usa
generalmente al realizar procesos fotogramétricos con cámaras no métricas; obteniendo resultados
comparables con los métodos tradicionales, incluso con una reducción de tiempo en un 80% sobre
la recopilación de los datos en la reconstrucción 3D de superficies y topografía (P. Zarco et al.,
2014).
32
Dentro de los factores que afectan la toma de imágenes por medio de UAV, así como la
obtención de los diferentes productos cartográficos que pueden derivarse a partir de ellos, se
encuentra que dado que estos requieren el uso de cámaras convencionales, es decir sensores ópticos
pasivos, se encuentran limitados para la toma de imágenes en sitios con demasiada vegetación, en
general Peternel et al., 2017 afirman que dentro de los principales inconvenientes para llevar a
cabo levantamientos fotogramétricos, es la presencia de vegetación densa, pues dificulta la
reconstrucción métrica, elemento esencial para la generación de las redes de puntos
tridimensionales a partir de imágenes bidimensionales, y que en últimas se traducen en más errores
para la obtención de productos como lo son los modelos digitales de superficie, y por tanto las
ortofotos también. Así mismo, al hacerse uso de cámaras convencionales, que poseen una mayor
distorsión de la lente, darán lugar a mayores errores sistemáticos que de hacerse con las cámaras
tradicionales para esta clase de trabajos (James et al., 2017), adicionalmente debido a la carencia
de receptores GNSS de suficiente calidad a bordo (debido a la carga útil que pueden llevar
consigo), hace que sea complicado hacer uso de las posiciones de las cámaras como una medida
de control adicional para llevar a cabo los levantamientos (James et al., 2017).
Sumado a lo anterior, la altura de vuelo que es un elemento esencial, ya que en primera medida
puede causar cambios abruptos en la resolución espacial de las imágenes, dada la relación del GSD
(Ground Sample Distance) definida por la altura del sensor respecto al suelo, además de añadir
complejidad en la generación de las ortomosaicos si se hace uso de una altura muy pequeña para
la captura de los datos (D. Gómez, De Castro, & López, 2014), junto a ello puede hacer que se
aumenten los tiempos de procesamiento, ya que a una altura menor se requerirán más fotos para
hacer el levantamiento de la misma área que a una mayor altura. Es por ello que autores como
Gómez et al., 2014 mencionan que el rango de altura de vuelo óptimo para obtener buenos
33
resultados en la generación de ortofotos con imágenes tomadas con UAV oscila entre los 30 y 100
metros, cabe aclarar que como afirman los mismos autores si se desea “armonizar la resolución
espacial altísima y minimizar el tiempo de operación y el número de imágenes tomadas”, la altura
de vuelo debe ser lo más alta posible, claro está, sin que esto influya en la perdida de la resolución
espacial necesaria para llevar a cabo el estudio planteado.
Dadas estas variables, es importante añadir que para solventar todos estos inconvenientes basta
con añadir más puntos de control terrestres que en un levantamiento convencional, es decir un
mayor control de entrada (James et al., 2017). Autores como Yucel & Turan, 2016 adicionan que
“la escala, resolución, y precisión de los puntos de control terrestres son el factor que más afecta
la calidad de las imágenes de UAV”, es por ello que poseen un papel primordial en los
levantamientos fotogramétricos de este tipo. En el caso de la generación de ortomosaicos, debido
a la complejidad de la correspondencia de imágenes expuesta anteriormente es necesario adquirir
de forma precisa estos puntos, puesto que de ello depende la exactitud en el proceso de unión de
las ortofotos para dar lugar a los mosaicos de imágenes (D. Gómez et al., 2014), por tanto estos
puntos generalmente se señalizan con marcadores pintados en el área, y son levantados bien sea
con GPS diferenciales de doble frecuencia o con estaciones totales (Bemis et al., 2014). Es de esa
manera, que en últimas haciendo uso del método de georreferenciación directa, la exactitud de las
imágenes ortorrectificadas (y por tanto de los mosaicos generados con estas) son dependientes de
los errores de navegación de los GPS, así como “la estimación de la longitud focal de la cámara y
los parámetros de orientación interior/exterior, y la sincronización imprecisa entre el receptor GPS
y la cámara” (Bemis et al., 2014).
Sobre los principales factores que contribuyen a los errores de precisión de posición de las
ortofotografías obtenidas con UAV’s, Popescu et al., 2016 hacen uso del estándar de la Sociedad
34
Americana de Fotogrametría y Teledetección (ASPRS) conocido como “Precisión de Datos
Geoespaciales y el Nuevo Estándar de Precisión Cartográfica”, y asocian la exactitud cartográfica
no solamente a la geometría de la cámara y a la altura de vuelo sino también a la calidad de los
parámetros de calibración de la cámara, calidad y tamaño del CCD usado en las cámaras digitales,
cantidad de imágenes superpuestas, calidad de la determinación de la paralaje, de la señal GNSS
y de los controles en tierra, número y distribución espacial de los puntos de verificación de acuerdo
al área del proyecto, capacidad del software de procesamiento, el modelo digital de elevación
empleado para la generación de las ortofotos, la precisión de la triangulación aérea, y estabilidad
del vuelo. Se ha de tener en cuenta que estos factores son susceptibles al cambio de un proyecto a
otro acorde al sensor y metodología utilizada, donde la suma de todos los factores determina la
exactitud posicional del producto final (Popescu et al., 2016).
Cabe adicionar que la evaluación de exactitud de los ortomosaicos con UAV se hace en
términos del error medio cuadrático (RMSE); medida que “se expresa generalmente en unidades
de tamaño pixeles”, siendo este un indicador basado en los residuos de las coordenadas de la
imagen y las coordenadas terrestres (D. Gómez et al., 2014). Por su parte, Popescu et al., 2016
sostiene que aún si se asumieran prácticas en condiciones ideales como el uso de cámaras métricas,
control terrestre de alta calidad y procedimientos consistentes, la mejor precisión posible en las
ortofotografías equivale a un RMSE de 1 a 1,5 pixeles. Respecto a los residuales en las
coordenadas de las imágenes, James et al., 2017 afirman que estos son dependientes de una
variedad de factores, que incluyen: “la textura de la imagen, la estabilidad de la geometría de la
cámara, y la exactitud del algoritmo de localización de características usado en la correspondencia
de las imágenes”. En general, experiencias como las descritas por James et al., 2017 muestran que
para tratar de obtener el mínimo RMSE (que indicaría la obtención de un producto con una alta
35
calidad posicional), una buena estrategia dentro del procesamiento es la elección de modelo de
cámara adecuado, además de los parámetros pertenecientes a este, que pueden ser determinados
mediante un ajuste final usando todos los puntos de control terrestre como puntos de verificación.
En síntesis, autores como Uysal et al., 2015 muestran que se pueden obtener productos derivados
de fotogrametría con UAV (sean ortomosaicos o DEM) con una exactitud similar a los datos
obtenidos en GPS, haciendo que sea “posible usar los datos de fotogrametría con UAV para la
producción de mapas, levantamientos y algunas otras aplicaciones ingenieriles con las ventajas de
bajo costo, conservación de tiempo, y trabajo de campo mínimo” (Uysal et al., 2015).
5.3.Marco geográfico
El Parque Nacional Natural Chingaza ubicado en la cordillera oriental de los Andes se encuentra
bajo la jurisdicción de los departamentos de Cundinamarca y Meta, abarcando sectores de once
municipios y estando comprendido el 99% del área del parque en la cuenca del Río Orinoco, en
las cuencas altas de los ríos Blanco y Negro Guatiquía, Guacavía, Gazaunta, Gazamumo, Humea
y Guavio, y el 1% en la cuenca del Río Magdalena representado por la cabecera de la quebrada
San Lorenzo, el afluente del Río Teusacá y cabeceras del Río Siecha. Su extensión total es de
76.600 hectáreas, su temperatura se encuentra entre 4 y 21.5°C, con unas variaciones de altura
que van desde 800 a 4020 msnm y presentando ecosistemas predominantes de bosques alto
andinos, subandinos y páramos (Parques Nacionales Naturales de Colombia, s. f.-b).
Se sabe que para el uso de metodologías con UAV´s es necesario que las áreas no sean tan
extensas, en este caso es aún más pertinente, puesto que el UAV usado en el proyecto es de tipo
multirotor (lo que hace que tenga menos alcance, respecto a uno de ala fija) y dado que el Parque
Natural Chingaza tiene una vasta extensión se decidió sobrevolar aproximadamente una hectárea;
36
tomando como centro de la zona de estudio las coordenadas 4º44’52.23’’ N, 73º51’19.38 W
(Figura 7).
Figura 7. Mapa de la zona de estudio
Fuente: Autor, elaborado con datos de (Parques Nacionales Naturales de Colombia, s. f.-a) y (Servicio Geológico Colombiano, 2015)
38
6. Materiales
6.1. Vehículo Aéreo No Tripulado
El UAV utilizado para el desarrollo del proyecto fue el TAROT 680 PRO (Figura 8) de tipo
multirotor compuesto por 6 rotores, el cual puede sobrevolar y cubrir un área de hasta 70.000 m2
(Sastoque & Gutiérrez, 2016) y cuyas características se presentan en la Tabla 1.
Figura 8. UAV TAROT 680 PRO
Fuente: Autor
Tabla 1.
Características de UAV TAROT 680 PRO
TAROT 680 PRO
Tipo Hexacoptero
Dimensiones Diámetro: 680 mm, Altura: 30 cm
Peso 3.5 Kg con baterías, máximo peso de despegue 8 Kg
Motor 6 motores brushless (sin escobillas)
Material Fibra de carbono y plástico
Capacidad carga útil 3 Kg
Modo de vuelo Automático con waypoints o manual con radiocontrol
Tiempo de vuelo 20 minutos flotando en un punto, 12 minutos recorriendo ruta
Estación de control en tierra Radiocontrol 14 canales, telemetría para control de misión en
tiempo real
Posibles sensores Cámara fotográfica, cámara de video, cámara termal, cámara
multiespectral
Proveedor Grupo de investigación UAV-MARIA
Fuente: (Sastoque & Gutiérrez, 2016)
39
6.2. Sensores
Las dos cámaras utilizadas son de referencia Canon PowerShot A2300 (Tabla 2), una de las
cámaras cuenta con información de las bandas del espectro visible; rojo, verde y azul o en inglés
por sus siglas RGB (Figura 9.a), y la otra con la combinación de bandas de infrarrojo cercano,
verde y azul o en inglés NIR G B (Figura 9.b), de tal manera que para el uso de ambas cámaras se
dispuso de la realización de un montaje y ensamblaje en el UAV que permitiera la ejecución del
vuelo con las dos cámaras a bordo (Sastoque & Gutiérrez, 2016).
Tabla 2.
Especificaciones de la cámara Canon PowerShot A2300
Canon PowerShot A2300
Resolución 16 Megapixeles
Máxima resolución de imagen 4608 X 3456 pixeles
Formato de imagen JPEG
Sensibilidad ISO o a la luz ISO 100, ISO 1600, ISO 200, ISO 400, ISO
800, ISO auto
Velocidad máxima de obturación o disparo 1/2000 segundos
Velocidad mínima de obturación o disparo 15 segundos
Longitud focal mínima 5 mm
Longitud focal máxima 25 mm
Tipo de sensor CCD
Tamaño de sensor 1/2.3” ( ̴ 6.16 X 4.62 mm)
Resolución del sensor 4612 X 3468 pixeles
Tamaño de pixel calculado 0,0013356 mm
Pantalla LCD 6,8 cm (2,72”)
Fuente: Elaborada con datos de (CNET, s. f.) y (Digital Camera Database, s. f.)
(a) Cámara con bandas RGB (b) Cámara con bandas NIR G B
40
Figura 9. Cámaras Canon PowerShot A2300
Fuente: (Sastoque & Gutiérrez, 2016)
Más específicamente, y sobre la preparación de los sensores en cuanto a sus respectiva
información de las bandas espectrales Rodriguez, 2015 afirma que este tipo de cámaras digitales
que no se han diseñado con fines de uso en la percepción remota constan de un filtro ubicado frente
al sensor que restringe la energía electromagnética que éste percibe y se limita a las ondas del
espectro visible (Figura 10.a), razón por la cual fue necesario modificar una de las cámaras
removiendo el filtro RGB para permitir el ingreso de información en el rango infrarrojo (Figura
10.b).
(a) Energía electromagnética con filtro RGB (b) Energía electromagnética sin filtro RGB
Figura 10. Energía electromagnética percibida por el sensor
Fuente: (Rodriguez, 2015)
6.3. Antena De Recepción Topcon GR-5
El receptor de GNSS GR-5 (Figura 11) fabricado por Topcon es un equipo ideal para el
geoposicionamiento, levantamiento del terreno, topografía, diseño e ingeniería civil,
levantamientos de construcción y gestión de nivelación. Se caracteriza por su alta fiabilidad en
precisión, pues cuenta con un posicionamiento de la mayor precisión para tiempo real cinemático
41
(RTK), redes y demás y actualizaciones de posición de hasta 100 Hz, realiza el seguimiento de
cada constelación (Topcon, 2015) teniendo en cuenta que se trata de la combinación de tres de
estas o también conocidas como sistemas de posicionamiento originales que son GPS, GLONASS
y GALILEO, su diseño es robusto y se integra con hasta 216 canales de seguimiento universales
(Topcon, s. f.-a). Algunas especificaciones adicionales se presentan en la Tabla 3.
Figura 11. Receptor Topcon GR-5
Fuente: (Topcon, 2015)
Tabla 3.
Especificaciones generales del receptor Topcon GR-5
Especificaciones generales
Señales de seguimiento GPS, GLONASS, Galileo, BeiDou, SBAS, y QZSS
Precisión
Estático rápido H: 3.0 mm + 0.4 ppm
V: 5.0 mm + 0.5 ppm
Estático H: 3.0 mm + 0.1 ppm
V: 3.5 mm + 0.4 ppm
RTK (L1+L2) H: 5 mm + 0.5 ppm
V: 10 mm + 0.8 ppm
Memoria Tarjeta de memoria SD/SDHC extraíble
Temperatura de funcionamiento De -40ºC a 70ºC
Proveedor Universidad Distrital F.J.C.
Fuente: Elaborada con datos de (Topcon, 2015)
42
6.4. Controlador Topcon FC 2600
El controlador o colector de datos Topcon FC 2600 (Figura 12); suministrado por la
Universidad Distrital F.J.C. para el desarrollo del proyecto, ha sido diseñado para ser robusto,
confiable y soportar el software de campo Magnet Field, ejecuta el sistema operativo Windows
CE6 que permite un rápido funcionamiento (Topcon, s. f.-b). Algunas de sus características a
destacar son:
Conectividad inalámbrica Bluetooth y WiFi incorporadas.
Cámara digital de 5.17 megapíxeles.
Baterías accesibles y recargables, así como una larga duración de las mismas.
Teclado alfanumérico de 55 teclas.
256MB SDRAM (Topcon, s. f.-b).
Figura 12. Controlador Topcon FC 2600
Fuente: (Topcon, s. f.-b)
6.5. Navegador Garmin GPSMAP 64s
Receptor GPS y GLONASS (Figura 13) con una alta capacidad de recepción que localiza de
forma rápida y precisa las posiciones, cuenta con una amplia selección de mapas topográficos,
43
náuticos y de carreteras que hacen sencilla la incorporación de más mapas, además de funciones
robustas de navegación (Garmin & subsidiaries, s. f.).
Figura 13. Navegador Garmin GPSMAP 64s
Fuente: (Garmin & subsidiaries, s. f.)
La siguiente tabla enseña las características propias del navegador Garmin GPSMAP 64s:
Tabla 4.
Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s
Especificaciones físicas y de rendimiento
Dimensiones (Ancho/Alto/Profundidad) 6,1 x 16,0 x 3,6 cm
Batería 2 pilas AA (no incluidas)
Autonomía de la batería 16 horas
Memoria 4 GB
Señales de seguimiento GPS y GLONASS
Altímetro barométrico Sí
Brújula Sí (tres ejes con inclinación compensada)
Proveedor Universidad Distrital F.J.C.
Fuente: Elaborada con datos de (Garmin & subsidiaries, s. f.)
6.6. Software De Procesamiento
6.6.1. Mission Planner
Mission Planner es un software utilizado como estación de control terrestre en la preparación
inicial, configuración, ejecución de la misión y análisis posterior a esta. Sus principales
características son (Cepero, 2015):
44
Configuración en piloto automático para control del UAV.
Calibración del UAV para un rendimiento óptimo.
Planificación, guardado y carga de misiones autónomas.
Descarga y análisis de registros de misión generados por el piloto automático.
Supervisión del estado del UAV durante su operación y registros de telemetría récord
con mayor información a la de los registros del piloto automático, éstos en casos de
usar hardware de telemetría apropiados.
Observación, registros de imágenes y análisis.
Operación del UAV en FPV (vista en primera persona).
6.6.2. Inpho
Software diseñado para la transformación de imágenes aéreas en nubes de puntos, modelos de
superficie y mosaicos de ortofotos preservando en cada uno de los anteriores consistencia y
precisión mediante técnicas avanzadas de fotogrametría y percepción remota. Cuenta con una
estructuración de módulos que pueden usarse ya sea como un sistema en conjunto o como
componentes individuales de fácil integración en el proceso fotogramétrico (Trimble, s. f.-a). Los
componentes de los módulos son asistidos con ApplicationsMaster que actúa como centro de
control proporcionando herramientas básicas en la definición de proyectos y sensores,
importación, exportación, conversión y transformación de datos, procesamiento y orientación de
imágenes, y manipulación de DTM (Ecogis, s. f.).
Los módulos ofrecidos por Inpho son MATCH-AT, MATCH-T DSM, Summit Evolution.
DTMaster, SCOP++, OrthoMaster, OrthoVista, UASMaster y LPMaster, cuyas funcionalidades
se observan en la Tabla 5.
45
Tabla 5.
Funcionalidades por módulo en Inpho
Fuente: (Trimble, s. f.-b)
Con respecto a los requerimientos de hardware para su uso el sistema operativo debe ser
Windows 7 o Vista, contar con una CPU QuadCore como mínimo y de preferencia 8 core o más,
memoria RAM mínima de 4 GB o preferiblemente de 16 GB, y tarjeta gráfica nVidia Quadro.
6.6.3. Imagine Photogrammetry (LPS)
Imagine Photogrammetry o anteriormente conocido como LPS es un paquete de fotogrametría
de fácil entorno para usuarios principiantes o avanzados y que ofrece funcionalidades de alta
precisión como triangulación, generación de DEM, ortofotos, mosaicos y extracción de
características 3D. Su integración con el software Erdas Imagine hace a este paquete
fotogramétrico ideal para proyectos de diferentes tipos de datos y con ello el procesamiento y
análisis de imágenes aéreas o satelitales; de modo que incluye numerosos flujos de trabajo
aceptando desde fotografías análogas hasta productos de cualquier sensor satelital y en los cuales
Funcionalidades MATCH-
AT
MATCH-
T DSM
Summit
Evolution DTMaster SCOP++
Ortho
Master
Ortho
Vista
UAS
Master
LP
Master
Fotogrametría
digital X X X X X X X X
Soporte de
imágenes
análogas
escaneadas
X X X X X X
Datos de satélite X X X X X X
Datos de laser X X X X X
Aerotriangulación X X
Calibración de
cámara X X
Extracción de
superficie/terreno X X X
Procesamiento y
generación de
DTM
X X X
46
se realizan procesamientos de forma automática como orientación interior, medición de puntos de
unión, y extracción de puntos del terreno (Hexagon Geospatial, 2017).
Algunas otras características que se evidencian en la integración de Imagine Photogrammetry
en Erdas Imagine de acuerdo a las capacidades propias de este último son mapeo de acuerdo a la
cobertura terrestre y su respectiva clasificación, composición de mapas y generación de informes,
conversión de datos, procesamiento de imágenes y clasificación no supervisada, modelado
espacial, procesamiento hiperespectral, clasificación supervisada, y procesamiento de radar, entre
otras (Hexagon Geospatial, 2017).
De acuerdo a Hexagon Geospatial, 2016 los requerimientos principales del sistema para el uso
de Erdas Imagine con la integración de Imagine Photogrammetry son:
Procesador de 64 bit: Intel 64 (EM64T), AMD 64, o sus equivalentes, y su
recomendado es un procesador Multi-core.
RAM mínima de 8 GB.
Sistemas operativos Windows 7, Windows 8, Windows 8.1, Windows 10 Pro,
Windows Server 2008 R2 SP1, o Windows Server 2012 R2.
Tarjetas gráficas NVIDIA Quadro K5200, K4200, K2200, K420, K5000, K4000, K600
(Hexagon Geospatial, 2016).
6.6.4. Agisoft PhotoScan
Agisoft PhotoScan es un software fotogramétrico profesional desarrollado por la compañía rusa
Agisoft LLC (Núñez, 2016) en el año 2010 (Gross & Heumann, 2016) para el procesamiento de
imágenes digitales y generación de información 3D con múltiples aplicaciones en Sistemas de
47
Información Geográfica (SIG) (Núñez, 2016). Se basa en la última tecnología de reconstrucción
en 3D desde múltiples vistas (Li, Chen, Zhang, & Jia, 2016) y en la tecnología SfM conocida como
SIFT (Scale-invariant feature transform) o algoritmo SIFT para la búsqueda y extracción de puntos
homólogos, para el cálculo automático y preciso de parámetros de la cámara; internos y externos,
que anteriormente debían conocerse y ser ingresados manualmente, y para el emparejamiento de
imágenes a nivel de subpixel (Gross & Heumann, 2016). Adicionalmente, Agisoft PhotoScan está
en la capacidad de procesar imágenes capturadas por un rango de datos no métricos y de pequeño
tamaño hasta datos masivos capturados por un UAV, tal reconstrucción de modelos 3D se realiza
de forma automática sin necesidad de definir valores iniciales ni GCP, además de resultar idónea
la inexistencia de limitaciones en posición y ángulo de captura de las fotografías con el único
requisito de la presencia de puntos homólogos o correspondientes entre las imágenes adyacentes
(Li et al., 2016).
Otras características anexas al sistema son la generación automática de nubes de puntos, nubes
densas, clasificación de las anteriores, texturas 3D con alto grado de precisión, robustez para
manejar una gran cantidad de imágenes (Santoso, Garratt, Pickering, & Asikuzzaman, 2016),
creación de ortomosaicos georreferenciados y DEM, precisiones de 1 mm en fotografías de corto
alcance (Chaparro & Moreno, 2016), simplificación del levantamiento topográfico y con ello una
rápida medición en entornos complejos cuando se dispone de buenos insumos (Cepero, 2015), e
inclusión de GCP para aumento en la precisión geométrica (Gross & Heumann, 2016), entre otras.
El software ofrece dos versiones diferentes; la versión estándar está dirigida a los usuarios
ocasionales que buscan generar nubes de puntos a partir de múltiples imágenes, y la versión
profesional que cuenta con un mayor número de funcionalidades en el procesamiento y permite la
48
producción de datos geomáticos (Rea & Krenn, 2016), más específicamente se hace la distinción
de las funcionalidades para cada versión en la Tabla 6.
Tabla 6.
Funcionalidades de Agisoft PhotoScan en Versión Estándar y Versión Profesional
Funcionalidades en Agisoft PhotoScan Versión
Estándar
Versión
Profesional
Calibración automática de la cámara X X
Búsqueda automática de puntos de apoyo X X
Triangulación X X
Construcción del modelo 3D y exportación en formato TIN X X
Georreferenciación X
Exportación del DEM en formato TIFF, Arc/Inpho ASCII grid, Band
interleaved y XYZ X
Generación de la ortofoto X
Medidas de área y volumen X
Python scripting X
Fuente: Elaborada con datos de (Núñez, 2016)
El tiempo de procesamiento computacional es generalmente muy alto (Sona et al., 2014) por lo
que se requiere de una computadora de alto rendimiento con capacidad de procesar gráficos, ya
que así como la velocidad en la construcción del modelo 3D se encuentra en función de la cantidad
de fotografías también lo está de acuerdo a las características intrínsecas del computador como la
RAM (Li et al., 2016), es así que los requerimientos del hardware para el uso de Agisoft PhotoScan
son de una RAM de 16, 32 o 64 GB en total, una CPU Quad-core Intel Core i7, Socket LGA 1155,
Six-core Intel Core i7, Socket LGA 2011, o dual socket Intel Xeon Workstation; ésta última en
casos de realizar procesamiento de una gran cantidad de imágenes, y por último un sistema
operativo de Microsoft Windows, MacOS, o Linux; sistemas a los cuales el software ofrece
versiones por lo que se le conoce como un software multiplataforma (Cepero, 2015).
49
6.6.5. Pix4D Mapper
Software desarrollado por la compañía suiza Pix4D en el año 2011 (Núñez, 2016) para la
restitución fotogramétrica y el procesamiento de imágenes; estando en la habilidad de convertir
hasta 10.000 imágenes aéreas y oblicuas tomadas por UAV’s o aviones, en ortomosaicos 2D
georreferenciados, modelos 3D y nubes de puntos, además de procesarlas independientemente de
las características espectrales de las cámaras que bien pueden ser cámaras RGB, cámaras NIR, o
cámaras térmicas, entre otras (Claros et al., 2016). Los resultados obtenidos por el software son
altamente precisos y oportunos para diversas aplicaciones en SIG y en Diseño Asistido por
Computadoras (CAD) (Coral, s. f.), llegando a precisiones 3D centimétricas (Claros et al., 2016)
dada la inclusión del concepto o herramienta rayCloud que permite la ampliación de la precisión
de los resultados del modelado 3D (Ruzgienė, Berteška, Gečyte, Jakubauskienė, & Aksamitauskas,
2015), sumado al hecho de posibilitar la combinación de nube de puntos 3D con las imágenes
originales bajo el objeto de edición y corrección de los proyectos (Claros et al., 2016).
Por otro lado, el flujo de trabajo que ofrece Pix4D Mapper es completamente automático
(Claros et al., 2016) resolviendo la restitución fotogramétrica en base a un algoritmo de
superposición de fotografías que identifica correspondencia a través de puntos de unión de una
imagen a otra y lleva a cabo la correlación de pixeles (Fernández & Gutiérrez, 2016); este proceso
conforma la etapa inicial para consecuentemente realizar la densificación de la nube de puntos
creada y con esta una malla 3D texturizada que conlleva a la generación del ortomosaico. Cabe
aclarar que los productos obtenidos están sujetos a la configuración preliminar de plantillas para
el tratamiento de imágenes en casos específicos en la creación de modelos 3D de objetos, mapas
de reflectancia para agricultura de precisión, mapas 3D de superficie, y la personalización de
plantillas que se adapten mejor al proyecto, entre otros (Claros et al., 2016).
50
En cuanto a las versiones Pix4D Mapper ofrece dos: Pix4D Mapper Discovery y Pix4D Mapper
Pro. La primera versión es gratuita y permite realizar sólo las dos primeras etapas del
procesamiento con ciertas restricciones en la clasificación de la nube de puntos. La versión Pro
ofrece todas las opciones de procesamiento pero debe adquirirse mediante pagos o mediante la
activación para usuarios Pix4D Mapper Discovery por un corto periodo de prueba. Los
requerimientos mínimos del software son Windows 7, 8 o 10 de 64 bits, procesador de dos núcleos,
RAM de 4 GB, tarjeta gráfica Nvidia o AMD no inferior a 2008 y modelos Intel de 2012, y las
recomendadas del equipo son procesador de seis núcleos i7 o Xeon y una RAM de 16 GB o más
de acuerdo a la cantidad de datos a procesar (Claros et al., 2016).
6.6.6. Drone2Map
Drone2Map para ArcGIS es una aplicación de escritorio para la creación, visualización y
análisis de productos de imágenes capturadas por un UAV, el procesamiento de imágenes se
realiza de forma automatizada; incluyendo inicialmente la detección de parámetros de la cámara y
sensor aplicando los valores predeterminados correctamente, para la elaboración de productos de
imágenes 2D o 3D como ortomosaicos, modelos topográficos con DSM de alto detalle, modelado
de paisajes con DEM y contornos, mallas texturizadas 3D, nubes de puntos 3D y con estas su
respectivo análisis de atributos, mediciones volumétricas y detección de cambios (Aeroterra S.A.,
s. f.). En lo que respecta a las especificaciones de hardware para el uso de Drone2Map se presentan
las principales a tener en cuenta en la Tabla 7.
Tabla 7.
Requisitos mínimos y recomendados del sistema para el uso de Drone2Map
Estándares de hardware Especificaciones
mínimas de hardware
Especificaciones
recomendadas de hardware
51
Sistema operativo Windows 7, 8 o 10 de
64 bit Windows 7, 8 o 10 de 64 bit
CPU Cualquiera Núcleo cuádruple o hexa
núcleo Intel i7 / Xeon
GPU Cualquiera compatible
con OpenGL 3.2
GeForce GPU compatible con
OpenGL 3.2 y 2 GB de RAM
Proyectos pequeños
(menos de 100
imágenes a 14 MP)
RAM 4 GB 8 GB
Espacio libre
en disco duro 10 GB 15 GB
Proyectos medianos
(de 100 a 500
imágenes a 14 MP)
RAM 8 GB 16 GB
Espacio libre
en disco duro 20 GB 30 GB
Proyectos grandes (de
500 a 2000 imágenes
a 14 MP)
RAM 16 GB 32 GB
Espacio libre
en disco duro 40 GB 60 GB
Proyectos muy
grandes (más de 2000
imágenes a 14 MP)
RAM 16 GB 32 GB
Espacio libre
en disco duro 80 GB 120 GB
Fuente: Elaborada con datos de (ArcGIS, s. f.)
7. Metodología
Para lograr los objetivos propuestos se diseña e implementa una metodología que parta desde
el trabajo en campo, seguido por el procesamiento digital de las imágenes obtenidas, y por último
la comparación de los productos obtenidos acorde a una serie de parámetros definidos
específicamente. El flujo de trabajo a desarrollar se ilustra en la Figura 14, y se resume en tres
fases principales como sigue.
52
Figura 14. Flujo metodológico
Fuente: Autor
53
7.1. Fase 1: Documentación e Investigación
Se incluye en esta fase del proceso la documentación, investigación de información, solicitud
de permisos para la toma de datos y la adquisición de materiales para el desarrollo del proyecto,
además se establece la problemática a tratar acorde con la revisión bibliográfica realizada, y
adicionalmente la delimitación de la zona de estudio sobre el Parque Nacional Natural Chingaza
antes de efectuar el levantamiento; para lo cual se decidió con base a visitas preliminares a campo
tomar algunos criterios que permitieron la definición del área de estudio. Entre ellos están la
selección de una zona cerca a la vía principal, de fácil acceso puesto que en el parque no es posible
abrir caminos o cortar vegetación para acceder con equipos, un área cuya cobertura sea
predominantemente vegetal en aras de mostrar el alcance de los productos cartográficos que
pueden ser obtenidos con UAV, y de igual forma si existe alguna dificultad con este tipo de
coberturas tal y como lo asegura la revisión bibliográfica realizada, y finalmente un lugar que
permita la localización de las señales que servirán de puntos de control, por lo que no puede tratarse
de zonas escarpadas o con rastrojos altos, sumado al hecho que dado que se requiere que los puntos
materializados sean movibles y de gran tamaño, debe ser posible el acceso y movilidad a cada uno
de los espacios donde se localicen éstos.
Finalmente se realiza el trámite permitente para el préstamo y adquisición de los equipos de la
Universidad contando ya con el soporte de aprobación para el ingreso y toma de datos en el Parque
Nacional Natural Chingaza por parte de Parques Nacionales Naturales de Colombia, y a partir de
ello se preparan los sensores e instrumentos que ya se han seleccionado para proceder a la fase
operativa.
54
7.2.Fase 2: Operativa
Esta fase corresponde al desarrollo del proceso fotogramétrico del proyecto y el procesamiento
de la información, es decir, la señalización y localización de los puntos de control terrestres, junto
con el desarrollo del trabajo en campo con los instrumentos y sensores, tanto en la captura de las
imágenes multiespectrales haciendo uso del UAV, como en el control terrestre mediante la
adquisición y procesamiento de los datos GPS tomados en los puntos de control definidos. Además
de ello, el manejo, la preparación y el procesado de las imágenes tomadas, partiendo de la elección
de los softwares participes en el estudio, esto teniendo en cuenta factores como lo son: la necesidad
de una licencia, el tiempo de adquisición de esta, la posibilidad de adquirir versiones gratuitas, etc,
hasta llegar a la obtención de los productos cartográficos. En este caso, para poder llegar a la
obtención adecuada del ortomosaico, se aplicarán metodologías que dependerán en gran medida
de la elección de los softwares; que van desde la elección de las imágenes más adecuadas para
desarrollar el producto final hasta su obtención, así como también los manuales de los softwares
usados en caso de ser necesario.
7.3. Fase 3: Análisis
En esta fase se hace la evaluación de los resultados obtenidos de la fase anterior en cada
software, y posteriormente se lleva a cabo la comparación con el fin de aportarle elementos de
juicio a un usuario cualquiera al momento de hacer la elección de ortomosaicos desarrollados con
UAV, esto teniendo en cuenta factores como la precisión geométrica, la calidad visual, el costo y
la facilidad de uso para establecer el software más adecuado para este fin. Igualmente se añade
también el tiempo de procesamiento al ser un factor pertinente en el contexto actual, dadas las
55
capacidades de recurso máquina, además de tratarse de un tiempo considerable en el desarrollo del
proyecto.
8. Resultados
8.1. Proceso Fotogramétrico: Primera Etapa
La planeación del vuelo se realizó en el software Mission Planner definiendo algunos
parámetros (Tabla 8) para el cálculo de la altura de vuelo y de los centros de proyección de la
cámara (“waypoints); estos parámetros se encuentran en función del objetivo del vuelo, que como
se sabe se pretende la generación detallada de productos cartográficos por lo que generalmente se
requieren vuelos de baja altitud para conseguir pequeños GSDs (Nex & Remondino, 2014).
Tabla 8.
Parámetros para la planeación del vuelo
Parámetros Valor
Longitud focal de la cámara 5,049 mm
Líneas de vuelo 4
Altura de vuelo 40 metros
GSD 1,412 cm/pix
Escala 1:7922
Fuente: Autor
Se planearon dos vuelos con una altura de 40 metros cuya definición de las rutas se enseñan en
la Figura 15.
56
(a) Vuelo 1 (b) Vuelo 2
Figura 15. Plan de vuelo
Fuente: Autor
Para el control terrestre se distribuyeron 5 GCP aproximadamente de forma equidistante entre
sí en la zona de estudio que corresponden a marcas físicas artificiales en triplex, con forma de L
(ele) de 100cmX100cm y con un recorte interno de 20cm (Figura 16.a). Sobre estos se realizó la
toma de datos de su posición geográfica planimétrica y altimétrica haciendo uso de dos antenas
receptoras GNSS GR-5 (Figura 17); equipos y procedimiento trascendental en la obtención de
productos fotogramétricos, y sobre los cuales es indispensable asegurar su correcto levantamiento
debido a que la mayoría de los errores presentados en estos productos provienen de la
exactitud de los equipos (Yucel & Turan, 2016), y que en últimas serán reflejados en la
evaluación de los productos por medio del RMSE.
Como complemento en la gestión del control terrestre se usó la GCS ilustrada en la Figura 16.b
para la correcta calibración del UAV y la consecuente ejecución de la misión, control y
observación de la misma mediante el empleo del software Mission Planner.
57
(a) GCP (b) GCS
Figura 16. Control terrestre
Fuente: Autor
Figura 17. Toma de GCP (marcas físicas artificiales) en campo
Fuente: Autor
Contando ya con las rutas creadas, preparación y disposición de los equipos se efectuó el vuelo
y toma fotográfica el día 13 de agosto del 2016; sin embargo al realizar la comprobación de calidad
de datos en tiempo real y bajo las condiciones climáticas propias de la zona que se traducen en
dificultades para la captura y visualización de las imágenes (Figura 18) se tuvo que efectuar
nuevamente el plan de vuelo el día 14 de agosto del mismo año. El primer vuelo ejecutado a las
7:40 am tuvo una duración de 8 minutos y 43 segundos y el segundo a las 9:45 am con una duración
de 7 minutos y 25 segundos. En la Figura 19 se ilustra el UAV durante el vuelo y finalizada la
misión en aterrizaje.
58
Figura 18. Fotografías aéreas en condiciones de neblina
Fuente: Autor
Figura 19. UAV en ejecución del vuelo y en aterrizaje
Fuente: Autor
Además de las fotografías se obtuvo información durante el vuelo sobre cada una de estas como
lo son las coordenadas de los centros y la orientación del sensor al momento de la toma; registrando
latitud, longitud, altura, yaw, pitch y roll exportado a un archivo .txt o .csv (Figura 20).
59
Figura 20. Datos GPS/IMU registrados en un vuelo
Fuente: Autor
8.2. Selección de Softwares y Trámite de Licencias
Para el procesamiento de las imágenes se dispuso de cinco paquetes de softwares
fotogramétricos; dos de ellos convencionales y los tres restantes orientados al procesamiento
específico de imágenes capturadas con UAV.
Los softwares fotogramétricos convencionales seleccionados fueron Inpho e Imagine
Photogrammetry (LPS), pese a que Inpho ofrece un módulo para los UAV’s (UAS Master) no se
contaba con su disponibilidad inmediata. Estos paquetes fotogramétricos fueron usados
directamente en la Universidad en el Laboratorio de Fotogrametría Digital por lo que se obvió el
trámite de licencias con las que ya se contaban.
En cuanto a los softwares orientados a los UAV’s se emplearon Agisoft Photoscan, Pix4D
Mapper y Drone2Map. La gestión de licencias fue un proceso diligente para los tres softwares, en
el caso de Agisoft PhotoScan se adquirió la versión profesional de prueba con un tiempo limitado
60
de uso de 30 días, Pix4D Mapper por su parte se obtuvo mediante la versión de prueba para un uso
de 15 días, y finalmente Drone2Map mediante una licencia tramitada con Esri por dos meses.
8.3. Proceso Fotogramétrico: Segunda Etapa
Dando inicio a la fase de trabajo en oficina se procesaron los datos crudos registrados por las
antenas receptoras GNSS GR-5 en el software Leica, obteniendo como resultados la visualización
en pantalla sobre la distribución de los GCP (Figura 21) y sus respectivas coordenadas geográficas
(Tabla 9).
Figura 21. Distribución de GCP
Fuente: Elaborado con software Leica
Tabla 9.
Coordenadas de los GCP preseñalizados
Punto Latitud (N) Longitud (W) Altura (m)
Base 001 4º44’49.90636’’ 73º51’19.26682’’ 3527.6787
1 (R1) 4º44’50.01075’’ 73º51’19.31667’’ 3527.9276
2 (R2) 4º44’50.94503’’ 73º51’21.40263’’ 3550.9254
3 (R3) 4º44’53.04643’’ 73º51’17.62357’’ 3533.2642
4 (R4) 4º44’54.80761’’ 73º51’19.80932’’ 3557.8617
5 (R5) 4º44’52.22888’’ 73º51’19.38293’’ 3541.2547
Fuente: Autor
61
Sobre la ejecución de los paquetes fotogramétricos es importante destacar que se van a
evidenciar disparidades entre los hardware usados para los procesamientos y con ello diferencias
de tiempo en los mismos. Para Inpho e Imagine Photogrammetry (LPS) se usó el equipo
“Dell_04”, en el caso de Agisoft Photoscan y Drone2Map se utilizó el hardware “project-evaluac”
del Centro para Computación de Alto Desempeño (CECAD) de la Universidad Distrital a través
de la aplicación de “Conexión a Escritorio remoto”, mientras que Pix4D Mapper no permitió
ejecutarse por medio de la conexión a ordenadores remotos implicando el empleo de un hardware
adicional (“Karen”). Las características de cada uno de los equipos se localizan en la Tabla 10.
Tabla 10.
Características de los equipos usados en la ejecución de los paquetes fotogramétricos
Información del
sistema
Hardware usado para
Inpho y LPS
Hardware usado para
Agisoft PhotoScan y
Drone2Map
Hardware usado para
Pix4D Mapper
Nombre del equipo Dell_04 project-evaluac Karen
Sistema operativo Windows 7 Windows 7 Windows 10
Procesador Intel Core i7 Intel Core i7 Intel Core i5
Memoria RAM 16 GB 14,5 GB 8 GB
Tipo de sistema Sistema operativo de
64 bits
Sistema operativo de
64 bits
Sistema operativo de
64 bits
Fuente: Autor
8.3.1. Procesado de datos con softwares convencionales
Se inició el procesamiento de las fotografías aéreas con Inpho y LPS utilizando sobre estos
como primera medida los datos del Vuelo 2 capturados en RGB siguiendo los métodos que se
presentan a continuación:
1. Inpho: En primer lugar se definió el proyecto y con este el sistema de referencia que para
el caso fue local, paso seguido se realizó la identificación de la cámara usada en el vuelo,
longitud focal y dimensiones (Figura 22); parámetros editados manualmente al tratarse de
62
una cámara digital y no estar almacenada por defecto en la memoria de cámaras de Inpho.
Un espacio adicional y opcional para diligenciar en la edición de cámara fue el de
coeficientes de distorsion que tienen que ver con parámetros para la calibración de la
cámara; estos son coeficientes de distorsión radial (K1, K2, K3, K4) y distorsión tangencial
de los lentes (P1, P2), sin embargo se decide realizar el procesamiento sin la inclusión de
dichos parámetros.
Las fotografías aéreas fueron importadas y se relacionó la altura promedio del terreno que
corresponde a 3500 m, también se importó el archivo GPS/IMU como datos iniciales de
orientación externa con la inclusión de las coordenadas X, Y Z y las rotaciones angulares
ω, ϕ y k para cada una de las fotografías así como la asignación y asociación de desviaciones
por defecto de las posiciones y rotaciones (Figura 23).
Figura 22. Definición de parámetros de la cámara en Inpho
Fuente: Elaboración propia en software Inpho
63
Figura 23. Importación de datos GPS/IMU y asignación de desviaciones en Inpho
Fuente: Elaboración propia en software Inpho
Paso seguido se importaron las coordenadas correspondientes a los GCP e igual que en el
paso anterior se asociaron estos de forma automática a desviaciones estándar (Figura 24).
Figura 24. Importación de coordenadas de GCP y asignación de desviaciones en Inpho
Fuente: Elaboración propia en software Inpho
Fueron asignadas para cada una de las 4 líneas de vuelo las fotografías que pertenecen a las
mismas (Figura 25) y finalizado este proceso en conjunto con los anteriores de suministro
de datos iniciales se enseña en pantalla el trazado de las líneas de vuelo, la distribución de
las fotografías aéreas y de los 5 GCP usados (Figura 26).
64
Figura 25. Asignación de fotografías correspondientes por línea de vuelo en Inpho
Fuente: Elaboración propia en software Inpho
Figura 26. Visualización de líneas de vuelo, fotografías y GCP en Inpho
Fuente: Elaboración propia en software Inpho
65
En aras de completar el procesamiento se dio uso a partir de este punto del módulo MATCH-
AT de Inpho para la localización de los GCP en las imágenes; tarea simplificada por el
software ya que al contar con los previos datos de orientación externa y coordenadas de los
GCP el propio software ha de identificar la zona aproximada en la que deberían aparecer,
quedando en manos del usuario el ajuste de posición de acuerdo a las imágenes visualizadas.
En la Figura 27 se ilustran los GCP en las imágenes, el listado de los mismos, el tipo de
punto que para el caso son puntos de control horizontal y vertical (HV) y sus
correspondientes predicciones, es decir el número de fotografías en las que se identifica
cada GCP. Los GCP 2 y 4 no fueron identificados por el software en ninguna fotografía, el
GCP 1 en 5 fotografías, el 3 en 2 fotografías y el 5 en 4 fotografías, partiendo de los tres
puntos con predicciones solamente pudieron ser medidos los puntos 1 y 3 ya que las
fotografías relacionadas al GCP 5 no correspondían ciertamente a este.
Figura 27. Localización de los GCP en Inpho
Fuente: Elaboración propia en software Inpho
66
Acto seguido se inició el proceso de orientación externa a partir de los datos GPS/IMU
importados anteriormente (Figura 28) y la extracción automática de puntos de enlace o tie
con ajuste de bloques. Una vez se corrieron los procesos el software arrojó un error sobre
el ajuste fotogramétrico y dio por terminado el procesamiento (Figura 29), sumado a una
notoria alteración en lo que había sido la visualización inicial del trazado de las líneas de
vuelo, distribución fotografías y de los GCP (Figura 30).
Figura 28. Inicialización de la orientación externa en Inpho
Fuente: Elaboración propia en software Inpho
Figura 29. Error en ajuste fotogramétrico en Inpho
67
Fuente: Elaboración propia en software Inpho
Figura 30. Alteración en la visualización de líneas de vuelo, fotografías y GCP en Inpho
Fuente: Elaboración propia en software Inpho
2. Imagine Photogrammetry (LPS): Mediante la creación de un nuevo proyecto en LPS se
ingresó el sistema de referencia, la carga de fotografías y el ingreso de datos de la cámara
que hacen parte de los parámetros para la orientación interna (Figura 31); definiendo que se
trata de una cámara digital y asignando los respectivos valores de longitud focal, punto
principal x0, y0 en mm que para el ejercicio se trabajó en ceros, tamaño de pixel y altura de
vuelo.
Hecha la orientación interna se editaron los parámetros para la realización de la orientación
externa agregando los datos GPS/IMU (Figura 32) y obteniéndose una visualización en
pantalla de la localización para cada fotografía.
68
Figura 31. Definición de parámetros de la cámara en LPS
Fuente: Elaboración propia en software LPS
Figura 32. Carga de datos GPS/IMU por fotografía en LPS
Fuente: Elaboración propia en software LPS
El paso a seguir consistió en la creación de los GCP e inserción de sus respectivas
coordenadas (X, Y, Z) para iniciar con un proceso de identificación de los puntos de forma
manual en las fotografías en las que se encontraban. Localizados los GCP se enseña una
correspondencia entre las coordenadas terreno y las coordenadas imagen que se ilustra en
las tablas de la Figura 34, y en la Figura 35 la ubicación de estos sobre la distribución de las
fotografías.
69
Figura 33. Localización de los GCP en LPS
Fuente: Elaboración propia en software LPS
Figura 34. Visualización de GCP y fotografías en LPS
Fuente: Elaboración propia en software LPS
70
Se procedió a realizar la generación de puntos tie de forma automática a través de la
correlación de pixeles para consecutivamente triangularlos a partir de los GCP levantados
en campo y hallar sus coordenadas reales. Sin embargo en la generación de puntos tie el
software falla (Figura 35) y de igual forma lo hace en el intento de ejecutar la triangulación,
presentando un error dada la inexistencia de puntos tie y la cantidad insuficiente de GCP
que como mínimo deben presentarse para cada imagen en una cantidad de 6 o 3
respectivamente (Figura 36).
Figura 35. Error en la generación automática de puntos tie en LPS
Fuente: Elaboración propia en software LPS
Figura 36. Error en triangulación en LPS
Fuente: Elaboración propia en software LPS
71
Teniendo en cuenta lo anterior se ha de destacar que en las imágenes capturadas no se
encuentran para todas la localización de GCP, y en las que se encuentran se tiene como
máximo por imagen un GCP. En el proceso de LPS de identificación manual de los GCP
correspondientes por fotografías se hallaron irregularidades en los datos generados en el
vuelo que tienen que ver con la captura fotográfica de los puntos preseñalizados, pues
además de enseñarse en la Tabla 11 que de las 167 fotografías tomadas en el Vuelo 2 en
RGB, 45 son las que cuentan con un GCP, se tiene que son tres los GCP con los que
realmente se cuenta. Se realizó la verificación también en las demás capturas y en la misma
tabla se enseña que efectivamente en ningún vuelo se capturaron en su totalidad los 5 GCP.
Tabla 11.
Número de fotografías identificadas para cada GCP
Número de fotografías en las que se identifican GCP
GCP
Vuelo 2 Vuelo 1
RGB NIR G B RGB NIR G B
1 32 30 4 9
2 1 1 0 0
3 5 5 7 3
4 0 0 0 0
5 7 7 4 5 Fuente: Autor
8.3.2. Segundo control terrestre
Partiendo del hecho anterior y en referencia al marco teórico sobre la existencia de mínimo tres
GCP como requisito en la realización del ajuste fotogramétrico, cabe adicionar que el contar con
una mayor cantidad de puntos con control terrestre permite la determinación del error en el que se
incurre en la generación de los productos cartográficos; razón por la que se consideró viable ir
nuevamente a la zona de estudio y tomar datos sobre tres marcas físicas naturales seleccionadas
72
(rocas y frailejones muertos) tras realizar una fotoidentificación y estimación de las coordenadas
de estas en el terreno a través del uso de Pix4D Mapper.
Este segundo control terrestre se realizó el 10 de septiembre del 2017 (Figura 37) ubicando las
coordenadas estimadas con ayuda del navegador Garmin GPSMAP 64s y haciendo uso
nuevamente de las antenas receptoras GR-5 y un controlador Topcon FC 2600 con conexión a
estas a fin de verificar y tener certeza del registro de datos.
Figura 37. Toma de GCP (marcas físicas naturales) en campo
Fuente: Autor
Procesados los datos de campo se obtuvieron las coordenadas para los GCP fotoidentificados
como sigue:
Tabla 12.
Características y coordenadas de los GCP fotoidentificados
Punto
fotoidentificado
Tipo de
punto Imagen
Coordenadas
Latitud (N) Longitud (W) Altura (m)
73
C1 Roca
4º44’53,16398’’ 73º51’19,21386’’ 3542,241
C4 Frailejón
muerto
4º44’50,88192’’ 73º51’19,38172’’ 3532.495
C5 Roca
4º44’50,27059’’ 73º51’19,64323’’ 3533,463
Fuente: Autor
8.3.3. Procesado de datos con softwares orientados a los UAV’s
En términos generales los tres softwares orientados a los UAV’s que se utilizaron siguen los
mismos flujos de trabajo de procesamiento que consisten en la selección de imágenes a utilizar,
asignación del modelo y parámetros de la cámara, búsqueda automática de puntos tie entre
imágenes haciendo uso de algoritmos de SfM, asignación de los 6 parámetros de orientación
externa y únicos para cada imagen, georreferenciación de imágenes con la identificación de GCP,
triangulación, reconstrucción de imágenes a través de la densificación de puntos, generación de
DEM y ortofotomosaico.
Dada la existencia de una mayor cantidad de fotografías identificadas con GCP en el Vuelo 2,
se decidió realizar los procesamientos sobre estos datos. Fueron tres procesamientos por software,
74
RGB con GCP preseñalizados, RGB con GCP preseñalizados y fotoidentificados, y NIR G B con
puntos preseñalizados. Es importante destacar que el procesamiento para la combinación de bandas
NIR G B con GCP preseñalizados y fotoidentificados no se llevó en efecto a razón de los resultados
en los demás procesamientos.
1. Agisoft PhotoScan: Comenzando con la carga de las imágenes, datos GPS/IMU (Figura
38) y definición de sistema de coordenadas (WGS84) el software permitió visualizar un
modelo inicial en base a las coordenadas geográficas asignadas (Figura 40 a) y paso seguido
se realizó la verificación de los parámetros que son detectados por el software
automáticamente al reconocer el modelo de la cámara (Figura 39); estos son tipo de cámara,
tamaño de pixel y longitud focal.
Figura 38. Carga de datos GPS/IMU por fotografía en Agisoft PhotoScan
Fuente: Elaboración propia en software Agisoft PhotoScan
75
Figura 39. Parámetros de la cámara detectados por Agisoft PhotoScan
Fuente: Elaboración propia en software Agisoft PhotoScan
A partir de estos datos se realizó la orientación de fotografías mediante la identificación de
las posiciones de la cámara que son representadas por rectángulos azules en la Figura 40.b,
para continuar con la búsqueda automática de puntos correspondientes entre pares de
fotografías mediante una nube de puntos dispersa; la cual se utilizó como insumo en la
construcción de una malla de superficie triangular o red triangular irregular (TIN) con el
objeto de cambiar la densidad de los puntos de muestreo y posición de acuerdo al relieve y
reducir redundancia de datos (Figura 40.c). Después de esto se realizó el ingreso de
coordenadas de GCP y su posicionamiento en las imágenes (Figura 40.d) con ayuda de la
detección y estimación automática hecha por el software sobre la ubicación aproximada de
los puntos.
Por otro lado, fue necesario optimizar la orientación de la cámara en aras de lograr una alta
precisión en el cálculo de parámetros internos y externos, además de corregir posibles
errores de distorsión. Sucesivamente se creó una nube densa de puntos (Figuras 40.e, 41.c
76
y 42.b) y contando a este punto con la construcción de geometría fue ahora en base a esta
nube que se realizó la reconstrucción de la malla TIN (Figuras 40.f, 41.d y 42.c). Finalmente
se creó una textura para la visualización de superficie que en últimas permitió la
construcción y obtención del DEM (Figuras 40.g, 41.e y 42.d), y a partir de este el
ortomosaico (Figuras 40.h, 41.f y 42.e).
Las Figuras 40, 41 y 42 ilustran los tres procesamientos realizados y para los cuales se
usaron los mismos parámetros (Tabla 13).
Vuelo 2 en RGB con GCP preseñalizados
(a) Modelo inicial (b) Orientación de fotos (c) Malla y GCP
y nube dispersa preseñalizados
(d) Medición GCP (e) Nube densa (f) Reconstucción de malla
77
(g) DEM (h) Ortofotomosaico
Figura 40. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados
Fuente: Elaboración propia en software Agisoft PhotoScan
Vuelo 2 en RGB con GCP preseñalizados y fotoidentificados
(a) Orientación de
fotos y nube dispersa (b) GCP preseñalizados (rojos)
y fotoidentificados (amarillos) (c) Nube densa
(d) Reconstrucción de
malla (e) DEM (f) Ortofotomosaico
78
Figura 41. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados
Fuente: Elaboración propia en software Agisoft PhotoScan
Vuelo 2 en NIR G B con GCP preseñalizados
Figura 42. Proceso en Agisoft PhotoScan para el Vuelo 2 NIR G B con GCP preseñalizados
Fuente: Elaboración propia en software Agisoft PhotoScan
Tabla 13.
Parámetros usados en el procesamiento de Agisoft PhotoScan
Paso Parámetro Selección
Orientación de fotos
Precisión Alta
Par de preselección Referencia (Posiciones de la cámara
conocidas)
Límite de puntos 40000 (Puntos característicos por imagen)
Calidad Media
(a) Orientación de
fotos y nube dispersa (b) Nube densa (c) Reconstrucción de
malla
(d) DEM (e) Ortofotomosaico
79
Construcción de nube
densa de puntos
Filtrado de profundidad Moderado (En escenas de reconstrucción
complejas)
Datos fuente Nube densa de puntos
Nivel de caras del modelo Medio
Interpolación Habilitada
Construcción de
textura
Modo de trazado Ortofoto
Modo de fusión Mosaico
Fuente: Autor
2. Pix4D Mapper: Se dispuso a la creación del proyecto, carga de imágenes y registro de
geolocalización de las anteriores (Figura 43). Pix4D Mapper identifica el sistema de
coordenadas en el que se registró la localización de fotografías (WGS84/ UTM Zona 18N
(egm96)) y el modelo de la cámara, con los parámetros de dimensiones de la imagen,
longitud focal en pixeles y milímetros, punto principal x e y en pixeles y en milímetros,
tamaño del sensor y tamaño del pixel, además de las características espectrales de la cámara
siendo posible realizar un ajuste en las bandas (Figura 44); herramienta útil para el
procesado de imágenes en NIR G B.
Figura 43. Carga de datos GPS/IMU por fotografía en Pix4D Mapper
Fuente: Elaboración propia en software Pix4D Mapper
80
Figura 44. Definición de parámetros de la cámara en Pix4D Mapper
Fuente: Elaboración propia en software Pix4D Mapper
Para todos los procesamientos se seleccionó la plantilla “Mapas 3D” al estar dirigida a
imágenes adquiridas mediante un plan de vuelo y permitir generar ortomosaicos con
consistencia y alta calidad. Ya a este punto, con la carga de insumos y especificaciones
definidas, se mostró en pantalla el modelo inicial (Figura 45.a) y se dio partida a la etapa de
“Procesamiento inicial” en la que se calibra la cámara, se orientan las imágenes buscando
coincidencias entre estas a través de la creación puntos de paso (Figuras 45.b, 46.a y 47.a).
81
Acto seguido se ingresaron las coordenadas de los GCP cuya posición se visualiza sobre el
modelo en las Figuras 45.c y 46.b, y la medición sobre las imágenes (Figura 45.d);
marcación rápida y precisa al partir del procesamiento inicial.
Previo al desarrollo de la segunda etapa (“Nube de puntos y malla”) se reoptimizó el
procesamiento inicial para dar lugar al proceso de triangulación. La segunda etapa consistió
en la densificación de la nube de puntos, un proceso de filtrado y suavizado para la
corrección de puntos erróneos o ruidosos, y la creación de una malla 3D texturizada con el
fin de triangular los puntos densificados de la nube (Figuras 45.e, 46.c y 47.b).
Finalmente, la tercera etapa “DSM y ortomosaico”, permitió generar una superficie (Figuras
45.f, 46.d y 47.c) a la que también se le aplicó el suavizado ante posibles áreas con errores,
y sobre esta el ortofotomosaico (Figuras 45.g, 46.e y 47d).
Las Figuras 45, 46 y 47 ilustran los tres procesamientos realizados y para los cuales se
usaron los mismos parámetros (Tabla 14).
Vuelo 2 en RGB con GCP preseñalizados
(a) Modelo inicial
(c) GCP
preseñalizados
(b) Orientación de
fotos y nube dispersa (d) Medición GCP
82
Figura 45. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados
Fuente: Elaboración propia en software Pix4D Mapper
Vuelo 2 en RGB con GCP preseñalizados y fotoidentificados
Figura 46. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados
(e) Nube densa y malla
(b) GCP preseñalizados y
fotoidentificados
(c) Nube densa y
malla
(d) DSM (e) Ortofotomosaico
(a) Orientación de
fotos y nube dispersa
(f) DSM (g) Ortofotomosaico
83
Fuente: Elaboración propia en software Pix4D Mapper
Vuelo 2 en NIR G B con GCP preseñalizados
Figura 47. Proceso en Pix4D Mapper para el Vuelo 2 NIR G B con GCP preseñalizados
Fuente: Elaboración propia en software Pix4D Mapper
Tabla 14.
Parámetros usados en el procesamiento de Pix4D Mapper
Paso Parámetro Selección
Procesamiento inicial Número de puntos Automático
Nube de puntos
Escala de imagen 1/2 (Mitad del tamaño de la
imagen)
Densidad de puntos Óptima
Número mínimo de emparejamientos 3
Generación de malla 3D con textura Sí – Resolución: Media
(b) Nube densa y malla
(c) DSM (d) Ortofotomosaico
(a) Orientación de
fotos y nube dispersa
84
DSM/Ortomosaico Filtro de ruido Sí
Suavizado de superficie Sí
Fuente: Autor
3. Drone2Map: Los pasos adoptados para el procesado de datos en Drone2Map consistieron
en la elección inicial de la plantilla “2D Mapping”, ideal para la creación de ortomosaicos
y modelos de elevación de alta resolución. Se dio paso a la creación de un nuevo proyecto,
selección de sistema de coordenadas y carga de imágenes con su respectivo archivo para la
geolocalización; donde se identificó que Drone2Map solamente permite la entrada de los
datos GPS de las imágenes, más no de los datos IMU (Figura 48). Sobre las propiedades de
la cámara, el software identifica modelo, longitud focal y tamaño del pixel, sin embargo no
permite la modificación o entrada de parámetros adicionales.
Figura 48. Carga de datos GPS por fotografía en Drone2Map
Fuente: Elaboración propia en software Drone2Map
85
La Figura 49.a presenta el modelo inicial visualizado en pantalla sobre un mapa base de la
zona de estudio. En este momento se inició un proceso similar al de Pix4D Mapper y con
una interfaz para el procesamiento, basada también en las mismas tres etapas. Ciertas
distinciones se presentan, dado que Drone2Map después de realizar el procesamiento inicial
permite localizar sobre el modelo (Figuras 49.b y 50.a), estimar la ubicación y medir los
GCP (Figura 49.c), no hay una opción de reoptimización de la etapa. Sobre la segunda etapa
se lleva a cabo la densificación de puntos pero dadas las opciones de la plantilla no se realiza
la creación de la malla 3D texturizada que genera el software en comparación. En su última
etapa, Drone2Map, permite generar DSM con filtrado y suavizado (Figuras 49.d, 50.b y
51.a) y ortomosaicos (Figuras 49.e, 50.c y 51.b).
Las Figuras 49, 50 y 51 ilustran los tres procesamientos realizados y para los cuales se
usaron los mismos parámetros (Tabla 15).
Vuelo 2 en RGB con GCP preseñalizados
(a) Modelo inicial
(b) GCP
preseñalizados (c) Medición GCP
86
Figura 49. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados
Fuente: Elaboración propia en software Drone2Map
Vuelo 2 en RGB con GCP preseñalizados y fotoidentificados
Figura 50. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados
Fuente: Elaboración propia en software Drone2Map
Vuelo 2 en NIR G B con GCP preseñalizados
(d) DSM (e) Ortofotomosaico
(a) GCP preseñalizados
y fotoidentificados (b) DSM (c) Ortofotomosaico
87
Figura 51. Proceso en Drone2Map para el Vuelo 2 NIR G B con GCP preseñalizados
Fuente: Elaboración propia en software Drone2Map
Tabla 15.
Parámetros usados en el procesamiento de Drone2Map
Paso Parámetro Selección
Procesamiento inicial Número de puntos Automático
Nube de puntos
Escala de imagen 1/2 (Mitad del tamaño de la
imagen)
Densidad de puntos Óptima
Número mínimo de emparejamientos 3
Generación de malla 3D con textura No
DSM/Ortomosaico Filtro de ruido Sí
Suavizado de superficie Sí
Fuente: Autor
9. Análisis de Resultados
Partiendo del hecho que no se lograron obtener productos a partir del uso de softwares
convencionales, se evalúan únicamente los softwares fotogramétricos orientados a los UAV’s
mediante los análisis de resultados y bajo los siguientes criterios:
(a) DSM (b) Ortofotomosaico
88
9.1. Precisión Geométrica
En los tres procesos realizados, cada uno en los tres softwares orientados a los UAV’s, se
obtuvieron errores residuales de los puntos de control en el ajuste de bloques (Tabla 16). De forma
atípica se presentó para el caso de Drone2Map la inexistencia de tales valores en los procesos en
RGB con GCP preseñalizados y fotoidentificados y en NIR G B con GCP preseñalizados. Este
comportamiento es explicado comúnmente por errores detectados ya sea en coordenadas o
marcación sobre las imágenes, que hacen que el GCP sea descartado por el software, sin embargo
esta explicación no se adapta al caso de NIR G B pues los GCP medidos al ser preseñalizados no
tienen la tendencia a este tipo de errores. No obstante, una característica detectada en el
procesamiento con las bandas NIR G B; a excepción de Agisoft PhotoScan, fue la dificultad por
el software para estimar la posición de los GCP de forma automática sobre las imágenes.
En términos generales, se observa una tendencia de aumento de error al incluir en los procesos
GCP fotoidentificados. En Agisoft PhotoScan el error total de ajuste de los GCP preseñalizados y
fotoidentificados es más de 396 veces mayor que el obtenido al usar únicamente los GCP
preseñalizados en RGB. En Pix4D Mapper se presenta igualmente el aumento de error pero en
proporciones mínimas, siendo en promedio 0,47 veces mayor el error, pese a ello, es necesario
resaltar que aunque la diferencia de residuales en este caso es insignificante se tiene un alto
contraste de los valores con respecto a Agisoft PhotoScan, pues en Pix4D Mapper los errores
presentados son métricos en un rango de 4,263 a 27,236 metros.
Sobre los procesos realizados con bandas RGB y GCP preseñalizados se destaca el resultado
de Drone2Map, pues evidentemente es el que presenta menores errores, con un promedio de 0,12
mm.
89
Con respecto al procesado de datos con bandas NIR G B los errores aumentan en relación a la
banda RGB con el uso de GCP preseñalizados, 38 veces en total en Agisoft PhotoScan y 17 veces
en promedio en Pix4D Mapper.
Finalmente, y sobre la reproyección de posición de los puntos tie, la Tabla 16 también enseña
los errores que se presentan en el proceso. Agisoft PhotoScan en todos sus procesamientos es el
que presenta los mayores errores, y en el caso de los otros dos softwares el error no supera la
unidad de pixel.
Tabla 16.
RMSE de GCP y reproyección de acuerdo al software y proceso
Bandas
de las
imágenes
Proceso Software
RMSE en GCP RMSE
reproyección
(pixel) X
(mm)
Y
(mm)
Z
(mm)
Total
(mm)
RGB Con GCP
preseñalizados
Agisoft
PhotoScan 1,158 0,830 0,455 1,496 2,349
Pix4D
Mapper 20.283 4.718 13.776 - 0,183
Drone2Map 0,046 0,061 0,254 - 0,170
RGB
Con GCP
preseñalizados y
fotoidentificados
Agisoft
PhotoScan 475,691 295,798 194,317 592,906 38,959
Pix4D
Mapper 27.236 4.263 16.284 - 0,461
Drone2Map - - - - 0,186
NIR G B Con GCP
preseñalizados
Agisoft
PhotoScan 23,536 14,517 50,091 57,217 6,983
Pix4D
Mapper 14.277 10.091 698.536 - 0,151
Drone2Map - - - - 0,152
Fuente: Autor
9.2. Calidad Visual
Los ortofotomosaicos obtenidos en los tres procesamientos para cada software se ilustran en la
Figuras 52, 53 y 54 con fines de facilitar la comparación en términos de calidad visual.
90
Figura 52. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP preseñalizados
Fuente: Elaboración propia en softwares Agisoft PhotoScan, Pix4D Mapper y Drone2Map
(a) Agisoft PhotoScan (b) Pix4D Mapper (c) Drone2Map
91
Figura 53. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP preseñalizados y fotoidentificados
Fuente: Elaboración propia en softwares Agisoft PhotoScan, Pix4D Mapper y Drone2Map
(a) Agisoft PhotoScan (b) Pix4D Mapper (c) Drone2Map
92
Figura 54. Comparación de ortofotomosaicos obtenidos del Vuelo 2 NIR G B con GCP preseñalizados
Fuente: Elaboración propia en softwares Agisoft PhotoScan, Pix4D Mapper y Drone2Map
(a) Agisoft PhotoScan (b) Pix4D Mapper (c) Drone2Map
93
La calidad visual en los ortofotomosaicos se encuentra en función de los errores evaluados en
la precisión geométrica que implican dificultades en la reconstrucción del terreno. Sin excepción
alguna, en los 9 ortofotomosaicos generados, se obtuvieron zonas sin reconstruir o sin información,
y con mayor presencia en los procesos con GCP preseñalizados y fotoidentificados en RGB y con
GCP preseñalizados en NIR G B.
Además de las zonas sin información, se suman a los errores visuales duplicidad de elementos,
zonas sin información, deformación de elementos y corrimiento de la imagen, los anteriores
visualizados a detalle en la Tabla 17 para los procesos con RGB y en la Tabla 18 para los procesos
con NIR G B. Los errores que se presentan de forma significativa son los de duplicidad de
elementos sobre productos de las Figuras 53.c, 54.b y 54.c, pues gran parte de la reconstrucción
del terreno para estos productos se encuentra duplicada.
Tabla 17.
Comparación de errores visuales para los ortofotomosaicos en RGB
Error Proceso Software
Agisoft PhotoScan Pix4D Mapper Drone2Map
Du
pli
cid
ad d
e el
emen
tos
Co
n G
CP
pre
señ
aliz
ado
s
No aplica
Co
n G
CP
pre
señ
aliz
ado
s y
foto
iden
tifi
cado
s
No aplica
94
Fuente: Autor
Tabla 18.
Comparación de errores visuales para los ortofotomosaicos en NIR G B
Error Software
Agisoft PhotoScan Pix4D Mapper Drone2Map
Zo
nas
sin
in
form
ació
n
Co
n G
CP
pre
señ
aliz
ado
s
Co
n G
CP
pre
señ
aliz
ado
s
y f
oto
iden
tifi
cad
os
Def
orm
ació
n d
e el
emen
tos
Co
n G
CP
pre
señ
aliz
ado
s
No aplica
Co
n G
CP
pre
señ
aliz
ado
s y
foto
iden
tifi
cado
s
No se identifica zona
en el ortofotomosaico No aplica
Co
rrim
ien
to d
e la
im
agen
Co
n G
CP
pre
señ
aliz
ado
s
Co
n G
CP
pre
señ
aliz
ado
s y
foto
iden
tifi
cado
s
95
Du
pli
cid
ad d
e
elem
ento
s
No aplica
Zo
nas
sin
in
form
ació
n
Co
rrim
ien
to d
e la
im
agen
Fuente: Autor
En la Tabla 19 se muestran datos de algunos subprocesos que pueden representar un factor
adicional en la calidad visual del producto final. Los puntos tie generados de forma automática se
presentan en una mayor cantidad con Drone2Map para los tres procesos, siendo 603.864 el mayor
valor obtenido en el proceso de datos RGB con GCP preseñalizados, caso contrario a Agisoft
PhotoScan que en dos de sus procesamientos; RGB con GCP preseñalizados y NIR G B con GCP
preseñalizados, presenta los valores más bajos (138.981 y 199.589).
Contradictoriamente a la cantidad de puntos tie generados por Agisoft PhotoScan, en el
subproceso de densificación de nube de puntos, es el software que mayor cantidad de puntos
obtiene en los tres procesos, siendo 18.548.403 el valor máximo dado por el proceso en RGB con
GCP preseñalizados que en últimas, da respuesta al mayor número de hectáreas cubiertas (1,21
96
Ha). Es así, que de los nueve productos generados, los tres resultantes de Agisoft PhotoScan son
los que poseen una mayor cobertura de área.
Pix4D Mapper por su parte, fue el software que respondió a las menores coberturas de área en
sus tres ortofotomosaicos, dada la cantidad de número de puntos densificados. El mínimo valor de
área cubierta equivale a 0,17 Ha del proceso en RGB con GCP fotoidentificados y preseñalizados;
área disminuida en un 36% con respecto al uso únicamente de GCP preseñalizados. Así también,
en todos los softwares se presenta la reducción de área cubierta para los datos RGB al incluir los
puntos fotoidentificados.
Tabla 19.
Información de los subprocesos y producto final
Bandas de
las
imágenes
Proceso Software Puntos Tie
generados
Número de
puntos de la
nube densa
Área cubierta
(Ha)
RGB Con GCP
preseñalizados
Agisoft
PhotoScan 199.589 18.548.403 1,21
Pix4D
Mapper 417.804 8.099.904 0,47
Drone2Map 603.864 12.515.805 0,95
RGB
Con GCP
preseñalizados y
fotoidentificados
Agisoft
PhotoScan 200.134 14.114.637 1,08
Pix4D
Mapper 175.385 3.250.927 0,17
Drone2Map 540.967 10.393.873 0,78
NIR G B Con GCP
preseñalizados
Agisoft
PhotoScan 138.981 10.452.494 0,92
Pix4D
Mapper 290.752 8.378.861 0,65
Drone2Map 300.093 8.001.408 0,68
Fuente: Autor
Por último, se observa en los productos una dificultad de reconstrucción del terreno
principalmente a los costados oriental, occidental y en algunos en la zona central. Prueba de ello,
97
es la ausencia del GCP preseñalizado que se localiza en la parte nororiental, pues pese a ser medido
en las fotografías únicamente logra ser reconstruido en el ortomosaico resultante de Agisoft
PhotoScan para los datos en NIR G B con GCP preseñalizados (Figura 54.a).
La Tabla 20, referida a las imágenes calibradas en el procesamiento, enseña que es nuevamente
Agisoft PhotoScan el que presenta mejores resultados con un mayor porcentaje de calibración de
las imágenes en todos los procesos. La Tabla 21, permite visualizar el comportamiento de la
calibración de imágenes en los modelos de Pix4D Mapper y Agisoft PhotoScan por proceso, donde
los puntos azules y verdes se refieren al ajuste entre la posición inicial y la procesada, y los puntos
rojos indican las imágenes que no han sido calibradas. Las imágenes que no se calibran no son
usadas en el procesamiento y dan explicación de las zonas y costados sin reconstrucción; condición
que se presenta por la complejidad visual o repetitiva de los datos especialmente en ambientes de
densa vegetación.
Tabla 20.
Imágenes calibradas por procesamiento
Bandas de las
imágenes Proceso Software
Número de
imágenes calibradas
con respecto al total
Porcentaje de imágenes
calibradas
RGB Con GCP
preseñalizados
Agisoft
PhotoScan 145/167 86,8%
Pix4D
Mapper 88/167 52,7%
Drone2Map 120/167 71,9%
RGB
Con GCP
preseñalizados y
fotoidentificados
Agisoft
PhotoScan 146/167 87,4%
Pix4D
Mapper 83/167 49,7%
Drone2Map 108/167 64,7%
NIR G B Con GCP
preseñalizados
Agisoft
PhotoScan 89/146 61%
Pix4D
Mapper 92/146 63%
Drone2Map 92/146 63%
98
Fuente: Autor
Tabla 21.
Visualización de calibración de imágenes en los modelos de Pix4D Mapper y Drone2Map
Bandas de las imágenes Proceso Software
RGB Con GCP
preseñalizados
Pix4D Mapper Drone2Map
RGB
Con GCP
preseñalizados y
fotoidentificados
NIR G B Con GCP
preseñalizados
Fuente: Autor
99
9.3. Tiempo De Procesamiento
Acorde a la cantidad de datos, complejidad de la escena y parámetros asignados en busca de
productos de buena calidad, se dispuso de tiempos prolongados para los procesamientos como se
observa en la Tabla 22, sin embargo resulta difícil la evaluación del factor de tiempo cuando los
procesamientos no se lograron llevar a cabo en los mismos ordenadores o hardware.
Tabla 22.
Tiempos de procesamiento
Proceso Agisoft PhotoScan Pix4D Mapper Drone2Map
Paso Tiempo Paso Tiempo Paso Tiempo
RG
B C
on
GC
P
pre
señal
izad
os
Orientación
fotografías 1h 55m 40s
Procesamiento
inicial 2h 18m 38s
Procesamiento
inicial 58m 46s
Optimización de
parámetros 1m 32s
Nube de puntos
densa 6h 38m 51s
Nube de puntos
densa 39m 27s
Nube de puntos
densa 16m 50s Reconstrucción
de malla 7m 18s Malla 3D
texturizada 21m 34s
Textura 13m 33s
DSM 1m 14s DSM 37m DSM 20m 23s
Ortomosaico 23m 11s Ortomosaico 55m 26s Ortomosaico 43m 34s
RG
B C
on G
CP
pre
señal
izad
os
y
foto
iden
tifi
cados
Orientación
fotografías 2h 43s
Procesamiento
inicial 2h 30s
Procesamiento
inicial 3h 4m 44s
Optimización de
parámetros 1m 41s
Nube de puntos
densa 24h 23m
Nube de puntos
densa 30m 26s
Nube de puntos
densa
55m 35s
Reconstrucción
de malla 7m 25s Malla 3D
texturizada 15m 31s
Textura 21m 46s
DSM 1m 38s DSM 25m 5s DSM 42m 4s
Ortomosaico 31m 4s Ortomosaico 37m 41s Ortomosaico 31m 28s
NIR
G B
Con
GC
P
pre
señal
izad
os Orientación
fotografías 1h 26m
Procesamiento
inicial 2h 10m 48s
Procesamiento
inicial 1h 5m 11s
Optimización de
parámetros 42s
Nube de puntos
densa 1h 35m
Nube de puntos
densa 43m 24s
Nube de puntos
densa 53m 38s
100
Reconstrucción
de malla 3m Malla 3D
texturizada 22m 43s
Textura 1m 52s
DSM 1m 13s DSM 32m 32s DSM 35m 4s
Ortomosaico 11m 52s Ortomosaico 1h 2m 57s Ortomosaico 25m 22s
Fuente: Autor
9.4. Facilidad De Uso
De acuerdo a la configuración, practicidad en procesamientos y uso intuitivo de la interfaz se
evalúan los tres software en términos generales.
Agisoft PhotoScan realiza procesos independientes, es decir que la configuración de parámetros
debe hacerse por pasos separados en la medida que se van llevando a cabo los subprocesos. En
este sentido, las configuraciones previas a cada proceso demandan un tiempo adicional y hacen
del uso de la interfaz una tarea más compleja.
Pix4D Mapper y Drone2Map presentan una interfaz similar en la que los procesos son
configurados inicialmente a través de un solo menú. Se sabe que en ambas interfaces son tres
procesamientos los que son efectuados, que a elección de los usuarios pueden ser ejecutados
individualmente o a la vez, haciendo de su uso una cuestión intuitiva, pero no sin obviar el uso de
los manuales para las configuraciones iniciales que en gran medida aportan a la calidad y buenos
resultados de los productos.
9.5. Costo
La facilidad de adquisición de los softwares orientados a los UAV’s usados es alta, tratándose
de versiones de prueba de forma gratuita, pese a ello, como se había hecho mención, son de uso
101
para un corto periodo de tiempo, razón por la que es importante evaluar los costos y tiempos de
uso por licencia.
Agisoft PhotoScan ofrece una licencia de tiempo ilimitado por un valor de $3.499 USD
incluyendo un soporte técnico durante 12 meses. Para el caso de Pix4D Mapper, es posible obtener
diferentes licencias, ya sea ilimitada con un costo de $8.700 USD, anual a $3.500 USD, o mensual
a $350 USD. Por último, Drone2Map proporciona una licencia de $1.500 USD para su uso durante
año.
En contraste se tiene que el valor de Pix4D Mapper es muy elevado con respecto a Agisoft
PhotoScan, pues el costo del primero para una licencia anual es el equivalente del segundo para
una de uso ilimitado. De igual forma, Drone2Map en comparación con Pix4D Mapper para una
licencia de un año, ofrece un costo menor en proporción a más de la mitad del valor de Pix4D
Mapper, además de ser el que resulta con mayor facilidad de adquisición en términos económicos.
10. Conclusiones
1. Pese a realizarse la señalización de cinco puntos de control terrestre y materialización
previos al vuelo, las falencias presentadas por el mismo no permitieron la inclusión de dos
de los puntos en las fotografías. Razón por la que se efectuó una segunda toma de puntos
de control en campo a partir de los fotoidentificados, sin embargo de acuerdo a las
dificultades de acceso a la zona se logró tomar datos solamente para tres puntos con cierto
grado de incertidumbre al usarse marcas físicas naturales que implicaron imprecisión en su
posterior marcación sobre las fotografías.
2. Inpho e Imagine Photogrammetry (LPS), como los softwares fotogramétricos
convencionales que son, no se encontraron en la capacidad de procesar datos capturados
102
con UAV’s, generando fallas en el intento de iniciar la triangulación y por ende
imposibilitando la generación de los ortomosaicos.
3. Agisoft PhotoScan, Pix4D Mapper y Drone2Map, siendo softwares fotogramétricos
orientados a los UAV’s permitieron la obtención de nueve ortofotomosaicos; tres por cada
software de acuerdo a diferentes procesos. Los resultados evidencian para los tres softwares
la existencia de errores de precisión geométrica que afectan significativamente la calidad
visual; pues en todos se identifican zonas sin información y corrimiento de la imagen,
sumado a dificultades en la orientación de fotografías que impiden la reconstrucción total
del terreno y problemas de procesamiento por los softwares dada la cobertura significativa
de vegetación densa. Pero es en mayor proporción la tendencia de errores sobre el producto
al incluir puntos de control fotoidentificados; que no aportan un mejor ajuste
fotogramétrico, y también al usar datos con combinación de bandas NIR G B. Visualmente
estos dos procesos incorporan errores de duplicidad y deformación de elementos,
representando geométricamente un aumento significativo en errores de precisión. Es el caso
de Agisoft PhotoScan en el que se pasa a errores submétricos, cuando se tenían errores
milimétricos al trabajar únicamente con GCP preseñalizados. En Pix4D Mapper también
hubo un aumento de error en precisión geométrica aunque en una mínima proporción; mas
sin embargo no se trata de un mejor resultado cuando en los procesos de GCP preseñalizados
y en el de inclusión de los fotoidentificados se tratan errores métricos. Por otro lado
Drone2Map, no obtuvo los errores de precisión en el proceso de uso de GCP
fotoidentificados y en el uso de datos con bandas NIR G B por posibles problemas de
posicionamiento de los puntos fotoidentificados y dificultades de identificación y
discriminación de superficies para el caso de la banda del infrarrojo cercano, no obstante
103
fue el que mejores resultados obtuvo en el uso únicamente de GCP preseñalizados con
errores de precisión en promedio menores de la unidad milimétrica.
4. Los costos de los softwares orientados a los UAV’s se encuentran directamente relacionados
a su facilidad de uso y disponibilidad de herramientas de procesamiento, pero su mayor
costo no implica siempre mejores resultados.
5. El uso de un UAV y dispositivos de bajo costo dan cuenta de las dificultades obtenidas en
el proceso fotogramétrico, pues si bien es cierto que estas plataformas han incrementado las
posibilidad de aplicaciones no deben obviarse las limitaciones a las están expuestas.
11. Bibliografía
Aeroterra S.A. (s. f.). Drone2Map de ArcGIS. Recuperado a partir de
http://www.aeroterra.com/products/Esri/Drone2Map/
ArcGIS. (s. f.). System requirements: Drone2Map for ArcGIS Help. Recuperado a partir de
https://doc.arcgis.com/en/drone2map/get-started/system-requirements.htm
Bemis, S. P., Micklethwaite, S., Turner, D., James, M. R., Akciz, S., Thiele, S. T., & Bangash, H.
A. (2014). Ground-based and UAV-Based photogrammetry: A multi-scale, high-resolution
mapping tool for structural geology and paleoseismology. Journal of Structural Geology,
69, Part A, 163-178. https://doi.org/10.1016/j.jsg.2014.10.007
Cardozo, J., & Arenas, J. (2016). Metodología para levantamientos topográficos planimétricos de
predios rurales. Universidad Distrital Francisco José de Caldas, Bogotá D.C. Recuperado
a partir de
http://repository.udistrital.edu.co/bitstream/11349/3248/1/ArenasAcostaJenifferAlexandr
aCardozoRojasJuanSebastian2016.pdf
104
Cepero, R. (2015, junio 21). Sistema de bajo costo para la toma y el procesamiento de imágenes
aéreas (Thesis). Universidad Central «Marta Abreu» de Las Villas. Recuperado a partir de
http://dspace.uclv.edu.cu:8089/xmlui/handle/123456789/4482
Cesetti, A., Frontoni, E., Mancini, A., Ascani, A., Zingaretti, P., & Longhi, S. (2011). A Visual
Global Positioning System for Unmanned Aerial Vehicles Used in Photogrammetric
Applications. Journal of Intelligent & Robotic Systems, 61(1-4), 157-168.
https://doi.org/10.1007/s10846-010-9489-5
Chaparro, A., & Moreno, E. (2016). Aplicación de realidad aumentada para la interpretación y
visualización de modelos tridimensionales generados a partir de un levantamiento con el
equipo Trimble V10 Imaging Rover, caso de estudio del Monumento Gonzálo Jiménez de
Quesada. Universidad Distrital Francisco José de Caldas, Bogotá D.C. Recuperado a partir
de
http://repository.udistrital.edu.co/bitstream/11349/3257/1/MorenoToroErikaLorena2016.
pdf.
Chuvieco, E. (1995). Fundamentos de teledetección espacial (2.a ed.). Madrid: Ediciones RIALP,
S.A. Recuperado a partir de http://files.especializacion-tig.webnode.com/200001110-
8750e88486/FUNDAMENTOS-DE-TELEDETECCION-EMILIO-CHUVIECO.pdf
Claros, R., Guevara, A., & Pacas, N. (2016). Aplicación de Fotogrametría Aérea en
Levantamientos Topográficos mediante el uso de Vehículos Aéreos no Tripulados.
Universidad de El Salvador, El Salvador. Recuperado a partir de
http://ri.ues.edu.sv/14218/1/50108282.pdf
CNET. (s. f.). Canon PowerShot A2300 Specs. Recuperado a partir de
https://www.cnet.com/products/canon-powershot-a2300/specs/
105
Colomina, I., & Molina, P. (2014). Unmanned aerial systems for photogrammetry and remote
sensing: A review. ISPRS Journal of Photogrammetry and Remote Sensing, 92, 79-97.
https://doi.org/10.1016/j.isprsjprs.2014.02.013
Coral, E. (s. f.). Generación de Modelos de Elevación Digital a Partir de Imágenes Obtenidas
Desde Vehículos Aéreos no Tripulados (UAVs). Pontificia Universidad Javeriana, Grupo
de Investigación ISTAR. Recuperado a partir de
http://pegasus.javeriana.edu.co/~CIS1510AP03/Entregables/Art%C3%ADculo_TG_Eric
kCoral.pdf
Digital Camera Database. (s. f.). Canon PowerShot A2500 vs. Canon PowerShot A2300 - Sensor
Comparison. Recuperado a partir de
https://www.digicamdb.com/compare/canon_powershot-a2500-vs-canon_powershot-
a2300/
Ecogis. (s. f.). Inpho. Recuperado a partir de http://ecogis.pl/PDF/INPHO_Brochure.pdf
Eisenbeiß, H. (2009). UAV Photogrammetry. Zurich.
Farjas, M. (s. f.). Aplicaciones Topográficas del G.P.S. Recuperado a partir de
http://ocw.upm.es/ingenieria-cartografica-geodesica-y-fotogrametria/topografia-
ii/Teoria_GPS_Tema_12.pdf
Fernández, J., & Gutiérrez, G. (2016). Improving archaeological prospection using localized
UAVs assisted photogrammetry: An example from the Roman Gold District of the Eria
River Valley (NW Spain). Journal of Archaeological Science: Reports, 5, 509-520.
https://doi.org/10.1016/j.jasrep.2016.01.007
Gabrlik, P. (2015). The Use of Direct Georeferencing in Aerial Photogrammetry with Micro UAV.
IFAC-PapersOnLine, 48(4), 380-385. https://doi.org/10.1016/j.ifacol.2015.07.064
106
Garmin, & subsidiaries, G. L. or its. (s. f.). GPSMAP 64s. Recuperado a partir de
https://buy.garmin.com/es-ES/ES/p/140022
Gómez, A., & Sandoval, A. (2016). Aerotriangulación de los modelos estereoscópicos, generación
del modelo digital de terreno, elaboración de la restitución digital a escala 1:5000,
ejecución de la edición y estructuración y generación de las ortofotos a escala 1:5000 que
servirá como insumo para la ratificación del estudio de impacto ambiental que tiene por
objeto el desarrollo del proyecto de parques eólicos en La Guajira. Universidad Distrital
Francisco José de Caldas, Bogotá D.C. Recuperado a partir de
http://repository.udistrital.edu.co/bitstream/11349/4523/1/SandovalRojasAstridCarolina2
016.pdf
Gomez, C., & Purdie, H. (2016). UAV- based Photogrammetry and Geocomputing for Hazards
and Disaster Risk Monitoring – A Review. Geoenvironmental Disasters, 3(1), 23.
https://doi.org/10.1186/s40677-016-0060-y
Gómez, D., De Castro, A., & López, F. (2014). Assessing the accuracy of mosaics from unmanned
aerial vehicle (UAV) imagery for precision agriculture purposes in wheat. Precision
Agriculture, 15(1), 44-56. https://doi.org/10.1007/s11119-013-9335-4
Gonçalves, J. A., & Henriques, R. (2015). UAV photogrammetry for topographic monitoring of
coastal areas. ISPRS Journal of Photogrammetry and Remote Sensing, 104, 101-111.
https://doi.org/10.1016/j.isprsjprs.2015.02.009
Gross, J. W., & Heumann, B. W. (2016). A Statistical Examination of Image Stitching Software
Packages For Use With Unmanned Aerial Systems. Photogrammetric Engineering &
Remote Sensing, 82(6), 419-425. https://doi.org/10.14358/PERS.82.6.419
107
Hernández, D. (2006). Introduccion a la Fotogrametría Digital. E.T.S.I Agrónomos. Universidad
de Castilla La Mancha.
Hexagon Geospatial. (2016). Release Guide Erdas Imagine. Recuperado a partir de
https://www.geosystems.de/fileadmin/redaktion/Downloads/News/Release_Guide_ERD
AS_IMAGINE_2016_v16_1.pdf
Hexagon Geospatial. (2017). IMAGINE Photogrammetry Brochure. Recuperado a partir de
https://www.hexagongeospatial.com/brochure-pages/imagine-photogrammetry-brochure
Hunt, E. R., Hively, W. D., Fujikawa, S. J., Linden, D. S., Daughtry, C. S. T., & McCarty, G. W.
(2010). Acquisition of NIR-Green-Blue Digital Photographs from Unmanned Aircraft for
Crop Monitoring. Remote Sensing, 2(1), 290-305. https://doi.org/10.3390/rs2010290
INEGI. (1999). Modelos digitales de elevación. Generalidades y especificaciones. Escala 1: 50
000. Sistema Nacional de Información Geográfica. INEGI.
James, M. R., Robson, S., d’Oleire-Oltmanns, S., & Niethammer, U. (2017). Optimising UAV
topographic surveys processed with structure-from-motion: Ground control quality,
quantity and bundle adjustment. Geomorphology, 280, 51-66.
https://doi.org/10.1016/j.geomorph.2016.11.021
Lee, J., & Sung, S. (2016). Evaluating spatial resolution for quality assurance of UAV images.
Spatial Information Research, 24(2), 141-154. https://doi.org/10.1007/s41324-016-0015-0
Li, X. quan, Chen, Z. an, Zhang, L. ting, & Jia, D. (2016). Construction and Accuracy Test of a
3D Model of Non-Metric Camera Images Using Agisoft PhotoScan. Procedia
Environmental Sciences, 36, 184-190. https://doi.org/10.1016/j.proenv.2016.09.031
108
Lindner, G., Schraml, K., Mansberger, R., & Hübl, J. (2016). UAV monitoring and documentation
of a large landslide. Applied Geomatics, 8(1), 1-11. https://doi.org/10.1007/s12518-015-
0165-0
Lira, J. (2010). Tratamiento Digital de Imágenes Multiespectrales (Segunda). México, D.F.:
Istituto de Geofisica, UNAM. Recuperado a partir de
https://books.google.com.co/books?id=LTKMAwAAQBAJ&pg=PA9&lpg=PA9&dq=im
agen+multiespectral+definicion&source=bl&ots=6SQR7RQkLY&sig=kIlT8wogQ-
ngRxvyej6yMoG90TI&hl=es&sa=X&ved=0ahUKEwiturXrj6vXAhVCYiYKHRoaDRw
4ChDoAQhhMAk#v=onepage&q=imagen%20multiespectral&f=false
Nex, F., & Remondino, F. (2014). UAV for 3D mapping applications: a review. Applied
Geomatics, 6(1), 1-15. https://doi.org/10.1007/s12518-013-0120-x
Nikolakopoulos, K. G., Soura, K., Koukouvelas, I. K., & Argyropoulos, N. G. (s. f.). UAV vs
classical aerial photogrammetry for archaeological studies. Journal of Archaeological
Science: Reports. https://doi.org/10.1016/j.jasrep.2016.09.004
NovAtel. (s. f.). An Introduction to GNSS. Recuperado a partir de https://www.novatel.com/an-
introduction-to-gnss
Núñez, P. (2016). Comparativa de software para la realización de ortofotos a partir de imágenes
obtenidas por drones. Mieres. Recuperado a partir de http://hdl.handle.net/10651/37635
Parques Nacionales Naturales de Colombia. (s. f.-a). Datos abiertos. Informacion cartografica
(Shape) Limites de otras categorias reconocidas por el SINAP. Recuperado a partir de
http://www.parquesnacionales.gov.co/portal/es/servicio-al-ciudadano/datos-abiertos/
109
Parques Nacionales Naturales de Colombia. (s. f.-b). Parque Nacional Natural Chingaza.
Recuperado a partir de http://www.parquesnacionales.gov.co/portal/es/ecoturismo/region-
amazonia-y-orinoquia/parque-nacional-natural-chingaza/
Pérez, J. (2001). Apuntes de Fotogrametría III. Universidad de Extremadura. Recuperado a partir
de
http://redgeomatica.rediris.es/cartoprofesores/Fotogrametria/ApuntesFotogrametria3.pdf
Pérez, S., Pérez, J., & Reyes, E. (2017, enero 10). Evaluación de la Calidad de los Levantamientos
Realizados con la Tecnología VANT, Estudio De Caso: Modelo DSM Falcultad
Tecnológica de la Universidad Distrital Francisco José De Caldas. Recuperado a partir de
http://repository.udistrital.edu.co/handle/11349/4908
Peternel, T., Kumelj, Š., Oštir, K., & Komac, M. (2017). Monitoring the Potoška planina landslide
(NW Slovenia) using UAV photogrammetry and tachymetric measurements. Landslides,
14(1), 395-406. https://doi.org/10.1007/s10346-016-0759-6
Popescu, G., Iordan, D., & Păunescu, V. (2016). The Resultant Positional Accuracy for the
Orthophotos Obtained with Unmanned Aerial Vehicles (UAVs). Agriculture and
Agricultural Science Procedia, 10, 458-464. https://doi.org/10.1016/j.aaspro.2016.09.016
Pucha, F., Fries, A., Cánovas, F., Oñate, F., González, V., & Pucha, D. (2017). Fundamentos de
SIG: Aplicaciones con ArcGIS. Franz Pucha Cofrep.
Quiñones, C., & Segura, L. (2012). Elaboración del ortofotomapa actualizado de los predios de
la Sede de La Macarena de la Universidad Distrital Francisco José de Caldas.
Universidad Distrital Francisco José de Caldas, Bogotá D.C. Recuperado a partir de
http://hdl.handle.net/11349/1505
110
Rea, G., & Krenn, P. (2016). Análisis de discrepancias entre levantamientos de captura masiva
de datos. Universitat Politècnica De Catalunya.
Rodriguez, J. (2015, noviembre 26). Georreferenciación y Caracterización Multiespectral de
Especies de Vegetación Usando un Sistema Aéreo de Percepción Remota no Tripulado
Caso de Estudio: Jardín Botánico de Bogotá. Universidad Distrital Francisco José de
Caldas. Recuperado a partir de http://hdl.handle.net/11349/2554
Ruzgienė, B., Berteška, T., Gečyte, S., Jakubauskienė, E., & Aksamitauskas, V. Č. (2015). The
surface modelling based on UAV Photogrammetry and qualitative estimation.
Measurement, 73(Supplement C), 619-627.
https://doi.org/10.1016/j.measurement.2015.04.018
Saleri, R., Cappellini, V., Nony, N., Luca, L. D., Pierrot-Deseilligny, M., Bardiere, E., & Campi,
M. (2013). UAV photogrammetry for archaeological survey: The Theaters area of Pompeii.
En 2013 Digital Heritage International Congress (DigitalHeritage) (Vol. 2, pp. 497-502).
https://doi.org/10.1109/DigitalHeritage.2013.6744818
Santoso, F., Garratt, M. A., Pickering, M. R., & Asikuzzaman, M. (2016). 3D Mapping for
Visualization of Rigid Structures: A Review and Comparative Study. IEEE Sensors
Journal, 16(6), 1484-1507. https://doi.org/10.1109/JSEN.2015.2498940
Sastoque, L., & Gutiérrez, E. (2016, diciembre 12). Espacialización del Estrés Biótico en los
Frailejones Debido al Cambio Climático en el Parque Natural Chingaza Mediante UAV´s.
Universidad Distrital Francisco José de Caldas. Recuperado a partir de
http://hdl.handle.net/11349/4553
Servicio Geológico Colombiano. (2015). Mapa Geológico de Colombia 2015.
111
Sona, G., Pinto, L., Pagliari, D., Passoni, D., & Gini, R. (2014). Experimental analysis of different
software packages for orientation and digital surface modelling from UAV images. Earth
Science Informatics, 7(2), 97-107. https://doi.org/10.1007/s12145-013-0142-2
Stöcker, C., Eltner, A., & Karrasch, P. (2015). Measuring gullies by synergetic application of UAV
and close range photogrammetry — A case study from Andalusia, Spain. CATENA, 132,
1-11. https://doi.org/10.1016/j.catena.2015.04.004
Topcon. (2015, octubre 3). GR-5. Recuperado a partir de
https://www.topconpositioning.com/es/gnss-and-network-solutions/integrated-gnss-
receivers/gr-5
Topcon. (s. f.-a). GR5. Recuperado a partir de https://topconpositioning.es/productos/topografia-
geomatics/gps/gr5-2/
Topcon. (s. f.-b). Topcon TotalCare :: FC-2600. Recuperado a partir de
http://www.topconcare.com/en/hardware/field_controllers/topcon-fc-2600/
Trimble. (s. f.-a). Inpho. Recuperado a partir de https://geospatial.trimble.com/products-and-
solutions/inpho
Trimble. (s. f.-b). Trimble Inpho Software. Recuperado a partir de
http://trl.trimble.com/docushare/dsweb/Get/Document-611165/022515-
139C_Inpho_BRO_US_0815_LR.pdf
Turner, I. L., Harley, M. D., & Drummond, C. D. (2016). UAVs for coastal surveying. Coastal
Engineering, 114, 19-24. https://doi.org/10.1016/j.coastaleng.2016.03.011
Uysal, M., Toprak, A. S., & Polat, N. (2015). DEM generation with UAV Photogrammetry and
accuracy analysis in Sahitler hill. Measurement, 73, 539-543.
https://doi.org/10.1016/j.measurement.2015.06.010
112
Vogeltanz, T. (2016). A Survey of Free Software for the Design, Analysis, Modelling, and
Simulation of an Unmanned Aerial Vehicle. Archives of Computational Methods in
Engineering, 23(3), 449-514. https://doi.org/10.1007/s11831-015-9147-y
Vollgger, S. A., & Cruden, A. R. (2016). Mapping folds and fractures in basement and cover rocks
using UAV photogrammetry, Cape Liptrap and Cape Paterson, Victoria, Australia. Journal
of Structural Geology, 85, 168-187. https://doi.org/10.1016/j.jsg.2016.02.012
Wischounig, D., & Rinner, B. (2015). Resource aware and incremental mosaics of wide areas from
small-scale UAVs. Machine Vision and Applications, 26(7-8), 885-904.
https://doi.org/10.1007/s00138-015-0699-5
Xing, C., Wang, J., & Xu, Y. (2010). A Robust Method for Mosaicking Sequence Images Obtained
from UAV. En 2010 2nd International Conference on Information Engineering and
Computer Science (pp. 1-4). https://doi.org/10.1109/ICIECS.2010.5678358
Yucel, M. A., & Turan, R. Y. (2016). Areal Change Detection and 3D Modeling of Mine Lakes
Using High-Resolution Unmanned Aerial Vehicle Images. Arabian Journal for Science
and Engineering, 41(12), 4867-4878. https://doi.org/10.1007/s13369-016-2182-7
Zarco, P., Diaz, R., Angileri, V., & Loudjani, P. (2014). Tree height quantification using very high
resolution imagery acquired from an unmanned aerial vehicle (UAV) and automatic 3D
photo-reconstruction methods. European Journal of Agronomy, 55, 89-99.
https://doi.org/10.1016/j.eja.2014.01.004
Zarco, Pablo, Berni, J., Suárez, L., & Fereres, E. (2008, diciembre 17). A new era in remote sensing
of crops with unmanned robots. Recuperado a partir de
http://www.spie.org/newsroom/1438-a-new-era-in-remote-sensing-of-crops-with-
unmanned-robots
Top Related