Aplicación de regresión logística regularizada
y redes neuronales para la detección de zonas
de cultivos como fuente de biomasa residual
en Colombia a partir de imágenes satelitales
RESUMEN
Uno de los objetivos de Desarrollo Sostenible hace énfasis en energía asequible y no contaminante, por lo que
actualmente se han encontrado diferentes fuentes de energía renovable, dentro de las cuales se encuentra la
energía a partir de la biomasa residual. Este tipo de energía se destaca por utilizar métodos de digestión
anaeróbica para la producción de biogás, por lo que es necesario identificar zonas con alto potencial energético
para su aprovechamiento. Por este motivo, se desarrolló una metodología para la detección automática de
cultivos con potencial de producción de biomasa residual en Colombia a partir de imágenes capturadas por el
satélite Sentinel 2. Para ello, se trabajó con 905 imágenes (codificadas como True Color Image) de 1km2, de
donde se extrajeron 22.615 sub-imágenes de 200x200m2 para construir los modelos de aprendizaje automático.
Se probó con regresión logística regularizada, una red neuronal sencilla de una capa escondida y una red
convolucional, obteniendo exactitudes de 71.89%, 90% y 97.47% en validación, respectivamente. El mejor
modelo de la red convolucional se probó sobre una nueva imagen completa (de 5.000x10.000m2 de resolución),
evaluando la implementación del modelo y probando a su vez con distintas resoluciones, de 50x50m2 y de
100x100m2. Por último, se evaluó el rendimiento de los modelos según la zona geográfica de las imágenes
(distinguiendo entre los departamentos Cauca o Meta), y se propone una función para estimar el potencial
energético del cultivo detectado mediante esta metodología.
1. INTRODUCCIÓN
1.1 PLANTEAMIENTO DEL PROBLEMA
La dependencia actual del petróleo como fuente
principal de energía es un problema de gran
importancia para la sostenibilidad de la economía
mundial, haciendo necesaria la búsqueda de nuevas
fuentes que se caractericen por ser renovables y
amigables con el medio ambiente. Una respuesta
prometedora a esta problemática la abarca el uso de
biomasa en forma residual para la obtención de
biogás, que puede ser utilizado como combustible
y para la obtención de energía en diferentes formas.
Además, permiten mejorar las condiciones
sanitarias al controlar los desechos orgánicos, y
permiten también suministrar materiales
estabilizados o bioabonos como fertilizantes para
los cultivos. De este modo, el uso de la biomasa
residual representa una ventaja para países en
desarrollo como Colombia, como menciona la
Organización de las Naciones Unidas para la
Agricultura y la Alimentación (FAO) [1].
Colombia cuenta con 114.174.800 de hectáreas de
superficie continental, de las cuales el 44,77%
correspondía al sector agropecuario en el 2006; y
en el 2005, se reportaron 4.058.470 hectáreas
dedicadas al sector agrícola, compuesto tanto de
cultivos permanentes como transitorios [2].
La unidad de planeación minero-energética
(UPME) realizó un estudio del potencial energético
del sector agropecuario colombiano, creando así
varios atlas del país que muestran los diferentes
Joan David Macías García, Estudiante de doble programa
Ingeniería Industrial – Ingeniería Química
Asesores: Camilo Andrés Franco De Los Ríos & Rocío Sierra Ramírez
Departamento de ingeniería industrial – Departamento de ingeniería química
Universidad de los Andes
municipios y departamentos que son promisorios
para la recolección de estos residuos [3]. Sin
embargo, se puede observar que estos atlas no se
han actualizado desde el año 2009 y que su
creación necesita de arduo trabajo de campo y
revisión bibliográfica, lo que implica un problema
para el desarrollo del país, en particular para su
potencial energético.
1.2 IMÁGENES SATELITALES
Actualmente, existen diversas plataformas que
proporcionan imágenes satelitales de carácter
gratuito, entre estas, destaca la constelación de
satélites Sentinel, la cual está caracterizada por
tener 6 diferentes satélites que actualizan sus
imágenes cada 3 días aproximadamente [4]. A
continuación, se muestra la información que nos
brinda cada uno de los satélites:
Tabla 1 Información de los satélites de componen
la constelación Sentinel [4].
Satélite Función
Sentinel 1
Dos satélites de órbita polar
que se destacan por no verse
afectados por la nubosidad,
condiciones atmosféricas o la
hora, y brindan imágenes de
radar.
Sentinel 2
Dos satélites de órbita polar
que brindan imágenes ópticas
de alta resolución a través de
13 bandas.
Sentinel 3
Dos satélites que se encargan
de la información topográfica
del mar y la información de la
temperatura superficial de la
tierra y el mar
Sentinel 4
Un satélite que monitorea la
calidad del aire en zonas altas
de la atmósfera, realizando
cromatografía de gases
detectando ozono, dióxido de
nitrógeno y dióxido de azufre.
Sentinel 5
Un satélite que monitorea la
calidad del aire en zonas bajas
de la atmósfera, detectando
ozono, dióxido de nitrógeno,
dióxido de azufre, monóxido
de carbono y metano.
Sentinel 6
Permite el monitoreo continuo
de los cambios en el nivel del
mar.
Las señales e imágenes proporcionadas por esta
constelación nos permiten realizar el monitoreo de
la tierra, y pueden ser usadas para la detección de
zonas con potencial de generación de biomasa
residual, como lo son los cultivos.
1.3 APLICACIONES DEL APRENDIZAJE
COMPUTACIONAL EN COLOMBIA
Los métodos de aprendizaje computacional han
tenido un auge en la actualidad, debido a que
permiten automatizar procesos de clasificación e
identificación de señales e imágenes con una alta
precisión [5]. Por esta razón, han sido utilizados en
diversos campos que utilizan la información que
nos brindan los satélites para crear métodos que
detecten variables de interés a tiempo real.
El colombiano Santiago Saavedra utilizó las
imágenes que brindaba el satélite Landsat 7 para
crear un modelo que detecte minas a cielo abierto,
que se caracterizan por estar rodeadas por zonas de
vegetación. De esta forma, logró crear un modelo
que tiene una exactitud total del 78% [6].
Además, se realizó también un mapeo automático
de coberturas del suelo en Colombia, haciendo uso
de redes neuronales convolucionales e imágenes
del satélite Landsat 5 TM. En este caso, se llegó a
una exactitud total del 91,02% en la validación de
los datos obtenidos del parque Nacional Tuparro.
Este modelo puede identificar 4 diferentes clases:
bosques, áreas con vegetación herbácea o
arbustiva, áreas abiertas con poca vegetación, y
áreas humedales continentales [7].
Teniendo en cuenta estos dos ejemplos de
aplicaciones de métodos de aprendizaje con datos
remotos en Colombia, se espera poder aprovechar
la información de la constelación Sentinel para
detectar zonas con potencial de biomasa residual, y
dar una primera respuesta a la problemática
planteada.
1.4 OBJETIVOS DEL PROYECTO
1.4.1 OBJETIVO GENERAL
Implementación de modelos de regresión logística
regularizada y redes neuronales a partir de datos
satelitales Sentinel para la detección de cultivos
como fuente de biomasa para la generación de
energía en Colombia.
1.4.2 OBJETIVOS ESPECÍFICOS
• Obtener imágenes tomadas por los
satélites de la constelación Sentinel para
la implementación de los modelos.
• Hacer un procesamiento de las imágenes
con el objetivo de adecuarlas para el
entrenamiento, validación y prueba de los
modelos.
• Desarrollar modelos de regresión logística
regularizada, redes neuronales de una
capa escondida (densamente conectada) y
redes convolucionales.
• Evaluar los modelos e identificar
oportunidades de mejora del proyecto
realizado.
2. MATERIALES Y MÉTODOS
En esta sección, se describirá la metodología
utilizada para la implementación de diferentes
métodos de aprendizaje computacional que
permiten cumplir con los objetivos planteados.
Primeramente, fue necesario seguir un método de
obtención de imágenes del satélite número 2 de la
constelación Sentinel. Después de esto, fue
necesario realizar un procesamiento de estas
imágenes, con el fin de crear los conjuntos de
entrenamiento, validación y prueba necesarios para
la construcción de los modelos.
2.1 OBTENCIÓN DE IMÁGENES
El primer paso fue proceder a la descarga de
imágenes del satélite Sentinel 2. Para esto, se hizo
uso de la página oficial del programa
“Copernicus”, la cual nos da acceso gratuito a
imágenes satelitales de alta resolución [4]. El
procedimiento de descarga de imágenes se muestra
a continuación:
1. Ingresar a la página oficial del programa
“Copernicus”:
https://scihub.copernicus.eu/dhus/#/home
2. Seleccionar la zona de interés de descarga
de imágenes.
3. Filtrar la búsqueda definiendo el intervalo
de tiempo de interés, el tipo y plataforma
del satélite de interés, el producto y otros
parámetros que varían dependiendo del
satélite.
4. Proceder a la descarga
Siguiendo esto, se descargaron 20 carpetas de
imágenes de varias zonas del país como lo muestra
la Figura 1. Estas imágenes se caracterizan por ser
tomadas durante el 2020, entre los meses de enero
y marzo; además de ser imágenes tomadas con el
satélite Sentinel 2, específicamente con el producto
“S2MSI2A”, para de esta forma asegurar que las
imágenes cuentan con una resolución de 10 metros
por píxel.
Figura 1 Imágenes con formato TCI en el mapa
de Colombia.
Como se mencionó anteriormente, en este proyecto
se trabajó con la información del satélite
multiespectral (Sentinel 2), por lo que las carpetas
descargadas contienen diferentes tipos de
resolución como se muestra a continuación.
• Imágenes de resolución de 10 metros
tomadas con las bandas 2,3,4 y 8.
• Imágenes de resolución de 20 metros
tomadas con las bandas 2,3,4,5,6,7,8,11 y
12.
• Imágenes de resolución de 60 metros con
disponibilidad de bandas de las 12 bandas.
Para este proyecto, se decidió trabajar con la mejor
resolución disponible, la cual es una resolución de
10 metros por píxel, y para fines de este proyecto
se trabajó con imágenes del formato TCI (True
Color Image), las cuales contienen información de
las bandas 2, 3 y 4, presentando el espectro visible
para el ojo humano.
2.2 PROCESAMIENTO DE IMÁGENES
Y EXTRACCIÓN DE MUESTRAS
Para el tratamiento de estas imágenes se utilizó el
programa QuatumGis, con el que se pueden
visualizar las imágenes, e identificar la zona que
ocupaban haciendo uso del complemento “OSM
Standard”.
Al poder visualizar las diferentes imágenes, se
procedió a hacer la extracción de muestras para el
entrenamiento, validación y prueba de los modelos.
Para esto, se tomaron imágenes de 1km2 con una
escala de 1:7000, de la banda TCI mencionada
anteriormente, con una resolución de 10 metros por
pixel.Estas imágenes eran clasificadas en
diferentes carpetas que correspondían a las
siguientes clases:
• Zonas de vegetación o bosques: Se
tomaron 290 imágenes correspondientes a
esta clase, obtenidas principalmente de los
departamentos Meta, Caquetá y Guaviare.
Sin embargo, se tomaron algunas de
imágenes de las demás zonas del país que
abarcaban las 20 carpetas de imágenes
descargadas en la primera fase.
• Zonas de cultivos: De esta clase se
tomaron 250. Estas imágenes fueron
tomadas principalmente de los
departamentos Valle del Cauca, Meta.
• Ninguna de las anteriores: Se tomaron
310 imágenes de esta clase, las cuales
incluían nubes, ríos, zonas desérticas de la
Guajira, ciénagas, y partes del Mar
Caribe.
Estas imágenes fueron procesadas nuevamente
mediante el lenguaje de programación de Python.
En este paso, se importaron las imágenes con un
tamaño estándar de 100x100 píxeles, y se
realizaban recortes de estas, obteniendo celdas (o
super-pixeles) de 20x20 píxeles, (consiguiendo 25
veces más (sub-)imágenes de cada una de las
clases). Posteriormente, se hacía una partición de
este conjunto de sub-imágenes atribuyendo así el
70% para el entrenamiento, un 15% para la
validación, y el 15% restante para la prueba. La
tabla 1 muestra el número de imágenes por clase y
conjuntos.
Tabla 2 Número de imágenes por clase y
conjunto.
Conjunto Clase Número de
imágenes
Entrenamiento
Bosques 5.075
Cultivos 5.338
Ninguno 5.425
Validación
Bosques 1.088
Cultivos 1.144
Ninguno 1.163
Prueba
Bosques 1.087
Cultivos 1.143
Ninguno 1.162
Total 22.625
Es importante resaltar en este paso que las
imágenes con una escala menor a 1:10.000, tienen
un nivel detallado, y a su vez, imágenes con una
escala mayor a 1:100.000 son de carácter
exploratorio [8]. Siguiendo esto, se trabajó con
imágenes con un alto nivel de detalle.
2.3 APLICACIÓN DE MÉTODOS DE
APRENDIZAJE COMPUTACIONAL
En este paso de la metodología se aplicaron 3
métodos diferentes. El primero fue la regresión
logística, la cual se utilizó con el objetivo de
identificar un modelo base, y así poder tener un
punto de referencia con respecto al desempeño de
los demás modelos. Siguiendo esto, se fue
avanzando en modelos más complejos, empezando
por agregar regularización a la regresión logística,
y siguiendo con redes neuronales sencillas y redes
convolucionales.
Para el entrenamiento, validación y prueba de los
diferentes modelos se utilizó el lenguaje de
programación de Python ejecutándolo en la
plataforma “Google colaboratory”, ya que esta
presenta ventajas significativas, pues permite el uso
de una GPU de manera gratuita, y así poder
disminuir el tiempo de entrenamiento de los
algoritmos [9].
2.3.1 REGRESIÓN LOGÍSTICA
La regresión logística es un método de clasificación
binaria [10]. Esta permite calcular la probabilidad
de que la variable respuesta (binaria) sea de una
clase positiva o negativa [11]. La ecuación que
caracteriza este modelo se corresponde con la
función logística o sigmoide:
𝑝(𝑥) =𝑒𝛽0+𝛽1𝑋1+⋯+𝛽𝑛𝑋𝑛
1 + 𝑒𝛽0+𝛽1𝑋1+⋯+𝛽𝑛𝑋𝑛 (𝐸𝑐. 1)
Donde los parámetros β𝑖 se estiman minimizando
la función de pérdida como se explica
posteriormente.
Un punto a tener en cuenta para la construcción de
los modelos de clasificación consiste en la
posibilidad de que los modelos presenten un
sobreajuste a los datos de la muestra, perdiendo así
capacidad de predicción o de generalización. Por
esta razón, se aplican técnicas de regularización
que penalizan la complejidad del modelo. En este
trabajo se implementaron 3 tipos diferentes [12]:
Regularización Lasso (L1): La complejidad del
modelo es medida como el valor absoluto promedio
𝐿1 =1
𝑁∑ |𝛽𝑖|
𝑁
𝑖=1
(𝐸𝑐. 2)
• Regularización Rigde (L2): En este caso, la
penalización es medida como la media de la
suma de cuadrados de los coeficientes del
modelo.
𝐿2 =1
2∑ 𝛽𝑖
2
𝑁
𝑖=1
(𝐸𝑐. 3)
• Regularización Elasticnet: Se combinan las
penalizaciones L1 y L2, asignando un
coeficiente 𝜌 entre 0 y 1 asociado a los
términos L1 y L2, de tal forma en que se
realiza una penalización L1 cuando 𝜌 = 0 ,
y se realiza una penalización L2 cuando 𝜌 =
1 [12].
𝐸 = 𝜌𝐿1 + (1 − 𝜌)𝐿2 (𝐸𝑐. 4)
La regresión logística con regularización se
implementó como un modelo multiclase mediante
la librería “scikit learn”, bajo el esquema “one-vs-
rest (OVR)” [13]. Donde el tipo de penalización fue
definido como “elasticnet”, por lo que la función de
pérdida queda definida de la siguiente forma [14]:
𝐽 = 𝐸 + 𝐶 ∑ log(𝑒−𝑦𝑘(∑ 𝑋𝑖𝛽𝑖+𝛽0) + 1)
𝐾
𝑘=1
(𝐸𝑐. 5)
Donde C corresponde a un parámetro que
cuantifica la fuerza inversa de la regularización,
teniendo así que al tomar valores muy altos se tiene
un problema sin regularización. En este caso, se
definió como 1, pero en futuros estudios se debería
aplicar algún método de optimización para
estimarlo.
Por otro lado, se utilizó el método de descenso en
la dirección del gradiente estocástico (Ec. 6) para
encontrar los 𝛽𝑖 que minimizan la función de
pérdida J. Este método se caracteriza por su
eficiencia para optimizar funciones diferenciables
[10], y en este caso es necesario estimar 1200
parámetros por iteración (asociados a cada píxel de
una imagen de tamaño 20x20 píxeles y las 3 bandas
RGB).
Al ser estocástico, se mueve en la dirección del
gradiente teniendo en cuenta de iterativamente
observación tras observación (denominada “k” en
la ecuación) de manera estocástica y optimiza de
acuerdo a esta observación seleccionada [11]. En la
siguiente ecuación, �̂�𝑛 corresponde al parámetro a
estimar en la iteración n, por lo que en este caso
correspondería a cada 𝛽𝑖 .
�̂�𝑛 = �̂�𝑛−1 − 𝛼𝛿𝐽 (�̂�𝑛−1; 𝑥(𝑘), 𝑦(𝑘))
𝛿�̂�𝑛−1
(𝐸𝑐. 6)
Por último, se definió el número máximo de
iteraciones como 10.000, para asegurar que el
modelo converja.
2.3.2 RED NEURONAL
El modelo de red neuronal sencilla construido
consta de una capa escondida y una capa de salida
[5], y fue implementada en Python y la librería
Tensorflow [12]. La capa escondida consta de un
número a determinar de neuronas, equipadas con la
función de activación sigmoide (Ec. 1), y la capa de
salida consiste en 3 neuronas con la función de
activación sigmoide, constituyendo lo que se
denomina una capa tipo “softmax”, donde cada
neurona estima la probabilidad de que cada
observación pertenezca a cada clase por separado,
y se toma la probabilidad con máximo valor para la
predicción final.
Al definir la estructura de la red neuronal, se
procede a inicializar los parámetros del modelo. En
este caso, los pesos (𝛽𝑖) y sesgos (𝛽0) mostrados
en la Ecuación 1 (que corresponden a una neurona
individual con la función de activación sigmoide),
fueron inicializados de manera distinta para cada
neurona de acuerdo con una distribución Normal
con media nula y una desviación de 0.05; y el sesgo
fue inicializado en ceros.
Después de inicializar la red, esta se somete a un
proceso de optimización, donde se calcula variable
de pérdida que en este caso es la entropía cruzada
categórica [13], la cual compara la clase predicha
con la activación sigmoide �̂�𝑖, con la clase real 𝑦𝑖
de la siguiente forma:
𝐽(𝑦, �̂�) = ∑ 𝑦𝑘log (�̂�𝑘)
𝑛
𝑘=1
(𝐸𝑐. 7)
Siguiendo esto, se minimiza el valor de esta
variable haciendo uso del método de descenso en la
dirección del gradiente con presencia de
“momentum” (𝜂), como se muestra en la siguiente
ecuación [11]:
�̂�𝑛 = 𝜂�̂�𝑣𝑖𝑒𝑗𝑜 − 𝛼𝛿𝐽 (�̂�𝑛−1; 𝑥(𝑘), 𝑦(𝑘))
𝛿�̂�𝑛−1
(𝐸𝑐. 8)
En este caso, se utilizó una tasa de aprendizaje del
0.01 (𝛼), la cual define la proporción del gradiente
en la que se dan los pasos. Se definió un valor
asociado al “momentum” del 0.001(𝜂), el cual
permite calcular un promedio suavizado entre el
gradiente actual y los anteriores.
2.3.3 RED NEURONAL
CONVOLUCIONAL
Las redes convolucionales cuentan con al menos
una capa convolucional en su configuración, la cual
es una capa con neuronas en las cuales los pesos
son filtros que extraen patrones de los datos de
entrenamiento [14]. De esta forma, se tiene una
correlación cruzada entre la imagen y los filtros,
obteniendo así áreas de atención en las que
enfocarse (𝑃𝑎𝑡𝑟𝑜𝑛 = 𝐼𝑚𝑎𝑔𝑒𝑛 ∗ 𝐹𝑖𝑙𝑡𝑟𝑜).
Para la implementación de este método también se
utilizó la biblioteca Tensorflow. En este caso, se
añadieron capas convolucionales que siguen los
parámetros definidos en la siguiente tabla:
Tabla 3 Parámetros definidos para cada una de las
capas convolucionales.
Parámetro Descripción
Número de filtros 32
Tamaño de filtros 3x3
Activación Tangente
hiperbólica
Inicialización de los
parámetros
Normal
(μ=0; σ = 0.5)
Cada una de las capas cuenta con una capa
adicional “Max_pooling”,que se encarga de reducir
los datos tomando el mayor valor en cada una de
las ventanas del tamaño ingresado por parámetro
(En este caso de tamaño 2x2) [15]. Teniendo así
que cada capa convolucional cuenta con los
parámetros mostrados en la tabla 3, y una capa
“Max_pooling”.
Estas capas convolucionales son seguidas por 1
capa escondida densamente conectada de
activación sigmoide (Ec. 1), y una capa de salida de
activación “softmax”.
2.4 CONSTRUCCIÓN DE LOS MODELOS
Los modelos presentados en la sección 2.3
presentan parámetros que varían la respuesta de los
modelos, por lo que fue necesario realizar
procedimientos que maximizaran una métrica
específica. En esta sección de la metodología se
presentan las métricas utilizadas para la
comparación de los modelos, y los procedimientos
seguidos para la elección del mejor modelo.
2.4.1 METRICAS
Los modelos construidos fueron comparados
mediante métricas que se obtienen a partir de
matrices de confusión (S), las cuales son matrices
en las que un elemento (𝑆𝑟,𝑝) de la fila r, y la
columna p, representa el número de observaciones
reales de la clase r que fueron predichas por el
modelo como de clase p.
La métrica principal de comparación de modelos
fue la exactitud, la cual se calcula de la siguiente
forma:
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 = ∑ ∑ 𝑆𝑟,𝑝𝑝𝑟
∑ ∑ 𝑆𝑟,𝑝𝑝𝑟
(𝐸𝑐. 9)
Además, se tuvo en cuenta la sensibilidad (también
conocido como recall) del modelo en la predicción
de cada clase en específico siguiendo la siguiente
ecuación:
𝑆𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑖 = 𝑆𝑟,𝑟
∑ 𝑆𝑟,𝑝𝑟
(𝐸𝑐. 10)
Con estas métricas, se estudia la respuesta del
modelo en general (Exactitud), y la respuesta del
modelo para cada clase en específico
(Sensibilidad). Se resalta que la comparación y
elección del mejor modelo se hizo haciendo uso de
la exactitud total en la validación.
2.4.2 BÚSQUEDA EXHAUSTIVA
El objetivo de esta sección es explicar el
procedimiento seguido para la construcción de los
modelos. En este caso, se llama búsqueda
exhaustiva a la iteración con alto nivel de detalle
para un parámetro específico (de gran importancia
para los modelos), buscando variar la respuesta de
una métrica que, en este caso, fue la exactitud total
en la validación de cada modelo. Este
procedimiento se realizó para cada modelo como se
explica a continuación:
• Para la regresión logística, se realizó este
procedimiento para el tipo de penalización,
variando así el valor del parámetro 𝜌 de la
penalización “elasticnet” en 0, 0.2, 0.5, 0.8 y
1. De esta forma, se eligió el tipo de
penalización con mayor exactitud en la
validación.
• Para la red neuronal sencilla, se varío el
número de neuronas en la capa de entrada
entre 1 y 15 neuronas con pasos de 1, y luego
se aumentó el número de neuronas a
20,30,40 y 50; para finalizar variando el
número de neuronas entre 100 y 500 con
pasos de 100. Para cada modelo se estudió el
comportamiento y se escogió el modelo con
una mayor exactitud en la validación.
• Para la red neuronal convolucional se
realizaron 2 procedimientos. El primero fue
variar el número de capas de convolución,
seguidas de capas adicionales “Max
pooling” como se mostró en la sección 2.3.3.
Imagen 1 Imagen de prueba cualitativa de la respuesta del modelo.
Después de esto, se varío el número de
neuronas en la capa escondida de activación
sigmoide densamente conectada entre 1 y 15
neuronas con pasos de 1 neurona.
Es importante resaltar que al realizar estos
procedimientos los siguientes parámetros
permanecieron constantes en su los valores
reportados en la sección anterior: optimizador,
variable de pérdida, activación de las capas
escondidas, y los parámetros definidos en la tabla 3
para las capas convolucionales.
2.4.3 VALIDACIÓN CRUZADA
Después de realizar estos procedimientos, se
procedió a realizar una validación cruzada con 5
distintas particiones de entrenamiento, validación y
prueba (recordar Tabla 2); además de estudiar
también este procedimiento en 5 inicializaciones
distintas para los parámetros. De esta forma, se
espera encontrar una estimación insesgada del error
de predicción, utilizando esta técnica que es útil
cuando no se cuenta con un conjunto de datos
grande [16].
Este procedimiento se realizó para la red neuronal
simple y la red convolucional con las
configuraciones que tenían una mejor exactitud en
la validación después de realizar el procedimiento
de la sección 2.4.2.
2.4.4 PRUEBA CUALITATIVA SOBRE
UNA IMAGEN EXTERNA
Después de realizar los pasos anteriores, se
procedió a realizar una prueba cualitativa del mejor
modelo. En este caso, se utilizó la Imagen 1, la cual
tiene un tamaño de 500x1000 píxeles y así poder
visualizar la respuesta obtenida por el modelo.
Para hacer esto, la Imagen 1 fue dividida en 1.250
imágenes de tamaño 20x20 que fueron sometidas a
la red convolucional con la mejor configuración
encontrada. De esta forma, el modelo hizo la
predicción de cada imagen, y se visualizó el
resultado.
También se hizo esta partición en imágenes de
50x50 y 100x100 píxeles, por lo que fue necesario
entrenar modelos con estos tamaños de imagen.
Para esto, se utilizó la mejor configuración
obtenida por las imágenes de tamaño 20x20, sin
repetir los pasos anteriores.
2.5 DISCRIMINACIÓN DEL MODELO
POR ZONAS DISTINTAS
Por último, se utilizó la mejor configuración
obtenida de la red convolucional para entrenar un
modelo que identificara cultivos por zona
geográfica. En este caso, las imágenes
correspondientes a la clase “Cultivos”, fueron
clasificadas según su zona como se muestra a
continuación:
• La primera zona corresponde a las imágenes
tomadas de los alrededores del
Departamento Valle del Cauca, de las cuales
se encontraron 198 imágenes.
• La segunda zona corresponde a las imágenes
tomadas de los departamentos Meta y
Casanare, donde se encontraron 45
imágenes.
Las imágenes correspondientes a cada zona tienen
una resolución de 100x100 píxeles, por lo que cada
una de ellas se dividió en 25 imágenes de tamaño
20x20 píxeles, ya que este es el tamaño para el cual
los modelos fueron entrenados.
Esto se hizo con el objetivo de estudiar la respuesta
del modelo en diferentes zonas, y ver si su
capacidad de predicción varía dependiendo de la
zona.
2.6 FUNCIÓN PROPUESTA PARA
ESTIMAR POTENCIAL DE BIOMASA
En las secciones anteriores se mostró la
metodología seguida para la detección de zonas de
cultivo con potencial energético, sin embargo, los
modelos desarrollados cuentan con una respuesta
categórica, por lo que es necesario definir una
función que cuantifique el potencial energético
como valor agregado de este proyecto.
Con lo anterior en mente, se propone una función
que cuantifique el potencial energético de cada
departamento d (𝐹𝑑) mediante la suma del número
de imágenes clasificadas como cultivo c
pertenecientes al departamento d (𝑁𝑑,𝑐),
multiplicadas por el potencial energético medio del
departamento (𝑃𝑐) y el área de la imagen del cultivo
c (𝐴𝑐).
Siguiendo esto, se estimó la siguiente función
general:
𝐹𝑑 = ∑ 𝑁𝑑𝑐𝑃𝑐𝐴𝑐
𝑐𝜖𝐶
∀𝑑 ∈ 𝐷 (𝐸𝑐. 10)
En esta función, se deja expresada el área en
términos del tipo de cultivo, ya que esta área
depende directamente del tamaño de la imagen
utilizado para el entrenamiento de los datos. En
nuestro caso, se utilizó una imagen de tamaño
20x20, donde cada píxel cubre un área de 100 𝑚2,
ya que se trabaja con una resolución de 10 metros.
En este caso, cada imagen tendría un área total de
0.04 𝑘𝑚2.
Es importante resaltar que esta función
3. RESULTADOS Y ANÁLISIS
En esta sección, se presentan los resultados
obtenidos al aplicar los diferentes modelos
siguiendo la información reportada en la sección
anterior. Además, se realiza un análisis de estos
resultados, y se señalan oportunidades de mejora
para futuras investigaciones.
3.1 REGRESIÓN LOGÍSTICA
Como se explicó anteriormente, se varió el tipo de
penalización para este modelo, con el fin de obtener
la mejor precisión en la validación. De esta forma,
se llegó a los siguientes resultados:
Tabla 4 Tipo de penalización vs Exactitud en la
validación
𝝆 Exactitud
0 0,7045
0,2 0,716
0,5 0,7183
0,8 0,7189
1 0,7121
Se puede observar como la exactitud varía
ligeramente dependiendo de la penalización
aplicada, y que la mejor exactitud se da en el
modelo con un parámetro asociado a L1 del 80%.
La matriz de confusión para este modelo se
presenta a continuación.
Matriz 1 Matriz de confusión del entrenamiento de la regresión logística.
Predicción
Bosque Cultivo Ninguno
Bosque 4228 750 94
Real Cultivo 917 3500 901
Ninguno 612 917 3918
Con el muestreo de entrenamiento se llegó a una
exactitud total de 73.44%, con una sensibilidad del
83,36% asociado a la clase bosque, un 65.81% a la
clase cultivos, y 71.92% a la clase negativa. De esta
forma, se puede observar una alta diferencia en el
ajuste del modelo en los datos de entrenamiento de
la clase bosque y la clase cultivo.
También se hace el estudio de los resultados del
modelo en la validación (Matriz 2). En esta se
obtuvo una exactitud total del 71.89%, con una
sensibilidad de 81,39% asociada a la clase bosque,
un 61.06% a la clase cultivo y un 68,45% a la clase
negativa. De esta forma se observa un
comportamiento similar al entrenamiento, por lo
que no se evidencia un sobreajuste de los datos. A
su vez, se observa que el modelo predice
correctamente la clase bosque con una mayor
sensibilidad que las demás clases, sin embargo, la
sensibilidad para la clase de cultivos es baja, por lo
que es necesario estudiar otros métodos.
Matriz 2 Matriz de confusión en la validación de
la regresión logística.
Predicción
Bosques Cultivos Ninguno
Bosques 888 185 18
Real Cultivos 218 723 243
Ninguno 130 223 766
En adición, se puede observar en las matrices de
confusión 1 y 2, que el modelo comete en mayor
proporción el error de clasificar imágenes que son
bosques como cultivos y viceversa, y a su vez
comete este error al distinguir entre la clase
cultivos y la clase ninguno. Se espera que el modelo
pueda corregir este error con la red neuronal de 1
capa escondida y la red convolucional.
3.2 RED NEURONAL
El primer paso presentado en la metodología para
encontrar la mejor configuración es realizar una
búsqueda exhaustiva. Los resultados para las
exactitudes del entrenamiento, validación y prueba
de este modelo se encuentran en el Anexo I. De
estos resultados, se puede observar que con 50
neuronas se obtiene la mejor respuesta, por lo que
con esta configuración se procedió a realizar la
validación cruzada doble para la partición de los
datos y la inicialización.
Para la partición aleatoria de los datos, se utilizaron
5 diferentes semillas obteniendo los siguientes
resultados para la red neuronal con 50 neuronas:
Tabla 5 Exactitudes encontradas para diferentes
valores de la semilla de la partición de datos de la
red neuronal.
Semilla Exactitud total
Entrenamiento Validación Prueba
1 96,59% 90% 91,04%
2 95,98% 88,89% 90,06%
3 96,31% 89,43% 90,63%
4 96,4% 89,43% 91,64%
5 95,87% 89,33% 90,56%
De la tabla 5 se puede observar que el modelo no
presenta diferencias significativas frente a la
partición aleatoria de los datos, sin embargo, la
mayor exactitud en la validación y entrenamiento
se encontró utilizando la primera semilla.
A continuación, se presenta la matriz de confusión
para el mejor modelo de red neuronal con 50
neuronas en su capa escondida:
Matriz 3 Matriz de confusión de la validación de
la red neuronal.
Predicción
Bosque Cultivo Ninguno
Bosque
983 51 27
Real Cultivo
53 853 73
Ninguno
32 81 1016
De esta forma, se obtiene una sensibilidad para la
clase bosque del 92,64%, para la clase cultivo de
87,12% y para la clase negativa de 89,99%. Se
puede analizar que los resultados presentan
mejoras frente a la regresión logística mostrada en
la sección anterior. También se observa que la
sensibilidad frente a cada clase tiene un valor
cercano a la exactitud total (90%), sin embargo,
sigue resaltando la clase cultivo con el valor más
bajo.
Por último, se analiza la matriz 4 (entrenamiento
del modelo), la cual tiene una sensibilidad de
97,57%, 95,01% y 96,9% para las clases bosques,
cultivos y ninguno respectivamente. De esta matriz
se puede observar un resultado similar al de la
matriz de la validación de este modelo, pues la
sensibilidad para cada clase presenta valores
cercanos a la exactitud total, resaltando que la clase
de cultivos es la que presenta un menor valor. A su
vez, se puede observar en ambas matrices, que el
mayor error se ve representado por la clase
cultivos, siendo así que el modelo predice
imágenes que corresponden a bosques y a la clase
negativa como cultivos principalmente.
Matriz 4 Matriz de confusión del entrenamiento
de la red neuronal
Predicción
Bosque Cultivo Ninguno
Bosque
5303 122 10
Real Cultivo
56 4098 159
Ninguno
7 149 4883
Además, se muestra el comportamiento de la
exactitud y el valor de la pérdida durante el
entrenamiento y validación a lo largo de las 1500
épocas de entrenamiento.
Figura 2 Comportamiento de la exactitud del
entrenamiento y validación frente a la época.
Figura 3 Comportamiento de la pérdida del
entrenamiento y validación frente a la época.
Al analizar las figuras 2 y 3, se puede ver que no
hay un sobre- entrenamiento de los datos, ya que el
valor de la pérdida disminuye durante todas las
épocas tanto para el entrenamiento y la validación,
por lo que el modelo no está perdiendo capacidad
de generalización.
3.3 RED NEURONAL CONVOLUCIONAL
Esta sección de resultados fue dividida en 3 partes.
La primera parte presenta los resultados obtenidos
para encontrar la mejor configuración para el
modelo. La segunda parte presenta la prueba del
mejor modelo en una imagen externa, y la última
parte presenta los resultados de aplicar la
configuración diferenciando las imágenes de
cultivo por zonas.
3.3.1 ENTRENAMIENTO Y MÉTRICAS
DEL MEJOR MODELO.
El primer paso a para encontrar la mejor
configuración fue estudiar el número de capas
convolucionales que eran adecuadas para el
modelo. Por esta razón, se entrenaron modelos con
1, 2 y 3 capas convolucionales con su respectiva
capa de “Max_pooling” siguiendo los parámetros
expuestos en la sección 2 de este documento. La
siguiente tabla muestra la exactitud en la validación
para el modelo variando el número de capas
convolucionales y el número de neuronas de
activación sigmoide de la capa densamente
conectada.
Tabla 6 Exactitud en la validación para cada
configuración.
# Neuronas Número de convoluciones
1 2 3
1 67.65% 76.92% 81.85%
2 82.64% 89.35% 93.29%
3 86.98% 90.34% 91.12%
4 84.62% 90.34% 94.28%
5 85.40% 91.91% 93.10%
6 86.19% 90.73% 92.31%
7 87.18% 93.29% 92.70%
8 86.59% 91.91% 94.28%
9 87.38% 92.90% 94.08%
10 89.15% 93.10% 94.48%
11 88.56% 93.29% 93.89%
12 87.38% 97.46% 93.29%
13 88.56% 92.90% 94.87%
14 89.55% 94.28% 93.29%
15 89.94% 93.49% 93.29%
En la tabla 7 se puede observar que la mejor
respuesta se tiene con un modelo de 2
convoluciones y 12 neuronas en la capa escondida,
por lo que esta fue la configuración escogida para
realizar la validación cruzada en la partición
aleatoria y en la inicialización.
En la tabla 8, se observan los resultados de la
validación cruzada doble con 5 diferentes semillas.
En este caso, no se observan diferencias
significativas al variar la partición de los datos, sin
embargo, resalta la semilla número 4 con la mayor
exactitud en la validación, por lo que se trabajó con
este valor para las pruebas siguientes. En este paso
se resalta que el modelo converge, por lo que se
obtiene una estimación insesgada del error de
predicción.
Tabla 7 Métricas para diferentes semillas de
partición de datos para la red convolucional.
Semilla Exactitud total
Entrenamiento Validación Prueba
1 99,96% 97,46% 97,31%
2 100% 97,98% 98,42%
3 99,97% 97,16% 97,41%
4 99,99% 98,01% 97,57%
5 99,99% 97,66% 97,76%
También se estudian diferentes valores de
inicialización, los cuales se reportan en la tabla 9.
En este caso, se encuentra la mejor exactitud en
validación y prueba con la cuarta semilla utilizada.
Sin embargo, no se presentan diferencias de una
magnitud considerable en los resultados.
Tabla 8 Métricas para diferentes semillas de la
inicialización para la red convolucional.
Semilla Exactitud total
Entrenamiento Validación Prueba
1 99,96% 97,46% 97,31%
2 99,98% 97,26% 98,23%
3 99,99% 97,48% 97,82%
4 99,99% 97,57% 98,36%
5 99,98% 97,7% 98,23%
En adición, se estudió el entrenamiento de la
exactitud total y el valor de la pérdida en el número
de épocas utilizadas. En la figura 4, se puede
observar el aprendizaje del modelo durante las
primeras 600 épocas, después de esto el modelo
converge en valores distintos para el entrenamiento
y validación.
Figura 4 Comportamiento de la exactitud del
entrenamiento y validación frente a la época.
Para el caso del valor de la pérdida, se puede
observar en la figura 5 que esta disminuye,
mostrando así el aprendizaje del modelo. Alrededor
de la época 800 se puede observar que el modelo
converge en un valor de pérdida diferente para el
entrenamiento y la validación.
Es importante resaltar en este análisis que, al
recoger la época con mayor exactitud en la
validación, se encontró que esta corresponde a la
época 866, sin embargo, gráficamente se observa
que el valor encontrado al finalizar las 1500 épocas
no debe tener una diferencia significativa.
Figura 5 Comportamiento del valor de la pérdida
del entrenamiento y validación frente a la época.
Además, se estudia el entrenamiento y la
validación desde sus respectivas matrices de
confusión.
El comportamiento del entrenamiento del modelo
muestra una predicción casi exacta como se puede
observar en la Matriz 5. Pues la exactitud total
corresponde a un 99,99% teniendo así que se ajusta
completamente a la clase bosques y a la clase
negativa.
Imagen 2 Respuesta cualitativa sobre la imagen de prueba. El color morado corresponde a la clase
cultivos, el color celeste a la clase ninguno de los anteriores, y el color amarillo a la clase bosque.
Matriz 5 Matriz de confusión del entrenamiento
de la red convolucional.
Predicción
Bosque Cultivo Ninguno
Bosque 5363 0 0
Real Cultivo 1 4411 0
Ninguno 0 0 5012
Por otro lado, en la validación la exactitud total es
un poco menor (97.7%), y que la sensibilidad de la
clase bosque es del 98,19%, de los cultivos es del
96,88% y la de la clase negativa 97,51%.
Matriz 6 Matriz de confusión para la validación de la
red convolucional.
Predicción
Bosque Cultivo Ninguno
Bosque 1088 11 9
Real Cultivo 15 903 14
Ninguno 17 11 1101
Siguiendo estos resultados, se analiza que el
modelo presenta un ajuste muy bueno al muestreo
de imágenes, sin embargo, la capacidad de
generalización del modelo se estudia en la siguiente
sección, donde se prueba el modelo en una imagen
externa.
3.3.2 RESULTADO CUALITATIVO EN
UNA IMAGEN EXTERNA
El modelo obtenido en la sección anterior fue
evaluado en la Imagen 1, y los resultados se pueden
ver en la Imagen 2. En ella, se puede observar la
respuesta del modelo a la hora de clasificar
imágenes que no se tuvieron en cuenta en el
entrenamiento.
En esta imagen se puede observar que el modelo
distingue los sectores urbanos, pero las zonas de
cultivos son clasificadas erróneamente (como
sector urbano o zona sin vegetación), lo que puede
deberse a que los bordes rectos de los cultivos se
toman como indicadores de que es un sector urbano
y no un cultivo. De igual forma, esta imagen no
cuenta con zonas de vegetación o bosques, sin
embargo, se presentan el modelo clasifica algunas
ventanas como bosques. Teniendo en cuenta estos
resultados, se recomienda en estudios futuros
trabajar en mejorar el desempeño del modelo
haciendo cambios en los conjuntos de
entrenamiento, validación y prueba; con el fin de
encontrar ejemplos representativos de las
confusiones entre clases. Una posible estrategia
sería aumentar el número de imágenes de cultivos,
para poder contrarrestar los errores mencionados
anteriormente.
Además, se procedió a entrenar la configuración
obtenida en la sección anterior con imágenes de
tamaño 50x50 y 100x100 respectivamente, como
se explicó en la metodología.
En la tabla 5, se puede observar el ajuste de cada
modelo dependiendo del tamaño de imagen, en los
que se tiene un menor número de imágenes para un
mayor tamaño de ventana de la imagen. Teniendo
esto en mente, se puede evidenciar una relación
inversa en la exactitud de los modelos y el tamaño
de la imagen, teniendo así la menor exactitud
cuando el tamaño de la imagen es mayor. Sin
embargo, este estudio se realizó para observar la
respuesta cualitativa del modelo frente a diferentes
tamaños de imagen y para identificar los aciertos y
desaciertos del modelo y así poder trabajar en
investigaciones futuras poder crear estrategias para
mejorar el desempeño del modelo.
En los anexos III y IV, se puede observar que, al
aumentar el tamaño de la imagen, el modelo
predice de forma más acertada las zonas de
cultivos, sin embargo, pasa por alto las zonas
urbanas de menor tamaño.
Esta respuesta nos permite analizar que la
respuesta del modelo cambia significativamente
frente al tamaño de imagen utilizado, por lo que en
estudios futuros se debe estudiar el tamaño de
imagen adecuado para una correcta predicción de
los modelos.
Tabla 9 Métricas de los modelos entrenados con diferente tamaño de imagen.
Tamaño
imagen
Exactitud Número de
imágenes Entrenamiento Validación Prueba
20x20 100.00% 98.04% 97.73% 22625
50x50 99.53% 91.72% 94.48% 3620
100x100 99.66% 79.53% 77.17% 905
3.3.3 ESTUDIO DEL MODELO EN
DIFERENTES ZONAS
Para realizar este estudió, se tomó el mejor modelo
obtenido en la sección 3.3.1, y se sometió a la
predicción de las 198 imágenes del Valle del
Cauca, y las 45 imágenes de Meta y Casanare.
Siguiendo esto, se muestran los resultados en la
siguiente matriz, donde las filas representan la zona
a la que pertenecen las imágenes reales, y las
columnas la clase predicha por el modelo. Es
importante resaltar en este paso que las filas
corresponden a imágenes de cultivos.
Matriz 7 Matriz de confusión con los resultados
del estudio por zonas.
Bosque
s
Cultivos Ninguno
Zona 1 15 4898 37
Zona 2 0 1122 3
Al tener estos resultados, se puede estimar la
sensibilidad para cada zona, obteniendo así que los
valores corresponden a 98.94% y 99.73% para las
zonas 1 y 2 respectivamente.
Teniendo en cuenta estos resultados, se puede
observar que el modelo se ajusta a las zonas
geográficas utilizadas con un resultado cercano al
100%, por lo que se puede afirmar que no hay
diferencias significativas en la predicción de
imágenes tomadas del Valle del Cauca, y las
tomadas de los departamentos Meta y Casanare. Es
importante mencionar que esta afirmación no se
puede generalizar a las demás zonas del país, ya
que en este caso se trabajó con 2 ejemplos
específicos, por lo que, en casos futuros se
recomienda realizar este estudio con imágenes de
diferentes zonas del país.
3.4 FUNCIÓN DE POTENCIAL
ENERGÉTICO.
En esta sección, se presenta el resultado de utilizar
la función de estimación del potencial sobre 198
imágenes del Valle del Cauca, y el procedimiento
seguido para llegar a este resultado.
Para esto, se parte de la ecuación 6, donde s
importante mencionar que esta hace un supuesto
enorme al afirmar que el potencial energético
depende solamente del tipo de cultivo, y no de la
región en la que es sembrado. Para esto, nos
basamos en el estudio realizado por la UPME en el
2006, donde se puede hacer una estimación de este
potencial energético, ya que nos brinda la
información del área sembrada en hectáreas, las
toneladas de producto sembradas y cantidad de
residuo por año, y el potencial energético (TJ/año)
para cada cultivo y cada departamento.
Tabla 10 Potencial energético anual por área de
cada cultivo del Valle del Cauca [3].
Cultivo Potencial
energético
(TJ/año)
Área
sembrada
(ha)
Potencial
por área
(TJ/ha
año)
Arroz 102,079 5,970 17.10
Banano 399,844 6,202 64.47
Café 340,509 72,563 4.69
Caña de
panela 6,216 221,234 0.03
Caña de
azúcar 168,033 12,667,620 0.01
Maíz 31,568 223,472 0.14
Plátano 15,650 904,497 0.02
Con la información anterior, se estima que el
promedio del potencial energético anual por
hectárea es de 12.35 TJ/ha año ante la ignorancia
del tipo de cultivo detectado y la gran diferencia en
potencial entre los distintos cultivos. Siguiendo
esto, se puede evaluar la Ecuación 6 para estimar el
potencial de estas 198 imágenes.
𝐹𝑉𝑎𝑙𝑙𝑒 = 198 𝑖𝑚𝑔 ∗ 12.35𝑇𝐽
ℎ𝑎 ∗ 𝑎ñ𝑜∗ 100
ℎ𝑎
𝑖𝑚𝑔
𝐹𝑉𝑎𝑙𝑙𝑒 = 244,562.12 𝑇𝐽
ℎ𝑎
En esta ocasión, se estimó el potencial energético
de una parte del Valle del Cauca a partir de
imágenes que cubren un área de 19.800 hectáreas.
Siguiendo esto, se resalta que no hay un valor de
comparación para estimar el error de esta función,
sin embargo, en investigaciones futuras se espera
que se pueda hacer la estimación sobre todo un
departamento, para así poder comparar con los
datos obtenidos por la UPME.
3.5 OPORTUNIDADES DE MEJORA
A partir de la información brindada por la UPME
en el 2006 en sus atlas del potencial energético de
la biomasa residual en Colombia [3], un grupo de
investigadores de la universidad Nacional
realizaron una estimación del potencial de
conversión a biogás de los residuos del sector
agropecuario. Por parte del sector agrícola,
llegaron a la conclusión de que el bagazo
proveniente de la caña de azúcar tiene un alto
potencial para producir biogás, sin embargo, este
ya es utilizado para la cogeneración en los ingenios.
Por esta razón, proponen que las lagunas de
oxidación provenientes del cultivo de palma de
aceite son el cultivo con mayor potencial de
conversión de biogás en Colombia [17].
Siguiendo estos resultados, se propone que un
siguiente estudio sea enfocado en la detección de
zonas de cultivo de palma de aceite, sin embargo,
se resalta que el objetivo a largo plazo es poder
construir atlas de biomasa residual a partir de
inteligencia artificial, por lo que se debe trabajar en
incluir los tipos de cultivos con mayor potencial
energético.
Por otro lado, en próximos estudios se podría
incluir la información proveniente del satélite
Sentinel 1, además, de la banda 8 del satélite
Sentinel 2.
Por último, se menciona que se debe tener en
cuenta el tamaño de cada tipo de cultivo, para así
definir un tamaño de imagen adecuado para que el
modelo pueda generalizar de la mejor forma.
4. CONCLUSIONES
Se puede concluir que sí es posible construir
modelos que aprovechen la información dada por
la constelación Sentinel, para la detección de zonas
de cultivo en Colombia. En este caso, el mejor
modelo encontrado corresponde a una red neuronal
convolucional con 2 capas convolucionales
seguidas cada una con una capa “Max pooling”
respectiva, una capa densamente conectada de 12
neuronas activación sigmoide y una capa de salida
de activación “Softmax”, obteniendo así una
exactitud en la validación del 97.46%, 99.99% en
el entrenamiento, y 97.31% en la prueba.
Se concluye también que hay varias oportunidades
de mejora en el proyecto, de las cuales destacan el
profundizar en la detección de tipos de cultivos en
específico (arroz, café, maíz, etc.) destacando la
palma de aceite como el más prometedor. También
el incluir la información de otros satélites de la
constelación Sentinel, y la banda 8 del satélite
Sentinel 2.
También se debe tener en cuenta que la respuesta
del modelo cambia significativamente frente al
tamaño de imagen utilizado, por lo que en estudios
futuros se debe estudiar el tamaño de imagen
adecuado para mejor al desempeño del modelo.
Por otro lado, se recuerda que la prueba cualitativa
del modelo sobre una imagen muestra sus aciertos
y desaciertos, por lo que en investigaciones futuras
se espera realizar ajustes al modelo en orden de
mejorar su desempeño. Al observar sus desaciertos,
se pueden realizar cambios en las imágenes de
entrenamiento, validación y prueba.
Por último, se pudo dar una aproximación a la
cuantificación del potencial energético dado a
partir del método de detección a partir de imágenes
de un tamaño especifico. En investigaciones
futuras se espera poder estimar el potencial de
imágenes de un departamento en específico, y
comparar estos resultados con los presentados por
la UPME, y así poder realizar ajustes a la función
en orden de mejorar su exactitud. También, se
podría encontrar una función que estime el
potencial energético por imagen, e incluir esta
función en la construcción de los modelos,
maximizando así esta función para encontrar los
mejores estimadores.
5. REFERENCIAS
[1] FAO, PNUD, GEF y Ministerio de
Energía de Chile, Manual del biogás.,
Santiago de Chile, 2011.
[2] M. d. A. y. D. Rural, Oferta Agropecuaria
Cifras ENA - 2006, 2006.
[3] H. E. Hernández, J. Orduz Prada, H. J.
Zapate Lesmes, M. C. Cardona Ruiz y M.
Duarte Ortega, Atlas del potencial
energético de la biomasa residual en
Colombia., 2006.
[4] Copernicus, «Copernicus open access
hub,» [En línea]. Available:
https://scihub.copernicus.eu/. [Último
acceso: 14 05 2020].
[5] I. Goodfellow, Y. Bengio y A. Courville,
«Deep learning,» 2016. [En línea].
Available:
http://www.deeplearningbook.org.
[6] S. Saavedra y M. Romero, «Local
Incentives and National Tax Evasion:
Unintended Effects of a Mining Royalties
Reform in Colombia,» Documentos de
trabajo, 2019.
[7] A. Suarez, A. Jimenez, M. Castro-Franco
y A. Cruz-Roa, «Clasificación y mapeo
automático de coberturas del suelo en,»
Colombia Suplemento, vol. 21, nº 1, 2017.
[8] J. R. Mancera Florez, «Evaluación de
imágenes de radar Sentinel1A e imágenes
multiespectrales Sentinel-2A,»
Universidad Nacional de Colombia.,
Bogotá D.C, 2019.
[9] Google, «¿Qué es Colaboratory?,» [En
línea]. Available:
https://colab.research.google.com/noteboo
ks/welcome.ipynb?hl=es-419. [Último
acceso: 10 05 2020].
[10] Keras, «SGD,» [En línea]. Available:
https://keras.io/api/optimizers/sgd/.
[Último acceso: 13 06 2020].
[11] I. Sutsekever, J. Martens, G. Dahl y G.
Hinton, «On the importance of
initialization and momentum in deep
learning,» JMLR, vol. 28, 2013.
[12] Tensorflow, «Tensorflow core,» [En
línea]. Available:
https://www.tensorflow.org/overview?hl=
es. [Último acceso: 10 05 2020].
[13] Keras, «Probabilistic losses,» [En línea].
Available:
https://keras.io/api/losses/probabilistic_los
ses/#categorical_crossentropy-function.
[Último acceso: 05 06 2020].
[14] D. Ciresan, J. Masci, L. Gambardella y J.
nSchmidhuber, «Flexible, high
performance convolutional neural network
for image classification,» de Twenty-
Second International Joint Conference on
Artificial Intelligence, Manno-Lugano.
[15] Keras, «MaxPooling2D layer,» [En línea].
Available:
https://keras.io/api/layers/pooling_layers/
max_pooling2d/. [Último acceso: 05 06
2020].
[16] P. Filzmoser, B. Libmann y K. Varmuza,
«Repeated double cross validation,» J.
Chemometrics, vol. 23, pp. 160-171,
2009.
[17] UNAL-UPME, «ESTIMACIÓN DEL
POTENCIAL DE CONVERSIÓN A
BIOGÁS DE LA BIOMASA EN
COLOMBIA Y SU
APROVECHAMIENTO,» Bogotá D.C,
2018.
[18] K. Ramasubramanian y A. Singh,
«Machine Learning Theory and Practice,»
Berkeley,CA, 2019.
[19] G. James, D. Witten, T. Hastie y R.
Tibshirani, «An Introduction to Statistical
Learning,» Springer, New York, 2013.
[20] J. Martinez, «Inteligencia Artificial y
Machine Learning en Castellano,» [En
línea]. Available:
https://www.iartificial.net/regularizacion-
lasso-l1-ridge-l2-y-elasticnet/. [Último
acceso: 15 05 2020].
[21] Scikit learn,
«sklearn.linear_model.LogisticRegression
,» [En línea]. Available: https://scikit-
learn.org/stable/modules/generated/sklear
n.linear_model.LogisticRegression.html.
[Último acceso: 10 05 2020].
[22] Scikit-learn, «Scikit-learn: Machine
Learning in Python,» Journal of machine
learning research, vol. 12, pp. 2825-2830,
2011.
[23] M. Nielsen, «Neural networks and deep
learning,» [En línea]. Available:
http://neuralnetworksanddeeplearning.co
m/index.html. [Último acceso: 20 05
2020].
ANEXOS
ANEXO I. Búsqueda exhaustiva para la red neuronal
# Neuronas Entrenamiento Validación Prueba
1 68,26% 66,49% 65,7%
2 79,98% 77,85% 79,46%
3 81,85% 80,37% 80,97%
4 84,44% 81,1% 82,77%
5 85,16% 82,14% 83,21%
6 87,85% 84,44% 85,04%
7 89,09% 85,53% 86,05%
8 90,17% 84,82% 86,65%
9 92,99% 86,78% 88,42%
10 92,66% 87,69% 88,04%
11 93,92% 87,57% 88,48%
12 93,92% 87,69% 89,3%
13 94,44% 87,57% 89,78%
14 94,43% 87,79% 88,67%
15 94,78% 88,51% 89,65%
20 95,64% 88,07% 90,38%
30 95,55% 89,08% 89,97%
40 96,3% 89,81% 90,88%
50 96,59% 90% 91,04%
100 96,23% 90,03% 91,23%
200 96,41% 89,56% 91,07%
300 96,09% 89,78% 91,32%
400 96,27% 89,81% 90,91%
500 95,92% 89,4% 91,07%
1000 95,85% 90,06% 91,26%
ANEXO II. Búsqueda exhaustiva para la red convolucional
# Neuronas Número de convoluciones
1 2 3
1 67.65% 76.92% 81.85%
2 82.64% 89.35% 93.29%
3 86.98% 90.34% 91.12%
4 84.62% 90.34% 94.28%
5 85.40% 91.91% 93.10%
6 86.19% 90.73% 92.31%
7 87.18% 93.29% 92.70%
8 86.59% 91.91% 94.28%
9 87.38% 92.90% 94.08%
10 89.15% 93.10% 94.48%
11 88.56% 93.29% 93.89%
12 87.38% 95.46% 93.29%
13 88.56% 92.90% 94.87%
14 89.55% 94.28% 93.29%
15 89.94% 93.49% 93.29%
ANEXO III. Imagen de respuesta cualitativa de tamaño 100x100
ANEXO IV. Imagen de respuesta cualitativa de tamaño 50x50
Top Related