<?xml version="1.0" encoding="UTF-8"?>
<?xml-model type="application/xml-dtd" href="http://jats.nlm.nih.gov/publishing/1.1d3/JATS-journalpublishing1.dtd"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1d3 20150301//EN" "http://jats.nlm.nih.gov/publishing/1.1d3/JATS-journalpublishing1.dtd">
<article xmlns:ali="http://www.niso.org/schemas/ali/1.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1d3" specific-use="Marcalyc 1.2" article-type="research-article" xml:lang="es">
<front>
<journal-meta>
<journal-id journal-id-type="redalyc">624</journal-id>
<journal-title-group>
<journal-title specific-use="original" xml:lang="es">FIGEMPA: Investigación y Desarrollo</journal-title>
</journal-title-group>
<issn pub-type="ppub">1390-7042</issn>
<issn pub-type="epub">2602-8484</issn>
<publisher>
<publisher-name>Universidad Central del Ecuador</publisher-name>
<publisher-loc>
<country>Ecuador</country>
<email>revista.figempa@uce.edu.ec</email>
</publisher-loc>
</publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="art-access-id" specific-use="redalyc">6242851006</article-id>
<article-id pub-id-type="doi">https://doi.org/10.29166/revfig.v13i1.3121</article-id>
<article-categories>
<subj-group subj-group-type="heading">
<subject>Artículos</subject>
</subj-group>
</article-categories>
<title-group>
<article-title xml:lang="es">Delimitación automática de ceniza volcánica en imágenes satelitales mediante Deep Learning</article-title>
<trans-title-group>
<trans-title xml:lang="en">Automatic delimitation of volcanic ash in
satellite images using Deep Learning</trans-title>
</trans-title-group>
</title-group>
<contrib-group>
<contrib contrib-type="author" corresp="no">
<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-0017-7549</contrib-id>
<name name-style="western">
<surname>Aldás Núñez</surname>
<given-names>Roberth Joel</given-names>
</name>
<xref ref-type="aff" rid="aff1"/>
<email>rjaldas@uce.edu.ec</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-0679-6623</contrib-id>
<name name-style="western">
<surname>Tuz Chamorro</surname>
<given-names>Katherin Vanessa</given-names>
</name>
<xref ref-type="aff" rid="aff2"/>
<email>kvtuz@uce.edu.ec</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<name name-style="western">
<surname>Vega Ocaña</surname>
<given-names>Jair Alejandro</given-names>
</name>
<xref ref-type="aff" rid="aff3"/>
<email>javegao@uce.edu.ec</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0003-4001-2260</contrib-id>
<name name-style="western">
<surname>Velasco Haro</surname>
<given-names>Marco Sebastián</given-names>
</name>
<xref ref-type="aff" rid="aff4"/>
<email>msvelascoh@uce.edu.ec</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0001-6715-191X</contrib-id>
<name name-style="western">
<surname>Mejía Escobar</surname>
<given-names>Christian Iván</given-names>
</name>
<xref ref-type="aff" rid="aff5"/>
<email>cimejia@uce.edu.ec</email>
</contrib>
</contrib-group>
<aff id="aff1">
<institution content-type="original">Universidad
Central del Ecuador, Facultad de Ingeniería en Geología, Minas, Petróleos y Ambiental,
Escuela de Geología</institution>
<institution content-type="orgname">Universidad Central del Ecuador</institution>
<country country="EC">Ecuador</country>
</aff>
<aff id="aff2">
<institution content-type="original">Universidad
Central del Ecuador, Facultad de Ingeniería en Geología, Minas, Petróleos y Ambiental,
Escuela de Geología</institution>
<institution content-type="orgname">Universidad Central del Ecuador</institution>
<country country="EC">Ecuador</country>
</aff>
<aff id="aff3">
<institution content-type="original">Universidad
Central del Ecuador, Facultad de Ingeniería en Geología, Minas, Petróleos y Ambiental,
Escuela de Geología</institution>
<institution content-type="orgname">Universidad Central del Ecuador</institution>
<country country="EC">Ecuador</country>
</aff>
<aff id="aff4">
<institution content-type="original">Universidad
Central del Ecuador, Facultad de Ingeniería en Geología, Minas, Petróleos y Ambiental,
Escuela de Geología</institution>
<institution content-type="orgname">Universidad Central del Ecuador</institution>
<country country="EC">Ecuador</country>
</aff>
<aff id="aff5">
<institution content-type="original">Docente Universidad
Central del Ecuador, Facultad de Ingeniería en Geología, Minas, Petróleos y Ambiental,
Escuela de Geología</institution>
<institution content-type="orgname">Universidad
Central del Ecuador</institution>
<country country="EC">Ecuador</country>
</aff>
<pub-date pub-type="epub-ppub">
<season>Enero-Junio</season>
<year>2022</year>
</pub-date>
<volume>13</volume>
<issue>1</issue>
<fpage>48</fpage>
<lpage>57</lpage>
<history>
<date date-type="received" publication-format="dd mes yyyy">
<day>02</day>
<month>06</month>
<year>2021</year>
</date>
<date date-type="accepted" publication-format="dd mes yyyy">
<day>31</day>
<month>01</month>
<year>2022</year>
</date>
</history>
<permissions>
<ali:free_to_read/>
<license xlink:href="https://creativecommons.org/licenses/by-nc/4.0/">
<ali:license_ref>https://creativecommons.org/licenses/by-nc/4.0/</ali:license_ref>
<license-p>Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial 4.0 Internacional.</license-p>
</license>
</permissions>
<abstract xml:lang="es">
<title>Resumen</title>
<p> La Inteligencia Artificial ha tenido un gran impacto en los últimos años, cada vez este campo de la Informática es más utilizado en el tratamiento de problemas en el área geológica. Una de las principales aplicaciones es la detección y segmentación de ceniza en imágenes satelitales. Para tal fin, proponemos un modelo de Deep Learning basado en una red neuronal convolucional (CNN) y entrenado con un dataset de imágenes satelitales que tienen aplicado el filtro “ash”, que proporciona una coloración rosada rojiza a la ceniza, facilitando el proceso de segmentación. Los resultados obtenidos indican una precisión del 99%, conveniente para su aplicación práctica para la segmentación de la ceniza emitida por el Volcán Sangay, el cual ha presentado periodos de actividad volcánica en los últimos años. Las imágenes segmentadas generadas por nuestro modelo son congruentes con los estudios publicados por el IG-EPN.  </p>
</abstract>
<trans-abstract xml:lang="en">
<title>Abstract</title>
<p> Artificial Intelligence has had a big impact in recent years, this field of Informatics is increasingly used to solve geological problems. One of the main applications is the detection and segmentation of volcanic ash in satellite images. For this purpose, we propose a Deep Learning model based on a Convolutional Neural Network (CNN), trained with a satellite image dataset where the "ash" filter is applied, which provides a reddish-pink coloration to the ash, facilitating the segmentation process. The results show an accuracy of 99%, which is suitable for the segmentation of the ash emitted by Sangay Volcano, which has presented periods of volcanic activity in recent years. Our model generated segmented images that are consistent with the studies published by the IG-EPN.  </p>
</trans-abstract>
<kwd-group xml:lang="es">
<title>Palabras clave</title>
<kwd>Deep Learning</kwd>
<kwd> Segmentación de ceniza</kwd>
<kwd> Red neuronal convolucional</kwd>
<kwd> Imágenes Satelitales</kwd>
<kwd> Volcán Sangay</kwd>
</kwd-group>
<kwd-group xml:lang="en">
<title>Keywords</title>
<kwd>Deep Learning</kwd>
<kwd> Ash segmentation</kwd>
<kwd> Convolutional neuronal network</kwd>
<kwd> Satellite Images</kwd>
<kwd> Sangay Volcano</kwd>
</kwd-group>
<counts>
<fig-count count="10"/>
<table-count count="1"/>
<equation-count count="0"/>
<ref-count count="20"/>
</counts>
<custom-meta-group>
<custom-meta>
<meta-name>Cómo citar</meta-name>
<meta-value>Aldás-Núñez, R. J., Tuz-Chamorro, K. V., Vega-Ocaña, J. A., Velasco-Haro,
M. S. &amp; Mejía-Escobar, C.I. (2022). Delimitación
automática de ceniza volcánica en imágenes satelitales mediante Deep Learning.
<italic>FIGEMPA: Investigación y Desarrollo</italic>, 13(1), 48–58. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.29166/revfig.v13i1.3121">https://doi.org/10.29166/revfig.v13i1.3121</ext-link>
</meta-value>
</custom-meta>
</custom-meta-group>
</article-meta>
</front>
<body>
<sec sec-type="intro">
<title>
<bold>INTRODUCCIÓN</bold>
</title>
<p> La rama de la Inteligencia Artificial denominada Machine Learning proporciona algoritmos que posibilitan el aprendizaje automático por parte de las computadoras (<xref ref-type="bibr" rid="redalyc_6242851006_ref10">Porcelli, 2020</xref>). Entre estos algoritmos, la técnica de Deep Learning ha tenido una atención especial debido a su utilidad en aplicaciones del mundo real, como detección y localización de objetos, segmentación, entre otras. Con base en el funcionamiento del cerebro humano, un sistema de Red Neuronal se compone por múltiples capas que realizan abstracciones de las características de los objetos de interés, útiles en nuevas situaciones (<xref ref-type="bibr" rid="redalyc_6242851006_ref16">Silva, 2020</xref>).</p>
<p> Específicamente, la segmentación de imágenes es un problema que puede ser tratado adecuadamente mediante Deep Learning, de forma supervisada o no supervisada, y cumple con dividir la imagen en segmentos mediante la discriminación y clasificación de píxeles, designándole a cada uno de ellos una categoría, basándose en parámetros previamente asignados (<xref ref-type="bibr" rid="redalyc_6242851006_ref11">Reyes Ortiz et al., 2019</xref>). </p>
<p> El propósito del presente trabajo es diseñar e implementar una solución basada en Deep Learning que permita segmentar emisiones de ceniza en imágenes satelitales, mediante Redes Neuronales Convolucionales, además de elaborar un extenso y confiable dataset de imágenes, que sirva de entrenamiento para la predicción de la delimitación del esparcimiento de ceniza volcánica de nuevas imágenes satelitales. La relevancia del tema es debido al poder abrasivo que tiene el material volcánico, pudiendo ser perjudicial para los seres humanos, tanto para la ganadería, la agricultura, la salud y el transporte terrestre, marino y aéreo (<xref ref-type="bibr" rid="redalyc_6242851006_ref9">OPS, 2021</xref>). </p>
<p> Se ha considerado como caso de estudio para la predicción, el actualmente activo Volcán Sangay, ubicado en el corredor Subandino del Ecuador (<xref ref-type="fig" rid="gf1">Fig. 1</xref>) con coordenadas límites Noroeste (786003E, 9784619S); Sureste (805184E, 9769198S) proyectadas en UTM, WGS84 17S. La emisión paulatina de ceniza desde el 2019 ha afectado a zonas cercanas al sur y oeste de la zona, e incluso llegando a Guayaquil (<xref ref-type="bibr" rid="redalyc_6242851006_ref5">IG-EPN, 2021</xref>). El Grupo de Investigación sobre la Ceniza Volcánica en Ecuador (GICVE) desde el 2017 monitorea la dispersión de este material que resulta peligroso para los seres vivos, pero no han presentado aún su modelo automático (<xref ref-type="bibr" rid="redalyc_6242851006_ref4">GICVE, 2020</xref>).</p>
<p> No existen estudios previos desarrollados con redes neuronales convolucionales aplicados a la segmentación de ceniza volcánica, siendo éste nuestro aporte en el campo geológico; sin embargo, se tienen estudios para detectar ceniza, como el proyecto de la Universidad San Francisco en el GICVE y la determinación de dirección, altura y velocidad de nubes de ceniza implementada por el IG-EPN. El algoritmo presentado se orienta en modelos de segmentación en redes neuronales utilizados en el campo de la medicina (<xref ref-type="bibr" rid="redalyc_6242851006_ref2">Caldas, 2017</xref>).</p>
<p> Nuestras contribuciones principales son:</p>
<p>1) la implementación de un modelo basado en Deep Learning para la segmentación de ceniza en imágenes satelitales, cuyo código se encuentra disponible públicamente en: https://colab.research.google.com/drive/1dqCUrcR6jh51zMiolZkPE4EZfATnQ7Dm?usp=sharing y</p>
<p>2) la elaboración de un repositorio de imágenes satelitales de varios volcanes activos del mundo, que se encuentra disponible en: <ext-link ext-link-type="uri" xlink:href="https://drive.google.com/drive/folders/1jFAg5MiF9zZK1ESlhGP7usHTs4zeprGU?usp=sharing">https://drive.google.com/drive/folders/1jFAg5MiF9zZK1ESlhGP7usHTs4zeprGU?usp=sharing</ext-link>
</p>
<p> Para tal fin hemos recolectado imágenes proporcionadas por los satélites GOES 16 y 17, Meteosat-8, Meteosat-11 y Himawari-8. Estas imágenes aplican un filtro Ash, en donde la ceniza tiene una coloración rosada rojiza y se encuentran publicadas en páginas web del Instituto Cooperativo de Estudios de Satélites Meteorológicos (<xref ref-type="bibr" rid="redalyc_6242851006_ref18">CIMSS, 2021</xref>) perteneciente al Centro de Ingeniería y Ciencias Espaciales (SEEC); del Instituto Cooperativo de Investigación en la Atmósfera (<xref ref-type="bibr" rid="redalyc_6242851006_ref19">CIRA, 2021</xref>) y de la Administración Nacional Oceánica y Atmosférica (<xref ref-type="bibr" rid="redalyc_6242851006_ref20">NOOA, 2021</xref>).</p>
<p>
<fig id="gf1">
<label>Figura 1</label>
<caption>
<title>Mapa de Ubicación del Caso de
Estudio</title>
</caption>
<alt-text>Figura 1 Mapa de Ubicación del Caso de
Estudio</alt-text>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18593" position="anchor" orientation="portrait"/>
</fig>
</p>
</sec>
<sec sec-type="methods">
<title>
<bold>METODOLOGÍA</bold>
</title>
<p>En
la <xref ref-type="fig" rid="gf2">figura 2</xref> se muestra un flujograma de la metodología realizada en este trabajo para
la delimitación de ceniza volcánica mediante Deep Learning. Seguidamente, cada una
de las etapas son descritas de manera detallada.</p>
<p>
<fig id="gf2">
<label>Figura 2</label>
<caption>
<title>Metodología de trabajo</title>
</caption>
<alt-text>Figura 2 Metodología de trabajo</alt-text>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18594" position="anchor" orientation="portrait"/>
</fig>
</p>
<sec>
<title>
<bold>Dataset</bold>
</title>
<p> Las imágenes fueron obtenidas de forma gratuita de la página web CIMSS (Space Science and Engineering Center of University of Wisconsin-Madison) Satellite Blog, descargando archivos GIF de emisiones de ceniza de volcanes activos que tengan el filtro Ash proporcionados por el satélite GOES (<xref ref-type="fig" rid="gf3">Fig. 3</xref>); los cuales tienen como propiedades un ancho de 100 píxeles, alto de 821 píxeles y profundidad de 8 bits.</p>
<p> Los archivos GIF se cargaron al programa en línea Online-convert, para posteriormente elegir la opción convertir GIF a JPG; en la que se puede subir el archivo, mantener su calidad o modificarla; además de proporcionar opciones de coloración, monocromático, negativo, recortar píxeles, umbral de color, etc. Para este caso se utilizó la opción dada por defecto, usando calidad alta de 300x200 píxeles y ajustes de calidad bastante buena, obteniendo un total de 606 imágenes.</p>
<p> Para la denominación de las imágenes, se mantuvo el nombre por defecto de la descarga desde las páginas web del Instituto Cooperativo de Estudios de Satélites Meteorológicos (CIMSS), del Instituto Cooperativo de Investigación en la Atmósfera (CIRA) y de la Administración Nacional Oceánica y Atmosférica (NOOA), estandarizándolas según el volcán, satélite y numeración, por ejemplo (Novarupta_Goes17_091).</p>
<p>
<fig id="gf3">
<label>Figura 3</label>
<caption>
<title>Imagen satelital GOES-16 aplicado el filtro Ash
del volcán Popocatépetl.</title>
</caption>
<alt-text>Figura 3 Imagen satelital GOES-16 aplicado el filtro Ash
del volcán Popocatépetl.</alt-text>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18597" position="anchor" orientation="portrait"/>
</fig>
</p>
</sec>
<sec sec-type="methods">
<title>
<bold>Pre-Procesamiento</bold>
</title>
<p> No es suficiente con la adquisición del dataset, sino que también es necesario procesarlo; se deben tener dos grupos de imágenes, el primer grupo correspondiente a las imágenes satelitales adquiridas y el segundo con las imágenes segmentadas, mostrando de color negro la zona o el área de la imagen satelital donde se evidencia ceniza, y en color blanco el resto de área de la imagen donde no exista ceniza, como se muestra en la <xref ref-type="fig" rid="gf4">figura 4</xref>.</p>
<p>
<fig id="gf4">
<label>Figura 4</label>
<caption>
<p> La imagen de la izquierda corresponde al dataset original, en donde
la ceniza se encuentra de color rojo y rosado. La imagen de la derecha corresponde
a la imagen segmentada, en donde únicamente se marca la ceniza con tonalidad negra.</p>
</caption>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18595" position="anchor" orientation="portrait"/>
</fig>
</p>
<p> Al ser un caso de estudio de segmentación supervisada, las imágenes del dataset, deben ser preprocesadas para poder ser utilizadas en el modelo de red neuronal, ya sea en el mismo entorno de programación con librerías de Python o mediante un programa externo. Para el tratamiento de las imágenes hemos elegido la segunda opción con el software Photoshop CS6 pues cuenta con herramientas para trabajar en lotes de imágenes modificando parámetros como la saturación, tono, brillo, intensidad, contraste, etc. Mediante la especificación del valor de un umbral, el área de las imágenes donde existe ceniza toma el color negro y el resto de la imagen se torna blanca; además, se modificó el tamaño de las imágenes a 300 por 200 píxeles.</p>
<p> Una vez modificadas las imágenes, se crearon dos carpetas, la primera llamada <italic>Ceniza_images</italic> que contiene las imágenes redimensionadas en formato JPG con sistema de color RGB y la segunda carpeta nombrada <italic>Ceniza_masks</italic>, que contiene las imágenes, con el mismo nombre, en formato JPG de la carpeta <italic>Ceniza_images</italic>, pero con sistema de color B&amp;N.</p>
<p> La importación de las librerías NumPy y cv2 de Python permite convertir las imágenes en arrays de datos numéricos que son normalizados en un rango definido (<xref ref-type="bibr" rid="redalyc_6242851006_ref14">SciPy, 2021</xref>), y posteriormente, redimensionar las imágenes a 32 píxeles x 32 píxeles, brindando mayor facilidad y rapidez durante el proceso del entrenamiento. </p>
<p> Al tratarse de un aprendizaje supervisado, se debe alimentar y entrenar la red definiendo entradas (Ceniza_images) y sus respectivas salidas (Ceniza_masks) conocidas. A través de la función <italic>np.empty</italic>, se crea y devuelve una referencia a un array vacío (<xref ref-type="bibr" rid="redalyc_6242851006_ref13">Sánchez, 2020</xref>) con las dimensiones (32, 32, 3), incluyendo además el argumento <italic>dtype='float32'</italic>, el cual indica un bitsize de 32. Para comprobar el manejo adecuado de las imágenes, a través de la librería <italic>matplotlib </italic>se pueden visualizar las imágenes normalizadas y redimensionadas.</p>
</sec>
<sec sec-type="methods">
<title>
<bold>División del
Datase</bold>t</title>
<p>Para
la división del dataset se utilizó el comando:<italic> train_split()</italic>, de
la librería <italic>sklearn.model_selection</italic> especificando dos subconjuntos;
el primero de entrenamiento (train) que contiene el 80% de los datos y el segundo
de prueba (test) con el 20% de los datos restantes; la distribución de los datos
se puede ver en la <xref ref-type="table" rid="gt1">Tabla 1</xref>. El dataset completo tiene un formato de (606, 32, 32,
3), mientras que el conjunto de entrenamiento tiene un formato de (485, 32, 32,
3). El 80% del dataset equivale al conjunto de entrenamiento, con el cual se ajusta
los parámetros del modelo y el 20% es el conjunto de test, con los que se evalúa
el rendimiento del modelo entrenado (<xref ref-type="bibr" rid="redalyc_6242851006_ref1">Aguilar, et al., 2019</xref>).</p>
<p>
<table-wrap id="gt1">
<label>Tabla 1</label>
<caption>
<title>Número de imágenes y división del
Dataset</title>
</caption>
<alt-text>Tabla 1 Número de imágenes y división del
Dataset</alt-text>
<alternatives>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18603" position="anchor" orientation="portrait"/>
<table style="border-collapse:collapse" id="gt2-526564616c7963">
<tbody>
<tr style="height:4.7pt">
<td style="border-top:solid windowtext 1.0pt;border-left:none;border-bottom:   solid windowtext 1.0pt;border-right:none;padding:0cm 0cm 0cm 0cm;height:4.7pt;text-align:center;">
<bold>
  Variable
  </bold>
</td>
<td style="border-top:solid windowtext 1.0pt;border-left:none;border-bottom:   solid windowtext 1.0pt;border-right:none;padding:0cm 0cm 0cm 0cm;height:4.7pt;text-align:center;">
<bold>
  Número
  de</bold>
<bold>imágenes
  </bold>
</td>
<td style="border-top:solid windowtext 1.0pt;border-left:none;border-bottom:   solid windowtext 1.0pt;border-right:none;padding:0cm 0cm 0cm 0cm;height:4.7pt;text-align:center;">
<bold>Porcentaje
  </bold>
</td>
</tr>
<tr style="height:4.7pt">
<td style="border:none;padding:0cm 0cm 0cm 0cm;height:4.7pt">
  Tamaño
  del conjunto de datos
  </td>
<td style="border:none;padding:0cm 0cm 0cm 0cm;height:4.7pt;text-align:center;">
  606
  </td>
<td style="border:none;padding:0cm 0cm 0cm 0cm;height:4.7pt;text-align:center;">
  100
  %
  </td>
</tr>
<tr style="height:4.7pt">
<td style="padding:0cm 0cm 0cm 0cm;height:4.7pt">
  Datos
  para entrenamiento
  </td>
<td style="padding:0cm 0cm 0cm 0cm;height:4.7pt;text-align:center;">
  485
  </td>
<td style="padding:0cm 0cm 0cm 0cm;height:4.7pt;text-align:center;">
  80
  %
  </td>
</tr>
<tr style="height:2.85pt">
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 0cm 0cm 0cm;   height:2.85pt">
  Datos
  para prueba
  </td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 0cm 0cm 0cm;   height:2.85pt;text-align:center;">
  121
  </td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 0cm 0cm 0cm;   height:2.85pt;text-align:center;">
  20
  %
  </td>
</tr>
</tbody>
</table>
</alternatives>
</table-wrap>
</p>
</sec>
<sec sec-type="methods">
<title>
<bold>Creación del
Modelo</bold>
</title>
<p> El modelo es una adaptación del presentado por <xref ref-type="bibr" rid="redalyc_6242851006_ref12">Ronneberger et al. (2015)</xref>, el cual se diseñó para tareas de segmentación con fines biomédicos. Esta arquitectura se basa en una típica red neuronal convolucional (CNN) compuesta por un codificador (encoder) y un decodificador (decoder) (<xref ref-type="bibr" rid="redalyc_6242851006_ref8">Livne et al., 2019</xref>), configurando un patrón de contracción (encoder) para reducir la resolución de la imagen y un patrón expansivo simétrico (decoder) para el aumento de su resolución (<xref ref-type="bibr" rid="redalyc_6242851006_ref7">Li et al., 2019</xref>).</p>
<p> La imagen de entrada (input) tiene una dimensión de 32x32x3. El encoder (parte izquierda de la <xref ref-type="fig" rid="gf5">Fig. 5</xref>) está establecido de acuerdo con el número de filtros (8, 16, 32 y 64) aplicados por capa; así el encoder se compone por 5 capas convolucionales, con filtros de 3x3 que crean mapas de características que capturan patrones en la imagen, en la que el volumen de salida está determinado según el número de filtros. A cada capa le sigue una unidad lineal rectificada (ReLU) que anula los valores negativos y deja pasar a los positivos a la siguiente capa tal como entran (<xref ref-type="bibr" rid="redalyc_6242851006_ref17">Yasrab, 2018</xref>). La operación de MaxPooling de 2x2 realiza un muestreo descendente (downsampling), en donde, en cada contracción las dimensiones son reducidas a la mitad.</p>
<p>
<fig id="gf5">
<label>Figura 5</label>
<caption>
<title>Ilustración
de la arquitectura del modelo. A la izquierda el Encoder y a la derecha el
Decoder. Cada caja corresponde a un mapa de características multicanal.</title>
</caption>
<alt-text>Figura 5 Ilustración
de la arquitectura del modelo. A la izquierda el Encoder y a la derecha el
Decoder. Cada caja corresponde a un mapa de características multicanal.</alt-text>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18596" position="anchor" orientation="portrait"/>
</fig>
</p>
<p> El decodificador tiene como objetivo recuperar las dimensiones originales de las imágenes de entrada mediante un muestreo ascendente (upsampling) del mapa de características (Livne, et al., 2019). Así en el decoder (parte derecha de la Fig. 5) se incluyen 5 capas convolucionales transpuestas de 3x3, que reducen a la mitad el número de canales de características, continuando con la función de activación ReLU. La capa final es una convolución de 3x3, con una activación de tipo sigmoide usada para mapear cada vector de características (Ronneberger, et al., 2015). El resultado (output) es una imagen segmentada de dimensiones de 32x32x3.</p>
<p> Se debe considerar que la implementación de las capas del modelo fue importada mediante la instrucción <italic>from tensorflow.keras.models import Model</italic>, en donde cada capa fue añadida con el comando model.add.</p>
</sec>
</sec>
<sec sec-type="results">
<title>
<bold>RESULTADOS</bold>
</title>
<sec sec-type="results">
<title>
<bold> Entrenamiento
del Modelo</bold>
</title>
<p> El entrenamiento se realiza en <italic>Google Colaboratory</italic>, una plataforma on-line de hardware y software para aprendizaje automático de acceso gratuito que brinda 12 GB de RAM y 50 GB de almacenamiento en disco. Los códigos y comandos que se ejecuten mediante los notebooks de Colab usan GPU y TPU (graphics processing unit y tensor processing unit, respectivamente), que es un circuito integrado de aplicación específica y acelerador de Inteligencia Artificial, que no afecta el rendimiento de la computadora (<xref ref-type="bibr" rid="redalyc_6242851006_ref3">De la Fuente, 2019</xref>).</p>
<p> Para realizar el entrenamiento se utiliza el comando model.fit, estableciendo las iteraciones del conjunto de datos o épocas que se realizan para tener una mejor precisión del modelo, en este caso se establecieron 100 épocas, teniendo un tiempo de ejecución de 15 minutos aproximadamente. </p>
<p>Se estableció un verbose de 1, lo que nos permite observar una barra de proceso animada y ayuda a detectar el sobreajuste que ocurre si la precisión de entrenamiento ('<italic>acc</italic>') sigue mejorando mientras la precisión de validación ('<italic>val_acc'</italic>) empeora.</p>
</sec>
<sec sec-type="results">
<title>
<bold>Evaluación
del Modelo</bold>
</title>
<p> La mejor precisión del entrenamiento se obtuvo en la época 10 con un valor de 0.99 y un valor de pérdida de 0.16. Luego se produce un descenso del rendimiento, por lo que no había necesidad de efectuar más épocas.</p>
<p>
<fig id="gf6">
<label>Figura 6</label>
<caption>
<title>Gráfica de la pérdida del entrenamiento y validación del modelo</title>
</caption>
<alt-text>Figura 6 Gráfica de la pérdida del entrenamiento y validación del modelo</alt-text>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18598" position="anchor" orientation="portrait"/>
</fig>
</p>
<p>
<fig id="gf7">
<label>Figura 7</label>
<caption>
<title>Gráfica de la precisión del entrenamiento
y validación del modelo</title>
</caption>
<alt-text>Figura 7 Gráfica de la precisión del entrenamiento
y validación del modelo</alt-text>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18599" position="anchor" orientation="portrait"/>
</fig>
</p>
<p>Para visualizar el comportamiento del entrenamiento y validación del modelo se realizó el ploteo de los valores de pérdida y precisión del entrenamiento y de la validación (<xref ref-type="fig" rid="gf6">Fig. 6</xref> y <xref ref-type="fig" rid="gf7">7</xref>) a través del historial que se va almacenando durante el proceso y las instrucciones de <italic>plt.figure()</italic> y <italic>plt.show()</italic>.</p>
<p> Estas gráficas ayudan a entender el rendimiento del modelo, en el caso de la pérdida se observa que tiende a cero, mientras en la precisión se observa una fluctuación entre 0.7 y 1.0. Además, las gráficas demuestran que no existe overfitting en el entrenamiento y validación del modelo.</p>
<p> Para un mejor detalle de los resultados, se implementa la matriz de confusión, que es una tabla resumida utilizada para poder evaluar el rendimiento del modelo de clasificación. El número de predicciones correctas e incorrectas se resumen en la tabla con un conteo y se muestra gráficamente para cada clase (<xref ref-type="bibr" rid="redalyc_6242851006_ref15">Shin , 2020</xref>).</p>
<p> El verdadero positivo (cuadro amarillo) y el verdadero negativo (cuadro verde) son los resultados donde el modelo predice correctamente si existe ceniza o no existe ceniza en la imagen, mientras el falso positivo y falso negativo (cuadros morados) son los resultados donde el modelo predice incorrectamente, obteniendo ceniza donde no existe o al revés, ésto se le conoce como error tipo 1 y 2. En el caso de nuestro modelo, se obtiene los mayores valores en el cuadro amarillo y cuadro verde y los menores valores en los cuadros morados, lo que indica que el modelo predice correctamente la ceniza volcánica en las imágenes satelitales.</p>
<p>
<fig id="gf8">
<label>Figura 8</label>
<caption>
<title>Matriz de confusión del modelo</title>
</caption>
<alt-text>Figura 8 Matriz de confusión del modelo</alt-text>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18600" position="anchor" orientation="portrait"/>
</fig>
</p>
<p>En
la <xref ref-type="fig" rid="gf8">figura 8</xref> se observa la matriz de confusión, la cual indica una precisión de 88%,
que se obtiene de la suma del valor del cuadro amarillo (verdadero positivo) y el
valor del cuadro verde (verdadero negativo) dividido para la suma de los valores
de todos los cuadros. La fracción de verdaderos positivos (sensibilidad) del modelo,
obtenido mediante el verdadero positivo (cuadro amarillo) y falso negativo (cuadro
morado), es del 85.7%, siendo capaz de detectar correctamente la ceniza.</p>
</sec>
<sec sec-type="results">
<title>
<bold>Segmentación de Imágenes de Validación</bold>
</title>
<p>Para
la validación del modelo se realizó con el 20% de la base de datos, que corresponde
a 121 imágenes cargadas en el <italic>inputs_test</italic>.</p>
<p>En la <xref ref-type="fig" rid="gf9">figura 9</xref>, en la imagen
de la derecha, se observa la imagen predicha para ceniza y concuerda con la zona
establecida de ceniza en el output. Esto tiene relación con la pérdida de validación
(<italic>val_loss</italic>)
que tiene un valor de 0.16 y con el valor de precisión de validación (<italic>val_acc</italic>)
de 0.98, lo que indica un comportamiento adecuado del modelo.</p>
<p>
<fig id="gf9">
<label>Figura 9</label>
<caption>
<p> Izquierda: imagen segmentada del output. Derecha: imagen de validación segmentada.
Los píxeles de color morado y verde indican la existencia de ceniza, los píxeles
en amarillo no presentan ceniza</p>
</caption>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18601" position="anchor" orientation="portrait"/>
</fig>
</p>
</sec>
</sec>
<sec sec-type="discussion">
<title>
<bold>DISCUSIÓN</bold>
</title>
<p> Las gráficas de precisión y pérdida (<xref ref-type="fig" rid="gf6">Fig. 6</xref> y <xref ref-type="fig" rid="gf7">7</xref>) evidencian que se alcanzó la mejor precisión en la época 10 con un valor de 0.99 y con una pérdida de 0.16. Por su parte, la matriz de confusión (<xref ref-type="fig" rid="gf8">Fig. 8</xref>) indica que la precisión del modelo es del 88% y su sensibilidad 85.7%, mostrando que los resultados son los esperados y el modelo tiene un buen entrenamiento y validación.</p>
<p> Por ende, se estima que el modelo tendrá un buen reconocimiento en una nueva imagen ya que el aprendizaje fue óptimo con respecto al dataset inicial y tampoco tendrá un desajuste debido a que se ha trabajado con una extensa base de imágenes, la cual se puede aumentar para seguir mejorando la precisión final, pero teniendo en cuenta las especificaciones que se pide para las imágenes satelitales. El modelo realizado puede ser implementado para la segmentación de ceniza volcánica ya que se considera como un modelo válido que aún se puede mejorar.</p>
<sec sec-type="discussion">
<title>
<bold>Predicción</bold>
</title>
<p>Para
la predicción del modelo mediante el comando <italic>model.predict()</italic>, se
utilizaron imágenes satelitales con filtro Ash del Volcán Sangay, obtenidas del
satélite GOES-16, estas imágenes no han sido utilizadas en el entrenamiento o en
la validación. En la <xref ref-type="fig" rid="gf10">figura 10</xref> se observa la imagen de entrada y la imagen segmentada,
la cual muestra similitud en la segmentación de ceniza que se encuentra en la parte
superior central de la imagen. Sin embargo, la delimitación no es exacta, ya que
no se segmenta todo el contorno de ceniza, pero es considerada aceptable debido
a su precisión.</p>
<p>
<fig id="gf10">
<label>Figura 10</label>
<caption>
<p>Imagen izquierda es una imagen satelital del Volcán Sangay obtenida del satélite
GOES-16 el 9 de marzo de 2021 (<xref ref-type="bibr" rid="redalyc_6242851006_ref6">IG-EPN, 2021</xref>), para la predicción
del modelo. Imagen derecha es una imagen segmentada que delimita el contorno de
la ceniza del Volcán Sangay.</p>
</caption>
<graphic xlink:href="https://revistadigital.uce.edu.ec/index.php/RevFIG/article/download/3121/4438/18602" position="anchor" orientation="portrait"/>
</fig>
</p>
<p> De esta manera la segmentación de ceniza en imágenes satelitales podría convertirse en un modelo inicial para la caracterización de su dispersión, y con ello llegar a la interpretación de la posible interacción medio ambiente-ser vivo. Con lo que el modelo proporcionaría un soporte técnico para la toma de decisiones que brindarían medidas ante un potencial riesgo volcánico. </p>
<p> Se debe tener en cuenta que, al tratarse de un modelo inicial válido, para una mayor confiabilidad, la elaboración de un modelo necesitaría considerar factores como dirección y velocidad del viento, condiciones climáticas, entre otras; sin embargo, con lo obtenido en este estudio se podrían llegar a estimaciones de superficie de la ceniza esparcida, dirección preferencial de dispersión, velocidad de dispersión y localización de posibles áreas afectadas.</p>
</sec>
</sec>
<sec sec-type="conclusions">
<title>
<bold>CONCLUSIONES</bold>
</title>
<p> Hemos implementado un modelo para la segmentación de ceniza de imágenes satelitales, aplicando Deep Learning, a través la plataforma Google Colaboratory en lenguaje Python; obteniendo así, para el caso de estudio, la predicción de la segmentación de ceniza en imágenes satelitales de emanaciones del Volcán Sangay.</p>
<p> La elaboración del dataset, con el cual se entrenó al modelo, tiene un total de 606 imágenes en formato JPG. El dataset obtenido de las páginas web del Instituto Cooperativo de Estudios de Satélites Meteorológicos (CIMSS) perteneciente al Centro de Ingeniería y Ciencias Espaciales (SEEC), del Instituto Cooperativo de Investigación en la Atmósfera (CIRA) y de la Administración Nacional Oceánica y Atmosférica (NOOA), resulta una base de información confiable y extensa. </p>
<p> El modelo diseñado e implementado fue basado en una red neuronal convolucional típica, compuesta por capas convolucionales que configuran un codificador y un decodificador; de esta manera se produjo un rendimiento aceptable para la predicción en la delimitación de ceniza volcánica en imágenes satelitales, teniendo que el valor de pérdida es igual a 0.01, el valor de precisión más alto que se obtuvo es de 0.99 y la matriz de confusión muestra una evaluación positiva.</p>
<p> Con el modelo se pudo realizar la segmentación de ceniza proveniente del Volcán Sangay en imágenes satelitales con filtro Ash, como se muestra en los resultados, en donde se segmenta la ceniza del volcán, capturada en una imagen satelital del GOES-16 obtenida el 9 de marzo del 2021.</p>
<sec>
<title>
<bold>RECOMENDACIONES</bold>
</title>
<p> Realizar un pre-procesamiento adecuado y riguroso para obtener imágenes que puedan ser procesadas con el modelo, utilizando programas de edición, en donde sea posible manipular la saturación, tono, brillo, intensidad, contraste y umbral de las éstas. </p>
<p> El presente modelo está entrenado con imágenes satelitales con el filtro Ash, por lo que, para futuras predicciones, se deberán considerar imágenes con un filtro o tipo de variación contrastante para obtener un resultado óptimo. </p>
<p> Se debe tener un conocimiento básico de programación para manipular el código, sugiriendo continuar con el tratamiento de imágenes relacionadas a ciencias geológicas o ramas afines, para permitir una mayor facilidad en su análisis.</p>
</sec>
</sec>
</body>
<back>
<ref-list>
<title>Referencias</title>
<ref id="redalyc_6242851006_ref1">
<mixed-citation>Aguilar, R., 		Torres, J., &amp; 		Martín, C.
(2019).
Aprendizaje Automático en la Identificación de Sistemas. Un Caso de 
Estudio en la Predicción de la Generación Eléctrica de un Parque Eólico.
<italic>Revista Iberoamericana de Automática e Informática industrial</italic>, 16(1), 114-127. https://doi.org/10.4995/riai.2018.9421</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Aguilar</surname>
<given-names>R</given-names>
</name>
<name>
<surname>Torres</surname>
<given-names>J</given-names>
</name>
<name>
<surname>Martín</surname>
<given-names>C</given-names>
</name>
</person-group>
<article-title>Aprendizaje Automático en la Identificación
de Sistemas. Un Caso de Estudio en la Predicción de la Generación Eléctrica de un
Parque Eólico</article-title>
<source>Revista Iberoamericana de Automática e Informática Industrial</source>
<year>2019</year>
<volume>16</volume>
<issue>1</issue>
<fpage>114</fpage>
<lpage>127</lpage>
<pub-id pub-id-type="doi">10.4995/riai.2018.9421</pub-id>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref2">
<mixed-citation>Caldas, S., 2017. <italic>Exploración de machine learning como técnica de segmentación pulmonar en presencia de opacidades de gran tamaño</italic>. Proyecto de Grado. Bogotá: Universidad de los Andes.</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Caldas</surname>
<given-names>S</given-names>
</name>
</person-group>
<source>Exploración de machine learning como técnica de segmentación pulmonar en presencia de opacidades de gran tamaño</source>
<year>2017</year>
<publisher-loc>Bogotá</publisher-loc>
<publisher-name>Universidad de los Andes</publisher-name>
<comment content-type="degree"> Proyecto
de Grado</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref18">
<mixed-citation>CIMSS. 2021.
<italic>Cooperative Institute for Meteorological Satellite Studies</italic>. <ext-link ext-link-type="uri" xlink:href="https://cimss.ssec.wisc.edu/">https://cimss.ssec.wisc.edu/</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>CIMSS</collab>
</person-group>
<source>Cooperative Institute for Meteorological Satellite Studies</source>
<year>2021</year>
<comment>https://cimss.ssec.wisc.edu/</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref19">
<mixed-citation>CIRA, 2021.<italic> Cooperative
Institute for Research in the Atmosphere</italic> . <ext-link ext-link-type="uri" xlink:href="https://www.cira.colostate.edu/">https://www.cira.colostate.edu/</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>CIRA</collab>
</person-group>
<source>Cooperative Institute for Research in the Atmosphere </source>
<year>2021</year>
<comment>https://www.cira.colostate.edu/</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref3">
<mixed-citation>De la Fuente, O., 2019. <italic>Google Colab: Python y Machine Learning en la nube</italic>. Available at: <ext-link ext-link-type="uri" xlink:href="https://www.adictosaltrabajo.com/2019/06/04/google-colab-python-y-machine-learning-en-la-nube">https://www.adictosaltrabajo.com/2019/06/04/google-colab-python-y-machine-learning-en-la-nube</ext-link>/ [Último acceso: 15 Marzo 2021].</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<name>
<surname>De la Fuente</surname>
<given-names>O</given-names>
</name>
</person-group>
<source>Google Colab: Python y Machine Learning en la nube</source>
<year>2019</year>
<date-in-citation content-type="access-date" iso-8601-date="2021/03/15">2021/03/15</date-in-citation>
<comment>https://www.adictosaltrabajo.com/2019/06/04/google-colab-python-y-machine-learning-en-la-nube/</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref4">
<mixed-citation>GICVE, 2020. <italic>Ceniza Volcánica en Ecuador</italic>. Available at: <ext-link ext-link-type="uri" xlink:href="https://www.usfq.edu.ec/es/investigacion/grupo-de-investigacion-sobre-la-ceniza-volcanica-en-el-ecuador-gicve">https://www.usfq.edu.ec/es/investigacion/grupo-de-investigacion-sobre-la-ceniza-volcanica-en-el-ecuador-gicve</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>GICVE</collab>
</person-group>
<source>Ceniza Volcánica en Ecuador</source>
<year>2020</year>
<comment> https://www.usfq.edu.ec/es/investigacion/grupo-de-investigacion-sobre-la-ceniza-volcanica-en-el-ecuador-gicve</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref5">
<mixed-citation>IG-EPN, 2021.<italic> IGAl Instante Informativo VOLCÁN SANGAY Nº 2021-034</italic>. Quito: Escuela Politécnica Nacional.</mixed-citation>
<element-citation publication-type="report">
<person-group person-group-type="author">
<collab>IG-EPN</collab>
</person-group>
<source>IGAl Instante Informativo VOLCÁN SANGAY Nº 2021-034</source>
<year>2021</year>
<publisher-loc>Quito</publisher-loc>
<publisher-name>Escuela Politécnica Nacional.</publisher-name>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref6">
<mixed-citation>IG-EPN, 2021. Sangay. Available at: <ext-link ext-link-type="uri" xlink:href="https://www.igepn.edu.ec/sangay">https://www.igepn.edu.ec/sangay</ext-link>. [Último acceso: 20 Marzo 2021].</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>IG-EPN</collab>
</person-group>
<source>Sangay</source>
<year>2021</year>
<date-in-citation content-type="access-date" iso-8601-date="2021/03/20">2021/03/20</date-in-citation>
<comment> https://www.igepn.edu.ec/sangay</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref7">
<mixed-citation>Li, S., Yang, C., Sun, H. &amp; Zhang, H., 2019. Seismic fault detection using an encoder–decoder convolutional neural network with a small training set. <italic>Journal of Geophysics and Engineering</italic>, 16(1), pp. 175–189. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1093/jge/gxy015">https://doi.org/10.1093/jge/gxy015</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Li</surname>
<given-names>S</given-names>
</name>
<name>
<surname>Yang</surname>
<given-names>C</given-names>
</name>
<name>
<surname>Sun</surname>
<given-names>H</given-names>
</name>
<name>
<surname>Zhang</surname>
<given-names>H</given-names>
</name>
</person-group>
<article-title>Seismic fault detection using an encoder–decoder convolutional neural network
with a small training set</article-title>
<source>Journal of Geophysics and Engineering</source>
<year>2019</year>
<volume>16</volume>
<issue>1</issue>
<fpage>175</fpage>
<lpage>189</lpage>
<pub-id pub-id-type="doi">10.1093/jge/gxy015</pub-id>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref8">
<mixed-citation>Livne, M., Rieger, J., Aydin, O.U., Taha, A.A., Akay, E.M., Kossen, T., Sobesky, J., Kelleher, J.D., Hildebrand, K., Frey, D. and Madai, V.I. 2019. A U-Net Deep Learning Framework for High Performance Vessel Segmentation in Patients With Cerebrovascular Disease.<italic> Frontiers in Neuroscience</italic>. 13:97. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3389/fnins.2019.00097">https://doi.org/10.3389/fnins.2019.00097</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Livne</surname>
<given-names>M</given-names>
</name>
<name>
<surname>Rieger</surname>
<given-names>J</given-names>
</name>
<name>
<surname>Aydin</surname>
<given-names>O.U</given-names>
</name>
<name>
<surname>Taha</surname>
<given-names>A.A</given-names>
</name>
<name>
<surname>Akay</surname>
<given-names>E.M</given-names>
</name>
<name>
<surname>Kossen</surname>
<given-names>T</given-names>
</name>
<name>
<surname>Sobesky</surname>
<given-names>J</given-names>
</name>
<name>
<surname>Kelleher</surname>
<given-names>J.D</given-names>
</name>
<name>
<surname>Hildebrand</surname>
<given-names>K</given-names>
</name>
<name>
<surname>Frey</surname>
<given-names>D</given-names>
</name>
<name>
<surname>Madai</surname>
<given-names>V.I</given-names>
</name>
</person-group>
<article-title>A U-Net Deep Learning Framework for High Performance
Vessel Segmentation in Patients With Cerebrovascular Disease</article-title>
<source>Frontiers in Neuroscience</source>
<year>2019</year>
<volume>13</volume>
<pub-id pub-id-type="doi">10.3389/fnins.2019.00097</pub-id>
<issue-part>97</issue-part>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref20">
<mixed-citation>NOOA. 2021. <italic>National Oceanic and Atmospheric
Administration</italic>. <ext-link ext-link-type="uri" xlink:href="https://www.noaa.gov/">https://www.noaa.gov/</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>NOOA</collab>
</person-group>
<source>National Oceanic and Atmospheric Administration</source>
<year>2021</year>
<comment>https://www.noaa.gov/</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref9">
<mixed-citation>OPS, 2021. <italic>Los impactos a la salud asociados con las cenizas de los volcanes</italic>. Available at: <ext-link ext-link-type="uri" xlink:href="https://www.paho.org/hq/index.php?option=com_content&amp;view=article&amp;id=8194:2013-los-impactos-salud-asociados-cenizas-volcanes&amp;Itemid=39797">https://www.paho.org/hq/index.php?option=com_content&amp;view=article&amp;id=8194:2013-los-impactos-salud-asociados-cenizas-volcanes&amp;Itemid=39797</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>OPS</collab>
</person-group>
<source>Los impactos a la salud asociados con las cenizas de los volcanes</source>
<year>2021</year>
<comment>https://www.paho.org/hq/index.php?option=com_content&amp;view=article&amp;id=8194:2013-los-impactos-salud-asociados-cenizas-volcanes&amp;Itemid=39797</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref10">
<mixed-citation>Porcelli, A.M. 2020. Artificial Intelligence and Robotics: Its social, ethical and legal dilemmas. <italic>Derecho global. Estudios sobre derecho y justicia</italic>, 6(16), 49-105. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.32870/dgedj.v6i16.286">https://doi.org/10.32870/dgedj.v6i16.286</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Porcelli</surname>
<given-names>A.M</given-names>
</name>
</person-group>
<article-title>Artificial
Intelligence and Robotics: Its social, ethical and legal dilemmas</article-title>
<source>Derecho global. Estudios sobre derecho y justicia</source>
<year>2020</year>
<volume>6</volume>
<issue>16</issue>
<fpage>49</fpage>
<lpage>105</lpage>
<pub-id pub-id-type="doi">10.32870/dgedj.v6i16.286</pub-id>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref11">
<mixed-citation>Reyes Ortiz, O. J., Mejía, M., &amp; Useche Castelblanco, J. S. 2019. 
Técnicas de inteligencia artificial utilizadas en el procesamiento de 
imágenes y su aplicación en el análisis de pavimentos.<italic> Revista EIA</italic>, 16(31), 189–207. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.24050/reia.v16i31.1215">https://doi.org/10.24050/reia.v16i31.1215</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Reyes Ortiz</surname>
<given-names>O.J</given-names>
</name>
<name>
<surname>Mejía</surname>
<given-names>M</given-names>
</name>
<name>
<surname>Useche Castelblanco</surname>
<given-names>J.S</given-names>
</name>
</person-group>
<article-title>Técnicas de inteligencia artificial utilizadas en el procesamiento de imágenes y su aplicación en el análisis de pavimentos</article-title>
<source>Revista EIA</source>
<year>2019</year>
<volume>16</volume>
<issue>31</issue>
<fpage>189</fpage>
<lpage>207</lpage>
<pub-id pub-id-type="doi">10.24050/reia.v16i31.1215</pub-id>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref12">
<mixed-citation>Ronneberger, O., Fischer, P. &amp; Brox, T., 2015. U-Net: Convolutional Networks for Biomedical Image Segmentation.<italic> Springer International Publishing Switzerland</italic>, pp. 234-241. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/978-3-319-24574-4_28">https://doi.org/10.1007/978-3-319-24574-4_28</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Ronneberger</surname>
<given-names>O</given-names>
</name>
<name>
<surname>Fischer</surname>
<given-names>P</given-names>
</name>
<name>
<surname>Brox</surname>
<given-names>T</given-names>
</name>
</person-group>
<article-title>U-Net:
Convolutional Networks for Biomedical Image Segmentation</article-title>
<source>Springer International Publishing Switzerland</source>
<year>2015</year>
<fpage>234</fpage>
<lpage>241</lpage>
<pub-id pub-id-type="doi">10.1007/978-3-319-24574-4_28</pub-id>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref13">
<mixed-citation>Sánchez, A., 2020. <italic>Aprende con Alf</italic>. Available at: <ext-link ext-link-type="uri" xlink:href="https://aprendeconalf.es/docencia/python/manual/numpy/">https://aprendeconalf.es/docencia/python/manual/numpy/</ext-link> [Último acceso: 22 Marzo 2021].</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<name>
<surname>Sánchez</surname>
<given-names>A</given-names>
</name>
</person-group>
<source>Aprende con Alf</source>
<year>2020</year>
<date-in-citation content-type="access-date" iso-8601-date="2021/03/21">2021/03/21</date-in-citation>
<comment>https://aprendeconalf.es/docencia/python/manual/numpy/</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref14">
<mixed-citation>SciPy, 2021. <italic>Numpy</italic>. Available at: <ext-link ext-link-type="uri" xlink:href="https://numpy.org/doc/stable/user/index.html">https://numpy.org/doc/stable/user/index.html</ext-link> [Último acceso: 22 Marzo 2021].</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<collab>SciPy</collab>
</person-group>
<source>Numpy</source>
<year>2021</year>
<date-in-citation content-type="access-date" iso-8601-date="2021/03/21">2021/03/21</date-in-citation>
<comment> https://numpy.org/doc/stable/user/index.html</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref15">
<mixed-citation>Shin , T., 2020. <italic>Comprensión de la Matriz de Confusión y Cómo Implementarla en Python</italic>. <ext-link ext-link-type="uri" xlink:href="https://towardsdatascience.com/understanding-the-confusion-matrix-and-how-to-implement-it-in-python-319202e0fe4d">https://towardsdatascience.com/understanding-the-confusion-matrix-and-how-to-implement-it-in-python-319202e0fe4d</ext-link>  [Último acceso: 21 Marzo 2021].</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<name>
<surname>Shin</surname>
<given-names>T</given-names>
</name>
</person-group>
<source>Comprensión de la Matriz de Confusión y Cómo Implementarla en Python</source>
<year>2020</year>
<date-in-citation content-type="access-date" iso-8601-date="2021/03/21">2021/03/21</date-in-citation>
<comment>https://towardsdatascience.com/understanding-the-confusion-matrix-and-how-to-implement-it-in-python-319202e0fe4d</comment>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref16">
<mixed-citation>Silva, A., 2020. <italic>Estudio comparativo de modelos de clasificación automática de señales de tráfico</italic>. Universidad Pública de Navarra-España., pp. 7-14.</mixed-citation>
<element-citation publication-type="report">
<person-group person-group-type="author">
<name>
<surname>Silva</surname>
<given-names>A</given-names>
</name>
</person-group>
<source>Estudio comparativo de modelos de clasificación automática de señales de tráfico</source>
<year>2020</year>
<fpage>7</fpage>
<lpage>14</lpage>
<publisher-loc>España</publisher-loc>
<publisher-name>Universidad Pública de Navarra</publisher-name>
</element-citation>
</ref>
<ref id="redalyc_6242851006_ref17">
<mixed-citation>Yasrab, R., 2018. ECRU: An Encoder-Decoder Based Convolution Neural Network (CNN) for Road-Scene Understanding. Journal of Imaging, 4(10), 116; <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3390/jimaging4100116">https://doi.org/10.3390/jimaging4100116</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Yasrab</surname>
<given-names>R</given-names>
</name>
</person-group>
<article-title> ECRU: An Encoder-Decoder Based Convolution
Neural Network (CNN) for Road-Scene Understanding</article-title>
<source>Journal of Imaging</source>
<year>2018</year>
<volume>4</volume>
<issue>10</issue>
<pub-id pub-id-type="doi">10.3390/jimaging4100116</pub-id>
<issue-part>116</issue-part>
</element-citation>
</ref>
</ref-list>
</back>
</article>
