Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral

dc.contributor.advisorCoronado Sánchez, Paulo César
dc.contributor.authorVillamil Garro, Kelly Jhoana
dc.contributor.authorQuijano Malagón, Karen Lizeth
dc.contributor.orcidVillamil Garro, Kelly Jhoana [0009-0002-4481-6207]
dc.contributor.orcidQuijano Malagón, Karen Lizeth [0009-0001-0998-5788]
dc.contributor.orcidCoronado Sánchez, Paulo César [0000-0003-2980-2376]
dc.date.accessioned2025-03-27T17:14:54Z
dc.date.available2025-03-27T17:14:54Z
dc.date.created2025-02-13
dc.descriptionEl proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que la optimización se enfoca en la elección de la arquitectura y el ajuste de los parámetros del modelo y finalmente el análisis de resultados involucra el cálculo de métricas para la evaluación del modelo, donde en el caso de una evaluación no óptima, se debe realizar un proceso iterativo de optimización para alcanzar los umbrales de desempeño. En el estudio, se plantea el uso de modelos pre entrenados para la extracción de linderos prediales físicos visibles en suelo rural de Cundinamarca, para lo cual se escogieron como insumos 2 ortoimágenes correspondientes a los municipios de Tabio y Subachoque que tienen un Ground Sample Distance inferior a 50 centímetros, en el caso de Tabio se utilizaron como elementos de la clase linderos las vías, drenajes, muros y cercas presentes en la cartografía básica oficial del municipio y para Subachoque se realizó la digitalización manual de estos elementos. Se realizaron 145 pruebas entre los modelos SegNet, Unet y ResNet con datasets de teselas de 3 tamaños distintos; 256x256, 512x512 y 2557x1887, así mismo, se variaron los parámetros de window size, stride, batch size y número de épocas, en búsqueda de la combinación óptima en términos de tiempo de ejecución y métricas de entrenamiento y de validación. Los valores obtenidos para las métricas de evaluación evidencian que la arquitectura UNET alcanza el mejor rendimiento, pues esta destacó en los valores de F1-Score e índice Kappa para ambos municipios, sin embargo, como en cualquier tarea automatizada, es necesario considerar los factores prácticos como requerimientos mínimos de la máquina y el tiempo de ejecución versus estos parámetros para la captura convencional de linderos. Finalmente, es evidente la importancia de la calidad del conjunto de datos para garantizar la precisión de los resultados, por lo cual, se sugiere la mejora tanto en la selección como en la depuración de los datos vectoriales y ráster de insumo.
dc.description.abstractThe training and validation process of machine learning models follows an iterative cycle composed of three main activities: input enlistment, model optimization, and results analysis. Enlistment includes data selection and preparation, while optimization focuses on the choice of architecture and the adjustment of model parameters, and finally, results analysis involves the calculation of metrics for model evaluation, where in the case of a non-optimal evaluation, an iterative optimization process must be performed to reach performance thresholds. In the study, the use of pre-trained models is proposed for the extraction of visible physical property boundaries in rural soil in Cundinamarca, for which 2 orthoimages corresponding to the municipalities of Tabio and Subachoque were chosen as inputs, which have a Ground Sample Distance less than 50 centimeters. In the case of Tabio, the roads, drains, walls and fences present in the official basic cartography of the municipality were used as elements of the boundary class, and for Subachoque, these elements were manually digitized. 145 tests were performed between the SegNet, Unet and ResNet models with tile datasets of 3 different sizes; 256x256, 512x512 and 2557x1887. Likewise, the window size, stride, batch size and number of epochs parameters were varied, in search of the optimal combination in terms of execution time and training and validation metrics. The values obtained for the evaluation metrics show that the UNET architecture achieves the best performance, as it stood out in the F1-Score and Kappa index values for both municipalities. However, as in any automated task, it is necessary to consider practical factors such as minimum machine requirements and execution time versus these parameters for the conventional capture of boundaries. Finally, the importance of the quality of the data set to guarantee the accuracy of the results is evident, therefore, improvement is suggested both in the selection and in the debugging of the input vector and raster data.
dc.format.mimetypepdf
dc.identifier.urihttp://hdl.handle.net/11349/94240
dc.language.isospa
dc.publisherUniversidad Distrital Francisco José de Caldas
dc.relation.referencesA. Kirillov, R. Girshick, K. He, and P. Dollár, “Panoptic feature Pyramid networks,” arXiv.org, Jan. 08, 2019. Available: https://arxiv.org/abs/1901.02446
dc.relation.referencesAltamirano L. (2021). Deep Learning aplicado a la segmentación semántica de Imágenes aéreas. Universidad de Valparaíso, Chile. http://repositoriobibliotecas.uv.cl/handle/uvscl/3958
dc.relation.referencesBarney G. Catastro multipropósito en el acuerdo de paz. Indepaz. 2022. https://indepaz.org.co/catastro-multiproposito-en-el-acuerdo-de-paz-por-gloria-c-barney/ [accedida 15 Enero 2024]
dc.relation.referencesBennett RM, Koeva M, Asiama K. Review of Remote Sensing for Land Administration: Origins, Debates, and Selected Cases. Remote Sensing. 2021; 13(21):4198. https://doi.org/10.3390/rs13214198
dc.relation.referencesBischke, B., Helber, P., Folz, J., Borth, D., & Dengel, A. (2017). Multi-task learning for segmentation of building footprints with auxiliary tasks. *arXiv preprint arXiv:1709.05932*.
dc.relation.referencesChen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. *IEEE Transactions on Pattern Analysis and Machine Intelligence*, 40(4), 834-848.
dc.relation.referencesChen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4), 834-848.
dc.relation.referencesChirag Patil, “Pytorch_image_segmentation.ipynb at main · chiragpatil-ml/YouTubeNotebook,” GitHub. Available: https://github.com/chiragpatil-ml/YouTubeNotebook/blob/main/Computer%20Vision/Train%20and%20test%20segmentation%20model/pytorch_image_segmentation.ipynb
dc.relation.referencesChristopher Thomas Bs. Hons. Miap, “Deep learning based super resolution, without using a GAN,” Medium, Dec. 19, 2024. Available: https://towardsdatascience.com/deep-learning-based-super-resolution-without-using-a-gan-11c9bb5b6cd5
dc.relation.referencesCívico Panduro, J.(2010). Estudio comparativo de algoritmos disponibles en ITK para la segmentación de imágenes médicas. Aplicación al caso particular de la aurícula izquierda. Proyecto Fin de Carrera Ingeniería Superior de Telecomunicación – Universidad de Sevilla. e-REdING. Biblioteca de la Escuela Superior de Ingenieros de Sevilla. (us.es)
dc.relation.referencesCrommelinck S., Koeva M., Ying M., Vosselman G. (2019). Aplication of Deep Learning for Delineaton of Visible Cadastral Boundaries from Remote Sensing Imagery. Remote Sensing. 11(21), 2505. https://doi.org/10.3390/rs11212505
dc.relation.referencesDepartamento Nacional de Planeación. (2019, 26 de marzo). Estrategia para la Implementación de la política pública de catastro multipropósito (Documento CONPES 3958). Bogotá D.C., Colombia: DNP.
dc.relation.referencesDepartamento Nacional De Planeación. (2022). Bases del Plan Nacional de Desarrollo 2022 - 2026 (1st ed., Vol. 1). Departamento Nacional De Planeación.
dc.relation.referencesDepartamento Nacional de Planeación. (2022, 24 de enero). Declaración de Importancia Estratégica del Proyecto de Inversión: Actualización y Gestión Catastral Nacional (Documento CONPES 4071). Bogotá D.C., Colombia: DNP.
dc.relation.referencesDepartamento Nacional de Planeación. (2023, septiembre 10). Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito. Noticias DNP. Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito
dc.relation.referencesE. Shelhamer, J. Long and T. Darrell, "Fully Convolutional Networks for Semantic Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 4, pp. 640-651, 1 April 2017. Available: https://ieeexplore.ieee.org/document/7478072
dc.relation.referencesEveringham, M., Van Gool, L., Williams, C. K., Winn, J., & Zisserman, A. (2015). The Pascal Visual Object Classes Challenge: A Retrospective. *International Journal of Computer Vision*, 111(1), 98-136.
dc.relation.referencesFetai, B., Grigillo, D., & Lisec, A. (2022). Revising Cadastral Data on Land Boundaries Using Deep Learning in Image-Based Mapping. ISPRS International Journal of Geo-Information, 11(5). https://doi.org/10.3390/ijgi11050298
dc.relation.referencesFetai, B., Račič, M., & Lisec, A. (2021). Deep learning for detection of visible land boundaries from uav imagery. Remote Sensing, 13(11). https://doi.org/10.3390/rs13112077
dc.relation.referencesFoody, G. M. (2002). Status of land cover classification accuracy assessment. *Remote Sensing of Environment*, 80(1), 185-201.
dc.relation.referencesG. Boesch, “Deep Residual Networks (RESNet, RESNET-50) – 2024 Guide,” viso.ai, Aug. 07, 2024. Available: https://viso-ai.translate.goog/deep-learning/resnet-residual-neural-network/?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc
dc.relation.referencesIGAC. (2023). Catalogo de objetos Geográficos para la Cartografía Básica de Colombia [Instituto Geográfico Agustín Codazzi]. 21 de abril de 2023
dc.relation.referencesKrizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems (pp. 1097-1105).
dc.relation.referencesLeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
dc.relation.referencesLi, H., Zhang, L., & Ma, W. (2021). Deep learning-based semantic segmentation for high-resolution remote sensing images: A review. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 4646-4663. https://doi.org/10.1109/JSTARS.2021.3083829
dc.relation.referencesLi, Y., Wang, Z., Yang, J., & Tian, Q. (2019).** Deep multigranular dynamic fusion network for remote sensing image scene classification. *IEEE Transactions on Neural Networks and Learning Systems*, 30(1), 162-174.
dc.relation.referencesLi, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A Survey of Convolutional Neural Networks: Analysis, Applications, and Prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999–7019. https://doi.org/10.1109/TNNLS.2021.3084827
dc.relation.referencesLong, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3431-3440).
dc.relation.referencesM. Huh, P. Agrawal, and A. A. Efros, “What makes imagenet good for transfer learning?” 2016.
dc.relation.referencesMaggiori, E., Tarabalka, Y., Charpiat, G., & Alliez, P. (2017). Convolutional Neural Networks for Large-Scale Remote-Sensing Image Classification. *IEEE Transactions on Geoscience and Remote Sensing*.
dc.relation.referencesMou, L., & Zhu, X. X. (2018). Im2height: Height estimation from single monocular imagery via fully residual convolutional-deconvolutional network. *arXiv preprint arXiv:1802.10249*.
dc.relation.referencesNyandwi E, Koeva M, Kohli D, Bennett R. Comparing Human Versus Machine-Driven Cadastral Boundary Feature Extraction. Remote Sensing. 2019; 11(14):1662. https://doi.org/10.3390/rs11141662
dc.relation.referencesO. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv.org, May 18, 2015. Available: https://arxiv.org/abs/1505.04597
dc.relation.referencesPavel Iakubovskii, “Segmentation Models  documentation.” Available: https://smp.readthedocs.io/en/latest/index.html
dc.relation.referencesPoder Legislativo, Colombia: Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera. Junio de 2016, 26 junio 2016, https://www.refworld.org/es/leg/multilateraltreaty/natlegbod/2016/es/127319 [accedida 15 January 2024]
dc.relation.referencesPonce, P. (2010). Inteligencia Artificial con Aplicaciones a la Ingeniería. Primera Edición. México DF: Alfaomega Grupo Editor, SA. ISBN: 978-607-7854-83-8.
dc.relation.referencesRamos, L. (2005). La modernización del Catastro Colombiano. Universidad de Los Andes. https://core.ac.uk/download/pdf/268121685.pdf
dc.relation.referencesResolución 1040 de 2023 [Instituto Geográfico Agustín Codazzi]. Por medio de la cual se expide la Resolución Única de la Gestión Catastral Multipropósito. 08 de agosto de 2023
dc.relation.referencesRomcon, I. (2022). Clasificación de imágenes espaciales mediante visión artificial. Universidad Politécnica de Madrid.
dc.relation.referencesRonneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. *arXiv preprint arXiv:1505.04597*.
dc.relation.referencesRonneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical Image Computing and Computer-Assisted Intervention (pp. 234-241).
dc.relation.referencesSherrah, J. (2016). Fully Convolutional Networks for Dense Semantic Labelling of High-Resolution Aerial Imagery. *arXiv preprint arXiv:1606.02585*.
dc.relation.referencesSimonyan, K., & Zisserman, A. (2015).** Very deep convolutional networks for large-scale image recognition. In *International Conference on Learning Representations (ICLR)*.
dc.relation.referencesSoto-Orozco, O. A., Corral-Sáenz, A. D., Rojo-González, C. E., & Ramírez-Quintana, J. A. (2019). Análisis del desempeño de redes neuronales profundas para segmentación semántica en hardware limitado. Recuperado de https://www.redalyc.org/journal/5122/512261374010/html/
dc.relation.referencesXia, X., Persello, C., & Koeva, M. (2019). Deep fully convolutional networks for cadastral boundary detection from UAV images. Remote Sensing, 11(14). https://doi.org/10.3390/rs11141725
dc.relation.referencesZapeta Hernández, A., Galindo Rosales, G. A., Juan Santiago, H. J., & Martínez Lee, M. (2022). Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales. Ciencia Latina Revista Científica Multidisciplinar, 6(5), 4624-4637. https://doi.org/10.37811/cl_rcm.v6i5.3420
dc.relation.referencesZhang, Y., Tang, Y., & Wang, L. (2018). CNN-Based High-Resolution Remote Sensing Image Segmentation Using High-Order Label Contextual Information. *IEEE Geoscience and Remote Sensing Letters*.
dc.relation.referencesZhu, X. X., Tuia, D., Mou, L., Xia, G. S., Zhang, L., Xu, F., & Fraundorfer, F. (2017). Deep learning in remote sensing: A comprehensive review and list of resources. IEEE Geoscience and Remote Sensing Magazine, 5(4), 8-36.
dc.rights.accesoAbierto (Texto Completo)
dc.rights.accessrightsOpenAccess
dc.subjectRedes neuronales convolucionales
dc.subjectAprendizaje profundo
dc.subjectLindero
dc.subjectCatastro
dc.subject.keywordConvolutional neural networks
dc.subject.keywordDeep learning
dc.subject.keywordBoundary
dc.subject.keywordCadastre
dc.subject.lembIngeniería Catastral y Geodesia -- Tesis y disertaciones académicas
dc.subject.lembRedes neuronales convolucionalesspa
dc.subject.lembExtracción automatizada de linderos predialesspa
dc.subject.lembCatastro -- Actualizaciónspa
dc.titleEvaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
dc.title.titleenglishEvaluation of convolutional neural networks for the extraction of property boundaries as a tool for cadastral updating
dc.typebachelorThesis
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.degreeMonografía
dc.type.driverinfo:eu-repo/semantics/bachelorThesis

Archivos

Bloque original

Mostrando 1 - 2 de 2
Cargando...
Miniatura
Nombre:
VillamilGarroKellyJhoana2025.pdf
Tamaño:
4.91 MB
Formato:
Adobe Portable Document Format
Descripción:
Trabajo de Grado
No hay miniatura disponible
Nombre:
Licencia de uso y publicación.pdf
Tamaño:
226.64 KB
Formato:
Adobe Portable Document Format

Bloque de licencias

Mostrando 1 - 1 de 1
No hay miniatura disponible
Nombre:
license.txt
Tamaño:
7 KB
Formato:
Item-specific license agreed upon to submission
Descripción: