Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
dc.contributor.advisor | Coronado Sánchez, Paulo César | |
dc.contributor.author | Villamil Garro, Kelly Jhoana | |
dc.contributor.author | Quijano Malagón, Karen Lizeth | |
dc.contributor.orcid | Villamil Garro, Kelly Jhoana [0009-0002-4481-6207] | |
dc.contributor.orcid | Quijano Malagón, Karen Lizeth [0009-0001-0998-5788] | |
dc.contributor.orcid | Coronado Sánchez, Paulo César [0000-0003-2980-2376] | |
dc.date.accessioned | 2025-03-27T17:14:54Z | |
dc.date.available | 2025-03-27T17:14:54Z | |
dc.date.created | 2025-02-13 | |
dc.description | El proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que la optimización se enfoca en la elección de la arquitectura y el ajuste de los parámetros del modelo y finalmente el análisis de resultados involucra el cálculo de métricas para la evaluación del modelo, donde en el caso de una evaluación no óptima, se debe realizar un proceso iterativo de optimización para alcanzar los umbrales de desempeño. En el estudio, se plantea el uso de modelos pre entrenados para la extracción de linderos prediales físicos visibles en suelo rural de Cundinamarca, para lo cual se escogieron como insumos 2 ortoimágenes correspondientes a los municipios de Tabio y Subachoque que tienen un Ground Sample Distance inferior a 50 centímetros, en el caso de Tabio se utilizaron como elementos de la clase linderos las vías, drenajes, muros y cercas presentes en la cartografía básica oficial del municipio y para Subachoque se realizó la digitalización manual de estos elementos. Se realizaron 145 pruebas entre los modelos SegNet, Unet y ResNet con datasets de teselas de 3 tamaños distintos; 256x256, 512x512 y 2557x1887, así mismo, se variaron los parámetros de window size, stride, batch size y número de épocas, en búsqueda de la combinación óptima en términos de tiempo de ejecución y métricas de entrenamiento y de validación. Los valores obtenidos para las métricas de evaluación evidencian que la arquitectura UNET alcanza el mejor rendimiento, pues esta destacó en los valores de F1-Score e índice Kappa para ambos municipios, sin embargo, como en cualquier tarea automatizada, es necesario considerar los factores prácticos como requerimientos mínimos de la máquina y el tiempo de ejecución versus estos parámetros para la captura convencional de linderos. Finalmente, es evidente la importancia de la calidad del conjunto de datos para garantizar la precisión de los resultados, por lo cual, se sugiere la mejora tanto en la selección como en la depuración de los datos vectoriales y ráster de insumo. | |
dc.description.abstract | The training and validation process of machine learning models follows an iterative cycle composed of three main activities: input enlistment, model optimization, and results analysis. Enlistment includes data selection and preparation, while optimization focuses on the choice of architecture and the adjustment of model parameters, and finally, results analysis involves the calculation of metrics for model evaluation, where in the case of a non-optimal evaluation, an iterative optimization process must be performed to reach performance thresholds. In the study, the use of pre-trained models is proposed for the extraction of visible physical property boundaries in rural soil in Cundinamarca, for which 2 orthoimages corresponding to the municipalities of Tabio and Subachoque were chosen as inputs, which have a Ground Sample Distance less than 50 centimeters. In the case of Tabio, the roads, drains, walls and fences present in the official basic cartography of the municipality were used as elements of the boundary class, and for Subachoque, these elements were manually digitized. 145 tests were performed between the SegNet, Unet and ResNet models with tile datasets of 3 different sizes; 256x256, 512x512 and 2557x1887. Likewise, the window size, stride, batch size and number of epochs parameters were varied, in search of the optimal combination in terms of execution time and training and validation metrics. The values obtained for the evaluation metrics show that the UNET architecture achieves the best performance, as it stood out in the F1-Score and Kappa index values for both municipalities. However, as in any automated task, it is necessary to consider practical factors such as minimum machine requirements and execution time versus these parameters for the conventional capture of boundaries. Finally, the importance of the quality of the data set to guarantee the accuracy of the results is evident, therefore, improvement is suggested both in the selection and in the debugging of the input vector and raster data. | |
dc.format.mimetype | ||
dc.identifier.uri | http://hdl.handle.net/11349/94240 | |
dc.language.iso | spa | |
dc.publisher | Universidad Distrital Francisco José de Caldas | |
dc.relation.references | A. Kirillov, R. Girshick, K. He, and P. Dollár, “Panoptic feature Pyramid networks,” arXiv.org, Jan. 08, 2019. Available: https://arxiv.org/abs/1901.02446 | |
dc.relation.references | Altamirano L. (2021). Deep Learning aplicado a la segmentación semántica de Imágenes aéreas. Universidad de Valparaíso, Chile. http://repositoriobibliotecas.uv.cl/handle/uvscl/3958 | |
dc.relation.references | Barney G. Catastro multipropósito en el acuerdo de paz. Indepaz. 2022. https://indepaz.org.co/catastro-multiproposito-en-el-acuerdo-de-paz-por-gloria-c-barney/ [accedida 15 Enero 2024] | |
dc.relation.references | Bennett RM, Koeva M, Asiama K. Review of Remote Sensing for Land Administration: Origins, Debates, and Selected Cases. Remote Sensing. 2021; 13(21):4198. https://doi.org/10.3390/rs13214198 | |
dc.relation.references | Bischke, B., Helber, P., Folz, J., Borth, D., & Dengel, A. (2017). Multi-task learning for segmentation of building footprints with auxiliary tasks. *arXiv preprint arXiv:1709.05932*. | |
dc.relation.references | Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. *IEEE Transactions on Pattern Analysis and Machine Intelligence*, 40(4), 834-848. | |
dc.relation.references | Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4), 834-848. | |
dc.relation.references | Chirag Patil, “Pytorch_image_segmentation.ipynb at main · chiragpatil-ml/YouTubeNotebook,” GitHub. Available: https://github.com/chiragpatil-ml/YouTubeNotebook/blob/main/Computer%20Vision/Train%20and%20test%20segmentation%20model/pytorch_image_segmentation.ipynb | |
dc.relation.references | Christopher Thomas Bs. Hons. Miap, “Deep learning based super resolution, without using a GAN,” Medium, Dec. 19, 2024. Available: https://towardsdatascience.com/deep-learning-based-super-resolution-without-using-a-gan-11c9bb5b6cd5 | |
dc.relation.references | Cívico Panduro, J.(2010). Estudio comparativo de algoritmos disponibles en ITK para la segmentación de imágenes médicas. Aplicación al caso particular de la aurícula izquierda. Proyecto Fin de Carrera Ingeniería Superior de Telecomunicación – Universidad de Sevilla. e-REdING. Biblioteca de la Escuela Superior de Ingenieros de Sevilla. (us.es) | |
dc.relation.references | Crommelinck S., Koeva M., Ying M., Vosselman G. (2019). Aplication of Deep Learning for Delineaton of Visible Cadastral Boundaries from Remote Sensing Imagery. Remote Sensing. 11(21), 2505. https://doi.org/10.3390/rs11212505 | |
dc.relation.references | Departamento Nacional de Planeación. (2019, 26 de marzo). Estrategia para la Implementación de la política pública de catastro multipropósito (Documento CONPES 3958). Bogotá D.C., Colombia: DNP. | |
dc.relation.references | Departamento Nacional De Planeación. (2022). Bases del Plan Nacional de Desarrollo 2022 - 2026 (1st ed., Vol. 1). Departamento Nacional De Planeación. | |
dc.relation.references | Departamento Nacional de Planeación. (2022, 24 de enero). Declaración de Importancia Estratégica del Proyecto de Inversión: Actualización y Gestión Catastral Nacional (Documento CONPES 4071). Bogotá D.C., Colombia: DNP. | |
dc.relation.references | Departamento Nacional de Planeación. (2023, septiembre 10). Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito. Noticias DNP. Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito | |
dc.relation.references | E. Shelhamer, J. Long and T. Darrell, "Fully Convolutional Networks for Semantic Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 4, pp. 640-651, 1 April 2017. Available: https://ieeexplore.ieee.org/document/7478072 | |
dc.relation.references | Everingham, M., Van Gool, L., Williams, C. K., Winn, J., & Zisserman, A. (2015). The Pascal Visual Object Classes Challenge: A Retrospective. *International Journal of Computer Vision*, 111(1), 98-136. | |
dc.relation.references | Fetai, B., Grigillo, D., & Lisec, A. (2022). Revising Cadastral Data on Land Boundaries Using Deep Learning in Image-Based Mapping. ISPRS International Journal of Geo-Information, 11(5). https://doi.org/10.3390/ijgi11050298 | |
dc.relation.references | Fetai, B., Račič, M., & Lisec, A. (2021). Deep learning for detection of visible land boundaries from uav imagery. Remote Sensing, 13(11). https://doi.org/10.3390/rs13112077 | |
dc.relation.references | Foody, G. M. (2002). Status of land cover classification accuracy assessment. *Remote Sensing of Environment*, 80(1), 185-201. | |
dc.relation.references | G. Boesch, “Deep Residual Networks (RESNet, RESNET-50) – 2024 Guide,” viso.ai, Aug. 07, 2024. Available: https://viso-ai.translate.goog/deep-learning/resnet-residual-neural-network/?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc | |
dc.relation.references | IGAC. (2023). Catalogo de objetos Geográficos para la Cartografía Básica de Colombia [Instituto Geográfico Agustín Codazzi]. 21 de abril de 2023 | |
dc.relation.references | Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems (pp. 1097-1105). | |
dc.relation.references | LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444. | |
dc.relation.references | Li, H., Zhang, L., & Ma, W. (2021). Deep learning-based semantic segmentation for high-resolution remote sensing images: A review. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 4646-4663. https://doi.org/10.1109/JSTARS.2021.3083829 | |
dc.relation.references | Li, Y., Wang, Z., Yang, J., & Tian, Q. (2019).** Deep multigranular dynamic fusion network for remote sensing image scene classification. *IEEE Transactions on Neural Networks and Learning Systems*, 30(1), 162-174. | |
dc.relation.references | Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A Survey of Convolutional Neural Networks: Analysis, Applications, and Prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999–7019. https://doi.org/10.1109/TNNLS.2021.3084827 | |
dc.relation.references | Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3431-3440). | |
dc.relation.references | M. Huh, P. Agrawal, and A. A. Efros, “What makes imagenet good for transfer learning?” 2016. | |
dc.relation.references | Maggiori, E., Tarabalka, Y., Charpiat, G., & Alliez, P. (2017). Convolutional Neural Networks for Large-Scale Remote-Sensing Image Classification. *IEEE Transactions on Geoscience and Remote Sensing*. | |
dc.relation.references | Mou, L., & Zhu, X. X. (2018). Im2height: Height estimation from single monocular imagery via fully residual convolutional-deconvolutional network. *arXiv preprint arXiv:1802.10249*. | |
dc.relation.references | Nyandwi E, Koeva M, Kohli D, Bennett R. Comparing Human Versus Machine-Driven Cadastral Boundary Feature Extraction. Remote Sensing. 2019; 11(14):1662. https://doi.org/10.3390/rs11141662 | |
dc.relation.references | O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv.org, May 18, 2015. Available: https://arxiv.org/abs/1505.04597 | |
dc.relation.references | Pavel Iakubovskii, “Segmentation Models documentation.” Available: https://smp.readthedocs.io/en/latest/index.html | |
dc.relation.references | Poder Legislativo, Colombia: Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera. Junio de 2016, 26 junio 2016, https://www.refworld.org/es/leg/multilateraltreaty/natlegbod/2016/es/127319 [accedida 15 January 2024] | |
dc.relation.references | Ponce, P. (2010). Inteligencia Artificial con Aplicaciones a la Ingeniería. Primera Edición. México DF: Alfaomega Grupo Editor, SA. ISBN: 978-607-7854-83-8. | |
dc.relation.references | Ramos, L. (2005). La modernización del Catastro Colombiano. Universidad de Los Andes. https://core.ac.uk/download/pdf/268121685.pdf | |
dc.relation.references | Resolución 1040 de 2023 [Instituto Geográfico Agustín Codazzi]. Por medio de la cual se expide la Resolución Única de la Gestión Catastral Multipropósito. 08 de agosto de 2023 | |
dc.relation.references | Romcon, I. (2022). Clasificación de imágenes espaciales mediante visión artificial. Universidad Politécnica de Madrid. | |
dc.relation.references | Ronneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. *arXiv preprint arXiv:1505.04597*. | |
dc.relation.references | Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical Image Computing and Computer-Assisted Intervention (pp. 234-241). | |
dc.relation.references | Sherrah, J. (2016). Fully Convolutional Networks for Dense Semantic Labelling of High-Resolution Aerial Imagery. *arXiv preprint arXiv:1606.02585*. | |
dc.relation.references | Simonyan, K., & Zisserman, A. (2015).** Very deep convolutional networks for large-scale image recognition. In *International Conference on Learning Representations (ICLR)*. | |
dc.relation.references | Soto-Orozco, O. A., Corral-Sáenz, A. D., Rojo-González, C. E., & Ramírez-Quintana, J. A. (2019). Análisis del desempeño de redes neuronales profundas para segmentación semántica en hardware limitado. Recuperado de https://www.redalyc.org/journal/5122/512261374010/html/ | |
dc.relation.references | Xia, X., Persello, C., & Koeva, M. (2019). Deep fully convolutional networks for cadastral boundary detection from UAV images. Remote Sensing, 11(14). https://doi.org/10.3390/rs11141725 | |
dc.relation.references | Zapeta Hernández, A., Galindo Rosales, G. A., Juan Santiago, H. J., & Martínez Lee, M. (2022). Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales. Ciencia Latina Revista Científica Multidisciplinar, 6(5), 4624-4637. https://doi.org/10.37811/cl_rcm.v6i5.3420 | |
dc.relation.references | Zhang, Y., Tang, Y., & Wang, L. (2018). CNN-Based High-Resolution Remote Sensing Image Segmentation Using High-Order Label Contextual Information. *IEEE Geoscience and Remote Sensing Letters*. | |
dc.relation.references | Zhu, X. X., Tuia, D., Mou, L., Xia, G. S., Zhang, L., Xu, F., & Fraundorfer, F. (2017). Deep learning in remote sensing: A comprehensive review and list of resources. IEEE Geoscience and Remote Sensing Magazine, 5(4), 8-36. | |
dc.rights.acceso | Abierto (Texto Completo) | |
dc.rights.accessrights | OpenAccess | |
dc.subject | Redes neuronales convolucionales | |
dc.subject | Aprendizaje profundo | |
dc.subject | Lindero | |
dc.subject | Catastro | |
dc.subject.keyword | Convolutional neural networks | |
dc.subject.keyword | Deep learning | |
dc.subject.keyword | Boundary | |
dc.subject.keyword | Cadastre | |
dc.subject.lemb | Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas | |
dc.subject.lemb | Redes neuronales convolucionales | spa |
dc.subject.lemb | Extracción automatizada de linderos prediales | spa |
dc.subject.lemb | Catastro -- Actualización | spa |
dc.title | Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral | |
dc.title.titleenglish | Evaluation of convolutional neural networks for the extraction of property boundaries as a tool for cadastral updating | |
dc.type | bachelorThesis | |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | |
dc.type.degree | Monografía | |
dc.type.driver | info:eu-repo/semantics/bachelorThesis |
Archivos
Bloque de licencias
1 - 1 de 1
No hay miniatura disponible
- Nombre:
- license.txt
- Tamaño:
- 7 KB
- Formato:
- Item-specific license agreed upon to submission
- Descripción: