Please use this identifier to cite or link to this item: http://hdl.handle.net/11349/22410
Title: Modelo para la implementación de la técnica de Tokenización como mecanismo de protección de datos personales
Author: Salamanca Rativa, Ingry Nathaly
Barrero Molina, Jeisson Gerardo
Advisor: Hernandez Gutierrez, Jairo
Subjects: Ingeniería Telemática - Tesis y disertaciones académicas
Protección de datos
Bases de datos
Mejoramiento de procesos
Keywords: Tokenización
Datos Personales
Seguridad de la Información
Ley 1581
Date: 9-Jul-2019
Abstract: This monographic document establishes the guide to plan and implement the tokenization system, as a mechanism of protection of personal data, described in law 1581 of 2012. We begin with the analysis of the current situation, to identify which are the applications that administer personal data, where and how they are stored, level of impact with the implementation of the model. Once the current situation has been established, the analysis begins to ensure information, separation of responsibility to ensure it and minimize the impact on the normal development of the organization's activities, without affecting the business model and minimizing the possibility of theft of information. For the implementation of the tokenization principle, the model implemented in the protection of credit card transactions, described in PCI-DSS, was taken as a basis and, according to this, we made the necessary components and their characteristics for an effective implementation of the model within any organization, based on current legislation and algorithms most used in the protection of information. In the last part of the work is described the process of implementing a pilot test performed to assess the impact, level of difficulty and efficiency of the model applied to a financial organization that has the obligation to comply with the data protection law personal and seeks to apply the most efficient method of lower financial cost and low operational impact in its implementation.
Description: En este documento monográfico se establece la guía metodológica para planificar e implementar el sistema de tokenización, como mecanismo de protección de datos personales, descrita en la ley 1581 de 2012. El objetivo es establecer la forma correcta de planteamiento del modelo, para ello se inició con el análisis de la situación actual, para identificar cuáles son las aplicaciones que gestionan datos personales, en donde y como se almacenan, nivel de impacto con la implementación del modelo. Ya establecida la situación actual se realiza el análisis de clasificación de los diferentes tipos de información, separación de responsabilidad para asegurarla y minimizar el impacto en el desarrollo normal de las actividades de la organización, sin afectar el modelo del negocio y reducir al mínimo la posibilidad de hurto de información. Para la implementación del principio de tokenización se tomó como base el modelo implementado en la protección de las transacciones de tarjeta de crédito, descrita en PCIDSS y partiendo de este se realiza el planteamiento de componentes necesarios y sus características para una efectiva implementación del modelo dentro de cualquier organización, basándose en la legislación vigente y en los algoritmos más usados en la protección de información. En la última parte del trabajo se encuentra descrito el proceso de implementación de una prueba piloto realizada para evaluar el impacto, nivel de dificultad y eficiencia del modelo aplicado a una organización de índole financiero que tiene la obligación de cumplir con la ley de protección de datos personales y busca aplicar el método más eficiente de menor costo financiero y bajo impacto operativo en su implementación.
URI: http://hdl.handle.net/11349/22410
Appears in Collections:Ingeniería Telemática

Files in This Item:
File Description SizeFormat 
SalamancaRativaIngryNathaly2019.pdf2,18 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons