Masmela Caita, Luis AlejandroCasas Peñarete , Cristian Camilo2024-12-182024-12-182024-05-22http://hdl.handle.net/11349/92075Nuestro objetivo consiste en comprender el funcionamiento de las dos redes neuronales que forman parte del modelo Word2Vec, presentado por Mikolov et al\cite{mikolovl-inguistic}. Con este propósito, ofreceremos una breve introducción al concepto de redes neuronales y su proceso de entrenamiento. Luego, proporcionaremos una breve contextualización sobre el procesamiento del lenguaje natural, para finalmente adentrarnos en el detalle del funcionamiento de los modelos Word2Vec. Este análisis incluirá nociones sobre por qué estos modelos son efectivos, respaldado por ejemplos ilustrativosOur objective is to understand the functioning of the two neural networks that are part of the Word2Vec model, presented by Mikolov et al. To achieve this, we will provide a brief introduction to the concept of neural networks and their training process. Then, we will offer a brief contextualization of natural language processing, and finally, delve into the details of how the Word2Vec models work. This analysis will include notions of why these models are effective, supported by illustrative examples.Redes neuronalesRetropropagaciónProcesamiento del Lenguaje NaturalWor2VecExploración del modelo Word2Vec: Bag-of-Words y Skip-gram, en el marco del Procesamiento del Lenguaje Natural.bachelorThesisMatemáticas -- Tesis y disertaciones académicasRedes neurales (Computadores)Lingüística computacionalWord2VecOpenAccessExploration of the Word2Vec Model: Bag-of-Words and Skip-gram within the Framework of Natural Language Processing.Neural Networks, Backpropagation, Natural Language Processing, Word2Vec.Backpropagation,Natural Language ProcessingWord2VecAbierto (Texto Completo)