Exploración del modelo Word2Vec: Bag-of-Words y Skip-gram, en el marco del Procesamiento del Lenguaje Natural.

dc.contributor.advisorMasmela Caita, Luis Alejandro
dc.contributor.authorCasas Peñarete , Cristian Camilo
dc.contributor.orcidMasmela Caita,Luis Alejandro [0000-0003-3882-4980]
dc.date.accessioned2024-12-18T22:06:09Z
dc.date.available2024-12-18T22:06:09Z
dc.date.created2024-05-22
dc.descriptionNuestro objetivo consiste en comprender el funcionamiento de las dos redes neuronales que forman parte del modelo Word2Vec, presentado por Mikolov et al\cite{mikolovl-inguistic}. Con este propósito, ofreceremos una breve introducción al concepto de redes neuronales y su proceso de entrenamiento. Luego, proporcionaremos una breve contextualización sobre el procesamiento del lenguaje natural, para finalmente adentrarnos en el detalle del funcionamiento de los modelos Word2Vec. Este análisis incluirá nociones sobre por qué estos modelos son efectivos, respaldado por ejemplos ilustrativos
dc.description.abstractOur objective is to understand the functioning of the two neural networks that are part of the Word2Vec model, presented by Mikolov et al. To achieve this, we will provide a brief introduction to the concept of neural networks and their training process. Then, we will offer a brief contextualization of natural language processing, and finally, delve into the details of how the Word2Vec models work. This analysis will include notions of why these models are effective, supported by illustrative examples.
dc.identifier.urihttp://hdl.handle.net/11349/92075
dc.relation.referencesYoav Goldberg. FEATURES FOR NLP PROBLEMS, pages 60–69. Morgan and Claypool, 2017
dc.relation.referencesGareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani, and Jonathan Taylor. Deep Lear- ning, pages 399–467. Springer International Publishing, Cham, 2023.
dc.relation.referencesKer-I. Ko and Harvey Friedman. Computational complexity of real functions. Theoretical Computer Science, 20(3):323–352, 1982
dc.relation.referencesThalom Lappin and Chris Fox. Plurals, pages 504–505. Blackwell Publishing Ltd, 2015
dc.relation.referencesTomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word represen- tations in vector space, 2013.
dc.relation.referencesXin Rong. word2vec parameter learning explained, 2016.
dc.relation.referencesMcMahan Brtian Rao Delip. Foundational components of neural networks. In Natural Language Processing with PyTorch, chapter 3, pages 44 – 51. O’Reilly Media, 2019.
dc.rights.accesoAbierto (Texto Completo)
dc.rights.accessrightsOpenAccess
dc.subjectRedes neuronales
dc.subjectRetropropagación
dc.subjectProcesamiento del Lenguaje Natural
dc.subjectWor2Vec
dc.subject.keywordNeural Networks, Backpropagation, Natural Language Processing, Word2Vec.
dc.subject.keywordBackpropagation,
dc.subject.keywordNatural Language Processing
dc.subject.keywordWord2Vec
dc.subject.lembMatemáticas -- Tesis y disertaciones académicas
dc.subject.lembRedes neurales (Computadores)
dc.subject.lembLingüística computacional
dc.subject.lembWord2Vec
dc.titleExploración del modelo Word2Vec: Bag-of-Words y Skip-gram, en el marco del Procesamiento del Lenguaje Natural.
dc.title.titleenglishExploration of the Word2Vec Model: Bag-of-Words and Skip-gram within the Framework of Natural Language Processing.
dc.typebachelorThesis
dc.type.degreeMonografía
dc.type.driverinfo:eu-repo/semantics/bachelorThesis

Archivos

Bloque original

Mostrando 1 - 2 de 2
Cargando...
Miniatura
Nombre:
Trabajo de grado
Tamaño:
306.86 KB
Formato:
Adobe Portable Document Format
No hay miniatura disponible
Nombre:
Licencia de uso y autorización
Tamaño:
621.45 KB
Formato:
Adobe Portable Document Format

Bloque de licencias

Mostrando 1 - 1 de 1
No hay miniatura disponible
Nombre:
license.txt
Tamaño:
7 KB
Formato:
Item-specific license agreed upon to submission
Descripción:

Colecciones