Estructura de redes neuronales (MLP) y su aplicación como aproximador universal
Fecha
Fecha
2022-07-05
Director
Colaboradores
Título de la revista
ISSN de la revista
Título del volumen
Editor
Altmetric
Descripción
El presente trabajo está orientado al estudio del sustento teórico de las redes neuronales artificiales (MPL - Multilayer Perceptrón), frente a su capacidad de clasificación. Para este propósito se definen formalmente los conceptos que permiten la comprensión matemática de las mismas, además de la implementación de dichas nociones en la elaboración de un código que muestra, a través de ejemplos particulares, la capacidad de clasificación de las redes neuronales con base a la teoría aquí desarrollada. Adicionalmente se evidencia la capacidad de las redes neuronales para aproximar funciones, a través de un ejemplo aplicado al código desarrollado, este resultado es posible gracias al Teorema de Aproximación Universal de Funciones.
Resumen
The present work is oriented to the study of the theoretical support of artificial neural networks (MPL - Multilayer Perceptron), compared to their classification capacity. For this purpose, the concepts that allow their mathematical understanding are formally defined, in addition to the implementation of said notions in the elaboration of a code that shows, through particular examples, the classification capacity of neural networks based on the theory developed here.
Additionally, the ability of neural networks to approximate functions is evidenced, through an example applied to the developed code, this result is possible thanks to the Universal Approximation Theorem of Functions.
Palabras clave
Red neuronal artificial, Perceptrón simple, Teorema de Convergencia del Perceptrón, Descenso del gradiente, Algoritmo, Perceptrón multicapa, Teorema de Aproximación Universal, Aproximación de funciones continuas