Mostrar el registro sencillo del ítem
dc.contributor.author | Castro Caicedo, Fausto Miguel | |
dc.date.accessioned | 2019-10-31T22:08:06Z | |
dc.date.available | 2019-10-31T22:08:06Z | |
dc.date.issued | 2014 | |
dc.identifier.uri | http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1311 | |
dc.description.abstract | Se presenta un nuevo algoritmo para el entrenamiento de redes neuronales perceptrón multicapa denominado ARγ-GLE (Acelerador Regresivo versión con Gradiente Local de Error). Este algoritmo se basa en los principios que rigen la actualización de parámetros en el algoritmo ARγ , que fue desarrollado en el contexto del filtrado adaptativo a partir de la discretización de un algoritmo en tiempo continuo que ajusta la segunda derivada de parámetros. El algoritmo ARγ-GLE se valida mediante diferentes problemas relacionados con aproximación de funciones y reconocimiento de patrones. Los resultados muestran buen comportamiento en cuanto a convergencia y generalización superando en las pruebas realizadas (sin aumento considerable en la complejidad algorítmica) los inherentes problemas del algoritmo "backpropagation" relacionados con la influencia imprevisible de la tasa de aprendizaje. | spa |
dc.description.abstract | A new algorithm is presented for Multi-Layer Perceptron Neural Networks training, which is called ARγ-GLE (Acelerador Regresivo versión γ con Gradiente Local de Error ). This algorithm is based in the same principles that let parameter actualization in ARγ algorithm. This last one is an algorithm created in adaptive filtering context and is obtained from discretization of a continuous time algorithm based on the second derivative adjustment of the parameter estimate. ARγ -GLE algorithm is validated through different problems related to pattern recognition and fitting function. Results show both good convergence as generalization, overcomming in the experiments the inherent disadvantages of backpropagation algorithm (without a significant increase in the algorithm complexity) related to the unforseeable influence of the learnig rate. | eng |
dc.language.iso | spa | spa |
dc.publisher | Universidad del Cauca | spa |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject | Redes Neuronales | spa |
dc.subject | Artificial Neural Networks | eng |
dc.subject | MLP | spa |
dc.subject | Algoritmo ARγ | spa |
dc.subject | Multi-Layer Perceptron | eng |
dc.subject | Gradiente Local de Error | spa |
dc.subject | Local Gradient | eng |
dc.subject | Reconocimiento de Patrones | spa |
dc.subject | Pattern Recognition | eng |
dc.subject | Aproximación de Funciones | spa |
dc.subject | Fitting Function | eng |
dc.title | Diseño de un algoritmo de aprendizaje para redes neuronales MLP basado en las propiedades del algoritmo acelerador regresivo versión γ | spa |
dc.type | Tesis maestría | spa |
dc.rights.creativecommons | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.type.driver | info:eu-repo/semantics/masterThesis | |
dc.type.coar | http://purl.org/coar/resource_type/c_bdcc | |
dc.publisher.faculty | Facultad de Ingeniería Electrónica y Telecomunicaciones | spa |
dc.publisher.program | Maestría en Electrónica y Telecomunicaciones | spa |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
dc.type.version | info:eu-repo/semantics/publishedVersion | |
dc.coar.version | http://purl.org/coar/version/c_970fb48d4fbd8a85 | |
dc.identifier.instname | ||
dc.identifier.reponame | ||
oaire.accessrights | ||
dc.identifier.repourl | ||
oaire.version |