Repositorio Universidad del Cauca

Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales

Mostrar el registro sencillo del ítem

dc.contributor.author Narváez Rivas, Camilo
dc.contributor.author Muñoz Gómez, José David
dc.date.accessioned 2019-11-20T21:48:59Z
dc.date.available 2019-11-20T21:48:59Z
dc.date.issued 2019-07
dc.identifier.uri http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651
dc.description.abstract En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el último caso, el Aprendizaje Incremental es una alternativa a usar para entrenar un modelo apropiadamente, sin embargo, se presenta un problema en la forma del dilema de la estabilidad-plasticidad: cómo entrenar incrementalmente un modelo que pueda responder bien a nuevos datos (plasticidad), a la vez que se retiene el conocimiento previo (estabilidad). El presente trabajo de investigación propone un modelo de aprendizaje incremental inspirado en Rehearsal (recuerdo de memorias pasadas basada en un subconjunto de datos) el cual se ha denominado CRIF, y que ha sido construido sobre un framework de soporte de experimentación de algoritmos de aprendizaje incremental llamado DILF, el cual también ha sido propuesto en este trabajo. Adicionalmente se proponen dos algoritmos que instancian el marco establecido en CRIF: uno que usa una selección aleatoria de muestras representativas (NIL) y otro que usa las métricas de Best vs. Second Best y distancia de Crowding en conjunto para esta tarea (RILBC). El rendimiento de los algoritmos propuestos fue evaluado usando tres métricas, a saber: exactitud, tiempo y pérdida (loss). Los experimentos fueron realizados sobre cuatro datasets, MNIST, Fashion-MNIST, CIFAR-10, y Caltech 101; y en dos escenarios incrementales diferentes: un escenario con clases estrictamente incrementales, y un escenario con clases pseudo incrementales y datos desbalanceados. En Caltech 101 se usó Transfer Learning, y en este escenario, así como en los otros tres datasets, el método propuesto NIL alcanza mejores resultados en exactitud que los algoritmos comparados, tales como RMSProp Inc (línea base) e iCaRL (propuesta del estado del arte), y sobre el otro método propuesto RILBC. NIL obtiene resultados que son estadísticamente comparables con un proceso de entrenamiento acumulativo (todos los datos disponibles) y también demuestra poder alcanzar estos resultados en menos tiempo. spa
dc.language.iso spa spa
dc.publisher Universidad del Cauca spa
dc.rights.uri https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject Algoritmo de aprendizaje spa
dc.subject RMSProp eng
dc.subject Competencia spa
dc.subject Agrupamiento spa
dc.subject Fronteras de clases spa
dc.subject Redes convolucionales spa
dc.title Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales spa
dc.type Trabajos de grado spa
dc.rights.creativecommons https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.type.driver info:eu-repo/semantics/bachelorThesis
dc.type.coar http://purl.org/coar/resource_type/c_7a1f
dc.publisher.faculty Facultad de Ingeniería Electrónica y Telecomunicaciones  spa
dc.publisher.program Ingeniería Electrónica y Telecomunicaciones spa
dc.rights.accessrights info:eu-repo/semantics/openAccess
dc.type.version info:eu-repo/semantics/publishedVersion
dc.coar.version http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.identifier.instname
dc.identifier.reponame
oaire.accessrights
dc.identifier.repourl
oaire.version


Ficheros en el ítem

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

https://creativecommons.org/licenses/by-nc-nd/4.0/ Excepto si se señala otra cosa, la licencia del ítem se describe como https://creativecommons.org/licenses/by-nc-nd/4.0/

Buscar en DSpace


Listar

Mi cuenta