Mostrar el registro sencillo del ítem
dc.contributor.author | Narváez Rivas, Camilo | |
dc.contributor.author | Muñoz Gómez, José David | |
dc.date.accessioned | 2019-11-20T21:48:59Z | |
dc.date.available | 2019-11-20T21:48:59Z | |
dc.date.issued | 2019-07 | |
dc.identifier.uri | http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651 | |
dc.description.abstract | En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el último caso, el Aprendizaje Incremental es una alternativa a usar para entrenar un modelo apropiadamente, sin embargo, se presenta un problema en la forma del dilema de la estabilidad-plasticidad: cómo entrenar incrementalmente un modelo que pueda responder bien a nuevos datos (plasticidad), a la vez que se retiene el conocimiento previo (estabilidad). El presente trabajo de investigación propone un modelo de aprendizaje incremental inspirado en Rehearsal (recuerdo de memorias pasadas basada en un subconjunto de datos) el cual se ha denominado CRIF, y que ha sido construido sobre un framework de soporte de experimentación de algoritmos de aprendizaje incremental llamado DILF, el cual también ha sido propuesto en este trabajo. Adicionalmente se proponen dos algoritmos que instancian el marco establecido en CRIF: uno que usa una selección aleatoria de muestras representativas (NIL) y otro que usa las métricas de Best vs. Second Best y distancia de Crowding en conjunto para esta tarea (RILBC). El rendimiento de los algoritmos propuestos fue evaluado usando tres métricas, a saber: exactitud, tiempo y pérdida (loss). Los experimentos fueron realizados sobre cuatro datasets, MNIST, Fashion-MNIST, CIFAR-10, y Caltech 101; y en dos escenarios incrementales diferentes: un escenario con clases estrictamente incrementales, y un escenario con clases pseudo incrementales y datos desbalanceados. En Caltech 101 se usó Transfer Learning, y en este escenario, así como en los otros tres datasets, el método propuesto NIL alcanza mejores resultados en exactitud que los algoritmos comparados, tales como RMSProp Inc (línea base) e iCaRL (propuesta del estado del arte), y sobre el otro método propuesto RILBC. NIL obtiene resultados que son estadísticamente comparables con un proceso de entrenamiento acumulativo (todos los datos disponibles) y también demuestra poder alcanzar estos resultados en menos tiempo. | spa |
dc.language.iso | spa | spa |
dc.publisher | Universidad del Cauca | spa |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject | Algoritmo de aprendizaje | spa |
dc.subject | RMSProp | eng |
dc.subject | Competencia | spa |
dc.subject | Agrupamiento | spa |
dc.subject | Fronteras de clases | spa |
dc.subject | Redes convolucionales | spa |
dc.title | Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales | spa |
dc.type | Trabajos de grado | spa |
dc.rights.creativecommons | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.type.driver | info:eu-repo/semantics/bachelorThesis | |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | |
dc.publisher.faculty | Facultad de Ingeniería Electrónica y Telecomunicaciones | spa |
dc.publisher.program | Ingeniería Electrónica y Telecomunicaciones | spa |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
dc.type.version | info:eu-repo/semantics/publishedVersion | |
dc.coar.version | http://purl.org/coar/version/c_970fb48d4fbd8a85 | |
dc.identifier.instname | ||
dc.identifier.reponame | ||
oaire.accessrights | ||
dc.identifier.repourl | ||
oaire.version |