<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Maestría en Electrónica y Telecomunicaciones</title>
<link href="https://repositorio.unicauca.edu.co/xmlui/handle/123456789/2433" rel="alternate"/>
<subtitle/>
<id>https://repositorio.unicauca.edu.co/xmlui/handle/123456789/2433</id>
<updated>2026-05-16T02:47:18Z</updated>
<dc:date>2026-05-16T02:47:18Z</dc:date>
<entry>
<title>Planning cost-effective 6G transport networks</title>
<link href="https://repositorio.unicauca.edu.co/xmlui/handle/123456789/10282" rel="alternate"/>
<author>
<name>Vargas Vivas, María Lucia</name>
</author>
<id>https://repositorio.unicauca.edu.co/xmlui/handle/123456789/10282</id>
<updated>2025-04-11T19:35:09Z</updated>
<published>2024-01-01T00:00:00Z</published>
<summary type="text">Planning cost-effective 6G transport networks
Vargas Vivas, María Lucia
Next-generation mobile systems, including 5G, 6G, and beyond networks, rely on the deployment of low-cost and highly reliable access, metro and core networks to offer Quality of Service (QoS) guarantees. These networks are multi-layer systems that integrate packet-switched and circuit-switched networking technologies. This manuscript illustrates architectures and technologies considered to dimensión 6G transport networks. 6G networks are increasingly complex, heterogeneous, and dynamic. Several network architectures are being developed to address these challenges. Traditional architectures are based on a centralized model, where all processing and decision making is done at the central node. Such models are designed to be efficient and reliable, but not very flexible nor scalable and can lead to congestion and delays in the network. 6G network architectures are expected to be more flexible, converge multiple technologies, have a multilayer architecture, and adopt advanced domain automation functionalities providing orchestration and automation across multiple network domains.; Las redes móviles de próxima generación, incluidas 5G, 6G y redes futuras, dependen del despliegue de redes de acceso, redes metro y troncales de bajo costo altamente fiables para ofrecer garantías de Calidad de Servicio (QoS, Quality of Service). Estas redes son sistemas multi-capa que integran tecnologías de redes conmutadas por paquetes y conmutadas por circuitos. Esta tesis de maestría ilustra las arquitecturas y tecnologías consideradas para dimensionar las redes de transporte 6G. Las expectativas sobre las redes 6G son mayor complejidad, heterogeneidad y flexibilidad. Se están desarrollando varias arquitecturas de red para abordar estos desafíos. Las arquitecturas tradicionales se basan en un modelo centralizado, donde todo el procesamiento y la toma de decisiones se realizan en el nodo central. Dichos modelos están diseñados para ser eficientes y fiables, pero no son flexibles ni escalables y pueden llevar a congestiones y retrasos en la red. Se espera que las arquitecturas de red 6G sean más flexibles, converjan múltiples tecnologías, tengan una arquitectura multi-capa y adopten funcionalidades avanzadas de automatización de dominios que proporcionen orquestación y automatización a través de múltiples dominios de red.
</summary>
<dc:date>2024-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Estimación de la altura de una forma dentro de una imagen 2D a partir de su sombra por medio de redes neuronales</title>
<link href="https://repositorio.unicauca.edu.co/xmlui/handle/123456789/9565" rel="alternate"/>
<author>
<name>Muñoz Burbano, Julián René</name>
</author>
<id>https://repositorio.unicauca.edu.co/xmlui/handle/123456789/9565</id>
<updated>2024-07-23T19:10:46Z</updated>
<published>2023-01-01T00:00:00Z</published>
<summary type="text">Estimación de la altura de una forma dentro de una imagen 2D a partir de su sombra por medio de redes neuronales
Muñoz Burbano, Julián René
En esta investigación se desarrollaron e implementaron dos modelos de redes neuronales, un modelo 1, de una sola entrada, la sombra y un modelo 2, con dos entradas la figura y sombra. Estos se evaluaron en 600, 800, 1,000, épocas respectivamente, enfocados en estimar la altura de objetos dentro de una imagen 2D a partir de su sombra. En su desarrollo se utilizaron técnicas de aumento de datos y regularización, para prevenir el sobreajuste y mantener la complejidad del modelo. Estos se diseñaron para predecir alturas dentro de un rango específico (1 a 10 cm) donde ambos modelos tienen un equilibrio entre precisión y capacidad de generalización y tolerancia al error (0,02) en las predicciones. Para ello, se construyó un conjunto de datos con imágenes fotográficas de formas u objetos, así como sus sombras proyectadas desde diferentes ángulos y ubicaciones. La estructura del conjunto de datos está conformada por el nombre de la forma, el nombre de la sombra, la longitud de la sombra, la altura de la forma y el ángulo de la fuente de luz. En este sentido, la investigación se centra en el análisis de la luz y sombras, en diferentes formas geométricas u objetos dentro de una imagen 2D, donde la sombra proyectada es la información a utilizar y con la que se busca determinar la altura de las formas u objetos. El motivo principal de esta investigación está orientado a que, en un futuro, personas que presentan discapacidad visual ya sea total o parcial, puedan mediante un mecanismo táctil, definir o diferenciar un objeto, que ha sido recreado de forma tridimensional a partir de una imagen 2D (fotografía o pintura). Por ello, es fundamental que a partir de una imagen 2D se resalten los objetos a representar en una maqueta 2.5D, donde la altura de los objetos seleccionados será la clave para crear la maqueta. En este sentido, en este documento se presenta un modelo que permite determinar la altura de objetos predefinidos en una imagen bidimensional a partir de su sombra. Se obtuvo un dataset que incluye imágenes fotográficas de formas u objetos con sus sombras proyectadas, un dataframe con la información del conjunto de datos. En los dos modelos (1 y 2) la combinación de las características visuales (figura y sombra) con el dataframe, mejoró notablemente las predicciones en los dos modelos, lo que potencialmente corrige ambigüedades al momento de interpretar la forma de un objeto. A partir de los resultados se realizó una evaluación integral de los dos mismos, que sobresalen por su equilibrio entre precisión y generalización. Estos se analizaron con diferentes métricas de evaluación como MAE, MSE, R², y correlación de Pearson (&#119903;) entre otras.; In this research, two neural network models were developed and implemented, a model 1, with a single input, the shadow, and a model 2, with two inputs, the figure and shadow. These were evaluated at 600, 800, 1,000, epochs respectively, focused on estimating the height of objects within a 2D image from their shadow. Data augmentation and regularization techniques were used in their development to prevent over-fitting and maintain model complexity. These were designed to predict heights within a specific range (1 to 10 cm) where both models have a balance between accuracy and generalization capacity and tolerance to error (0.02) in the predictions. For this purpose, a dataset was constructed with photographic images of shapes or objects, as well as their shadows projected from different angles and locations. The structure of the dataset consists of the name of the shape, the name of the shadow, the length of the shadow, the height of the shape and the angle of the light source. In this sense, the research focuses on the analysis of light and shadows, in different geometric shapes or objects within a 2D image, where the projected shadow is the information to be used and with which we seek to determine the height of the shapes or objects. The main reason for this research is oriented to the possibility that, in the future, people with visual impairment, either total or partial, may use a tactile mechanism to define or differentiate an object, which has been recreated in three-dimensional form from a 2D image (photograph or painting). Therefore, it is essential that from a 2D image the objects to be represented in a 2.5D model are highlighted, where the height of the selected objects will be the key to create the model. In this sense, this paper presents a model that allows to determine the height of predefined objects in a two-dimensional image from their shadow. A dataset was obtained that includes photographic images of shapes or objects with their projected shadows, a DataFrame with the information of the dataset. In the two models (1 and 2) the combination of the visual characteristics (figure and shadow) with the DataFrame, significantly improved the predictions in the two models, which potentially corrects ambiguities when interpreting the shape of an object. Based on the results, a comprehensive evaluation of the two models, which stand out for their balance between accuracy and generalization, was performed. These were analyzed with different evaluation metrics such as MAE, MSE, R², and Pearson's correlation (r) among others.
</summary>
<dc:date>2023-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Cuantificación de señales de voz utilizando wavelets</title>
<link href="https://repositorio.unicauca.edu.co/xmlui/handle/123456789/8559" rel="alternate"/>
<author>
<name>Silva Zambrano, María Manuela</name>
</author>
<id>https://repositorio.unicauca.edu.co/xmlui/handle/123456789/8559</id>
<updated>2024-07-23T19:11:08Z</updated>
<published>2022-01-01T00:00:00Z</published>
<summary type="text">Cuantificación de señales de voz utilizando wavelets
Silva Zambrano, María Manuela
La cuantificación de señales de voz, que por naturaleza son analógicas, se pude utilizar para su digitalización o compresión. Independientemente de su aplicación, la pérdida de información degrada la calidad de este tipo de señales y puede comprometer incluso la inteligibilidad del mensaje, debido a lo cual se hace necesario buscar alternativas para el diseño e implementación del cuantificador.&#13;
La cuantificación es el proceso de limitar las amplitudes de una señal a un conjunto finito de &#119873;&#119873; posibles amplitudes. En esencia, la función de un cuantificador consiste en redondear el valor de cada muestra de una señal al nivel de cuantificación más próximo, debido a lo cual se introduce distorsión, i.e., se pierde información. La idea es minimizar la diferencia entre la secuencia original y la secuencia cuantificada de acuerdo con algún criterio de distorsión. Sin embargo, sea cual sea ese criterio, la diferencia se minimiza en la medida que el número de niveles, &#119873;&#119873;, se hace grande. Así mismo, un valor grande de &#119873;&#119873; implica un mayor consumo de recursos (mayor cantidad de bits para transmitir, procesar o almacenar la información). Esto hace que el número de niveles no se pueda incrementar deliberadamente (Gallager, 2008).&#13;
En general, un cuantificador se puede diseñar desde dos perspectivas. La primera de ellas busca maximizar la fidelidad de la señal (minimizar distorsión), manteniendo constante el número de niveles de cuantificación. La segunda intenta reducir el número de niveles de cuantificación, manteniendo constante la distorsión. Se tiene un compromiso entre calidad y eficiencia según las necesidades y limitaciones de una aplicación en particular.&#13;
La ventaja inherente de un esquema de cuantificación basado en la transformada wavelet radica en el hecho de que es posible contar con una noción de lo que ocurre tanto en tiempo como en frecuencia de manera simultánea, haciendo que el proceso de cuantificación/compresión se pueda amoldar más fácilmente a las características intrínsecas de la señal. Por otro lado, las operaciones de descomposición y reconstrucción de la señal son fácilmente implementables a través del algoritmo de Mallat, haciendo que este tipo de cuantificación sea una alternativa válida y atractiva en contraposición a las técnicas de cuantificación basadas únicamente en el comportamiento espectral de la señal (Fourier), o basadas únicamente en el comportamiento temporal de la señal (cuantificación con y sin memoria).&#13;
En este trabajo de grado de maestría se proponen dos algoritmos de cuantificación basados en la transformada wavelet y se evalúa su desempeño1 con respecto a la cuantificación en el dominio del tiempo.
</summary>
<dc:date>2022-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Análisis comparativo para la aplicación de un modelo predictivo en la estimación de la calidad de agua</title>
<link href="https://repositorio.unicauca.edu.co/xmlui/handle/123456789/8516" rel="alternate"/>
<author>
<name>Aguilar Aguilar, Andrea Carolina</name>
</author>
<id>https://repositorio.unicauca.edu.co/xmlui/handle/123456789/8516</id>
<updated>2023-11-07T19:46:11Z</updated>
<published>2021-01-01T00:00:00Z</published>
<summary type="text">Análisis comparativo para la aplicación de un modelo predictivo en la estimación de la calidad de agua
Aguilar Aguilar, Andrea Carolina
El agua es un recurso natural y una fuente vital para el ser humano y otras especies que habitan el planeta. Diversos esfuerzos se suman para garantizar su protección y consumo eficiente haciendo frente a la creciente demanda y contaminación de los últimos años. El agua puede pasar por diferentes procesos antes de llegar a su uso final y en muchas ocasiones se requiere almacenar este líquido en depósitos para su tratamiento, transporte o recolección, por lo cual es necesario conocer y controlar la calidad y el tiempo en el cual se mantienen las características óptimas para su consumo. La calidad del agua se analiza mediante la medición y monitoreo de parámetros fisicoquímicos o biológicos.&#13;
Los modelos predictivos permiten estimar comportamientos futuros a partir de información previa extraída de un fenómeno, su aplicación en esta área se centra en estimar la calidad del agua utilizando la información proveniente de los parámetros. El proyecto “análisis comparativo para la aplicación de un modelo predictivo en la estimación de la calidad de agua” tiene como objetivo estimar la calidad del agua en almacenamiento mediante la comparación de modelos de aprendizaje automático utilizando para ello los datos medidos de parámetros fisicoquímicos. Para el experimento se almacenaron diferentes muestras de agua lluvia, de acueducto y envasada sobre las cuales se midieron los parámetros de pH, solidos disueltos totales y temperatura. Se utilizaron tres técnicas para la construcción de los modelos de regresión: arboles de regresión, regresión lineal, y máquinas de vectores de soporte. Luego se dividieron las muestras tanto para la construcción de los modelos como para etapa de validación. Los resultados obtenidos muestran que es posible estimar la calidad del agua en almacenamiento representada en un indicador ICA (escala de o a 100) utilizando como entradas del modelo los parámetros pH, solidos disueltos totales y temperatura, con buenos resultados en la etapa de validación para las métricas MSE, RMSE y R².; Water is a natural resource and a vital source for humans and other species that inhabit the planet. Various efforts are being added to guarantee its protection and efficient consumption, facing the increasing demand and pollution in recent years. The water can go through different processes before reaching its final use and in many cases it is required to store this liquid in tanks for its treatment, transport or collection, for which it is necessary to know and control the quality and the time in which the optimal characteristics for consumption are maintained. Water quality is analyzed by measuring and monitoring physicochemical or biological parameters.&#13;
Predictive models allow estimating future behavior from previous information extracted from a phenomenon, its application in this area focuses on estimating water quality using the information from the parameters. The project "Comparative analysis for the application of a predictive model in estimating water quality" aims to estimate the quality of water in storage by comparing machine learning models using the measured data of physicochemical parameters. For the experiment, different samples of rainwater, aqueduct and bottled water were stored. The parameters of pH, total dissolved solids and temperature were measured in the samples. Three techniques were used for the construction of the regression models: regression trees, linear regression, and support vector machines. Then the samples were divided both for the construction of the models and for the validation stage. The results obtained show that it is possible to estimate the quality of the water in storage represented in an index (scale of or to 100) using the parameters pH, total dissolved solids and temperature as model inputs, with good results in the validation stage for the MSE, RMSE and R² metrics.
</summary>
<dc:date>2021-01-01T00:00:00Z</dc:date>
</entry>
</feed>
