Estudiantes de doctorado




COMIT

Andres Eugenio Enriquez Lenis

Asesor: Yezid Enrique Donoso Meisel

COMIT

Carlos Andres Lozano Garzon

La infraestructura en la red de acceso, actualmente desplegada por los operadores de telecomunicaciones móviles, está compuesta por diversas celdas implementadas con distintas tecnologías de acceso inalámbricas y un alcance en cobertura diferente. A través de esta infraestructura los operadores deben ofrecer un servicio de calidad y garantizar la conectividad y movilidad a sus usuarios. Adicional a los cambios tecnológicos dados por la evolución propia de las redes de los operadores, en los últimos años se ha presentado un crecimiento continuo tanto de las suscripciones de usuarios móviles, en el primer trimestre de 2013 aproximadamente 1,2 billones de suscriptores [1]; como en el tráfico de datos móvil, 885 peta-bytes de tráfico mensual en 2012 y se espera que a 2017 el tráfico mensual sea de 11.2 exabytes [2], lo cual genera grandes desafíos en la planificación, mantenimiento y optimización de la compleja infraestructura de red.Dentro de los grandes inconvenientes generados por este continuo crecimiento para las redes móviles celulares, especialmente en zonas urbanas densamente pobladas, están los problemas relacionados con capacidad, cobertura, e interferencia [3]. Históricamente, el método más efectivo para incrementar la capacidad y extender la cobertura es el despliegue de celdas de un menor tamaño [4]; sin embargo, dados los altos costos que esta implementación implica, se ha propuesto entre otras, diversas técnicas de comunicación cooperativa entre estaciones base como herramienta para mejorar la capacidad, la fiabilidad y/o la cobertura en las redes móviles celulares [5]. Por otro lado, estos vertiginosos cambios en la red en cuanto al aumento en el número de usuarios, la capacidad y la cobertura, así como los aumentos de tráfico debido a las nuevas aplicaciones ofrecidas sobre las redes móviles celulares, incrementan las demandas de la red de acceso sobre el segmento de red denominado Backhaul Móvil (MBH por sus siglas en inglés) [6, 7]. O dicho de otra manera, las características del MBH implementados en la red del operador puede imponer algunas restricciones sobre el rendimiento de la red ya que puede llegar a convertirse en un cuello de botella en la misma.Teniendo en cuenta lo anteriormente enunciado esta investigación pretende fundamentar el impacto que generan las restricciones impuestas por el MBH en la implementación de estrategias de cooperación entre estaciones base en el contexto de las redes móviles celulares de próxima generación. La contribución esperada al finalizar este trabajo debe apoyar el trabajo de los operadores en su planeación y asignación de recursos ayudándolos a definir cuándo es posible establecer esquemas de cooperación y de ser posible cuál es el esquema óptimo a implementar dadas las características actuales de la red de backhaul móvil. A través de este estudio se pretende proporcionar una herramienta que apoye las actividades de gestión de cooperación en la red con el fin de limitar los costes, complejidad algorítmica, sobrecargas de tráfico, y producir realmente un impacto positivo en la capacidad global de la red.

Asesor: Yezid Enrique Donoso Meisel

COMIT

Carlos Eduardo Gomez Montoya

UnaCloud es un modelo IaaS oportunista basado en el aprovechamiento de los recursos ociosos disponibles en las salas de cómputo del Departamento de Ingeniería de Sistemas y Computación de la Universidad de Los Andes. UnaCloud aprovecha esta gran cantidad de recursos de procesamiento y almacenamiento para consolidarlas y desplegar máquinas virtuales por demanda y de manera no intrusiva para su aplicación en proyectos científicos. UnaCloud es un desarrollo del Grupo de Investigación COMIT de la Universidad de Los Andes iniciado en 2011.

Asesor: Harold Enrique Castro Barrera

COMIT

Carlos Eduardo Velásquez Villada

Conectar a Internet a las comunidades rurales es un problema de investigación actual, activo y muy dinámico. Hoy en día, grandes compa˜nías en la industria de IT como Google y Facebook están trabajando en diferentes proyectos para ayudar a conectar a todos estos usuarios rurales, actualmente desconectados de Internet. Esta tesis propone un nuevo algoritmo de enrutamiento y reenvío de mensajes para llevar una conectividad a Internet a comunidades rurales, para aplicaciones tolerantes a retardos (no en tiempo real) y a menor costo cuando se compara con el despliegue tradicional de infraestructura. Esta solución está basada en la tecnología de Redes Tolerantes a Retardos/Interrupciones (DTN). Esta tesis presenta el problema de la conectividad rural y una parte de su contexto. Además, muestra el proceso de investigación que llevó a la solución propuesta, empezando en los algoritmos de enrutamiento para redes de sensores móviles hasta la propuesta final, junto con sus respectivos modelos matemáticos, utilizados para describir estos problemas, sus heurísticas de solución propuestas y sus respectivos resultados.

La ventaja de esta solución es que es una tecnología de bajo costo que usa la infraestructura disponible localmente para llegar hasta las comunidades más remotas. El modelo matemático final describe el problema de transmitir mensajes desde un usuario rural, usualmente desconectado, hacia un nodo conectado a Internet, a través de una red no confiable, usando probabilidades de entrega estimadas que varían con el tiempo. El algoritmo de reenvío usa el conocimiento local recopilado de las interacciones con otros nodos. Este algoritmo aprende cuáles son los nodos que tienen la mayor probabilidad de volverse a encontrar en el futuro, y cuáles son los nodos con mayor probabilidad de entregar los mensajes a su destino. Nuestro algoritmo alcanza un desempe˜no igual o mejor que otros protocolos de enrutamiento para DTN bien conocidos y utilizados, en cuanto a tasa de entrega de mensajes y retardo promedio para entregar los mensajes, cuando se prueban en simulaciones con escenarios de conectividad rural.

Asesor: Yezid Enrique Donoso Meisel

COMIT

Christian Ariza

Asesor: Claudia Lucía Jiménez

COMIT

Ferney Alonso Maldonado Lopez

En lo que se refiere disponibilidad de la red, SDN tiene ventajas importantes. Primero, las configuraciones de red se encuentran disponibles para responder rápidamente a los cambios de la red. Los cambios de la red se pueden dar por mantenimiento planeado, fallas o incidentes. Por esto, la red puede reprogramarse para garantizar una supervivencia del servicio y flexibilidad dinámica a incidentes. Una aproximación tradicional para lograr alta disponibilidad es a través de redundancia. De forma segura, se adapta los mecanismos de protección y se coordinan los mecanismos de resiliencia. Identificamos tres clases de escenarios de falla: el controlador, el controlador del switch y el canal del controlador del switch. Estas vulnerabilidades pueden producir fallas de red. A pesar de que las fallas de red es un campo bien estudiado, desconocemos como las vulnerabilidades de seguridad pueden producir fallas de red y que mecanismos de resiliencia son efectivos contra estas vulnerabilidades. Vamos a tener que diseñar esquemas de resiliencia novedosos y evaluarlos utilizando metricas legitimas como la robustez del grafo. Esta propuesta de investigación esta dirigida a un doble objetivo, por un lado, identificar y modelar las vulnerabilidades de seguridad en SDN, por otro lado, diseñar e implementar mecanismos de resiliencia dinámicos contras fallas.

Asesor: Yezid Enrique Donoso Meisel

COMIT

German Adolfo Montoya Orozco

En una red móvil de sensores inalámbricos (MWSN, por sus siglas en inglés) pueden ocurrir factores ligados al dinamismo de éstas redes que generan retardos no deseados en la transmisión de datos tales como: el movimiento de los sensores, los cuales se encuentran atados a una entidad móvil, generando enlaces de comunicación inestables o total pérdida de conectividad; y el consumo total de la energía disponible en algunos nodos, lo cual causa pérdida de conectividad en ciertas regiones de la red, ocasionando el incremento de retardos para llevar la información desde las fuentes a los destinos. Dados los anteriores factores, se busca proponer un algoritmo de enrutamiento distribuido que garantice los requerimientos de retardo y minimizando el consumo de energía en una MWSN considerando una red dinámica en términos de movimiento de los nodos, consumo de energía y recursos de red. Para lograr lo anterior, el algoritmo usará métodos de predicción de movilidad que permitan estimar futuros estados de la red con el fin de tomar las decisiones de enrutamiento más apropiadas, y así cumplir con los requerimientos de retardo presentes en la red.

Asesor: Yezid Enrique Donoso Meisel

COMIT

Luis Andrés Marentes Cubillos

Se investigaran modelos para optimizar el diseño y funcionamiento de redes de datos, entre los elementos a optimizar se encuentran: uso de energia, retardo. La idea es que se pueden incluir elementos aleatorios dentro de los modelos.

Asesor: Yesid Enrique Donoso Meisel

COMIT

Paula Andrea Lago Martinez

Un ambiente pervasive es un ambiente capaz de anticipar y responder a las necesidades de sus habitantes. Para lograrlo, el ambiente debe ser capaz de aprender los hábitos de quienes los habitan y sus preferencias para poder asistir en su vida diaria. Uno de los problemas identificados para los ambientes pervasive es la alta tasa de falsas alarmas que se pueden generar debido a la incertidumbre de los datos que se recogen y a la falta de contexto en los hábitos aprendidos. En esta tesis se quiere disminuir las falsas alarmas mediante el desarrollo de un método de aprendizaje de patrones de comportamiento sensibles al contexto y el manejo de la incertidumbre de los datos al generar alertas en caso de anormalidades o emergencias para lo que se ha denominado la Vida Asistida (assisted life). Los principales retos en este trabajo son:*¿Cómo representar un patrón que es sensible al contexto?. *¿Qué métodos de aprendizaje pueden ser útiles para prender patrones sensibles al contexto? *¿Cómo se puede lograr este aprendizaje sobre flujos de datos? *¿Cómo se puede disminuir o manejar la incertidumbre de los datos al momento de generar las alertas?.*otros.

Asesor: Claudia Lucía Jiménez Guarín




TICSw

Hector Arturo Florez Fernandez

Los modelos de arquitectura empresarial (EA) permiten representar una empresa que se está estudiantedo y se utilizan para realizar análisis que soportan los procesos de toma de decisiones. Los modelos de EA se crean con base en información obtenida de diferentes tipos de fuentes, que pueden ser insuficientes o la información puede estar incompleta o incorrecta teniendo en cuenta diferentes aspectos de la empresa. Como resultado, los modelos de EA se basan en información de baja calidad que puede no representar la empresa de manera adecuada. El proceso de construcción de estos modelos es iterativo y requiere la creación de modelos incompletos que permiten su refinamiento cuando se obtiene información nueva y correcta. Sin embargo, existen casos donde la información requerida se obtiene de fuentes de información no confiables obteniendo información imprecisa, contradictoria o que no representa de manera adecuada uno o diferentes aspectos de la empresa. Teniendo en cuenta estas condiciones, es poco probable crear un modelo perfecto que representa la empresa de manera adecuada. Es mejor incluir todas las imperfecciones en el modelo que ignorarlas y asumir que el modelo representa la empresa correctamente. Como resultado, se crea una aproximación de un modelo perfecto que puede contener imperfecciones y evidencia acerca de decisiones realizadas por el modelador.

Asesor: Jorge Alberto Villalobos Salcedo

TICSw

Jaime Alberto Chavarriaga Lozano

Mi trabajo de Investigación se enfoca en el área de Arquitecturas de Software y líneas de Producto de Software, donde los procesos de configuración son fundamentales. Muchas veces, satisfacer requerimientos sobre atributos de calidad como rendimiento y seguridad depende de la correcta configuración de los diferentes elementos que componen la solución. Los arquitectos y desarrolladores de software invierten mucho tiempo seleccionando qué elementos y qué opciones de configuración son las apropiadas para un producto. Mi investigación se centra en modelos que apoyen los procesos de configuración , así como en mecanismos automaticos que permitan detectar conflictos que causen que un producto de software no funcione o no satisfaga los requerimientos. Mi asesora interna es Rubby Casallas y mi asesora externa es Vivianne Jonkers, de Universiteit Brussel, Bélgica.

Asesor: Rubby Casallas Gutiérrez

TICSw

Ruben Manrique

Asesor: Olga Mariño Drews




IMAGINE

Alfredo Morales

El síndrome de deficiencia respiratoria aguda (SDRA) se define como un conjunto de manifestaciones clínicas, radiológicas y fisiológicas que se traducen en una intensa inflamación pulmonar y una hiperpermeabilidad pulmonar, en respuesta a diferentes agresiones agudas del parénquima pulmonar. Se estima que los pacientes representan entre el 4 y 5 % de admisiones en reanimación. Su manejo requiere de ventilación asistida, sin embargo la adaptación de la presión a cada caso es delicada y puede constituir un elemento agravante en el caso de ajustes inadecuados. La mortalidad se sitúa entre el 40 y 50% en los adultos diagnosticados con SDRA, y el 25 % de los decesos son atribuidos a la ventilación mecánica debido a volúmenes de aire excesivos.La principal manifestación radiológica es el aumento de la densidad del parénquima pulmonar que puede ser constatado en una radiografía. Su evaluación, con diferenciación espacial – notablemente sobre el plano anterior-posterior – puede ser realizada a partir de imágenes 3D (Tomografía Axial Computarizada, TAC pos sus siglas en Inglés). Sin embargo, la cuantificación exacta de la aireación, a partir de estas imágenes, necesita de contornos manuales que no son compatibles con la urgencia de la elección del tratamiento a seguir. Además, para un paciente que se encuentra en un estado crítico, es preferible encontrar un medio de monitoreo que se puede realizar en cama, en cambio de transportar al paciente hasta el sitio de adquisición de imágenes e ingresarlo al túnel del escáner. El interés se centra sobre todo en la tomografía de impedancia eléctrica (TIE). Esta técnica es fácil de aplicar en la cama del paciente y permite adquirir imágenes dinámicas 2D a una taza del orden de doce imágenes por segundo. Según estudios recientes, esta técnica permite la obtención de imágenes y una medida de ventilación pulmonar por regiones. Sin embargo, los estudios se han realizado sobre personas sanas y aún falta la validación de los casos patológicos. Además las imágenes tienen una resolución espacial baja (un corte de tórax se representa por una matriz de 32×32 píxeles) lo que hace difícil la detección y cuantificación de la lesión pulmonar. Por lo tanto es necesario desarrollar métodos para aprovechar de mejor forma la información espacio-temporal accesible gracias a las imágenes TIE y también validar los resultados con la ayuda de métodos de referencia.Este proyecto propone dos tipos de soluciones. La primera es automatizar tanto como sea posible el análisis de imágenes 3D de escáner torácico CT, con el fin de reducir significativamente los tiempos necesarios para la evaluación del estado del paciente con la ayuda de técnicas convencionales. La segunda es proponer el uso de una técnica de adquisición de imágenes que permita la evaluación y monitoreo en la cama del paciente. Para esto se propone el desarrollo de nuevos métodos de análisis espacio-temporal de secuencias de imágenes. La primera de estas técnicas servirá de referencia para permitir la validación de la segunda en un número suficiente de casos: inicialmente sobre modelos animales (cerdos) y posteriormente sobre pacientes.

Asesor: Marcela Hernández Hoyos

IMAGINE

Diego Andrés Angulo Pabón

Proponer herramientas de visual analytics que permita a los expertos indagar eficientemente sobre grandes volúmenes de datos.

Asesor: Jose Tiberio Hernández Peñaloza

IMAGINE

Duván Alberto Gómez Betancur

El Síndrome de Deficiencia Respiratoria Aguda (SDRA) es una patología pulmonar grave, caracterizada por una pérdida masiva del volumen de aire del parénquima pulmonar y una mortalidad de entre 30% y 50%. Su tratamiento reside en la ventilación artificial, cuyo ajuste de nivel es problemático y no se dispone de una herramienta para seleccionar su valor óptimo el cual sería aquel que sea apropiado para cada paciente en particular.

Asesor: Marcela Hernández Hoyos

IMAGINE

Jhon Alejandro Triana

El objetivo principal de esta tesis doctoral es la inclusión de las dimensiones de calidad de datos en el proceso de planeación urbana mediante la generación de visualizaciones interactivas interesantes con el fin de apoyar el proceso de toma de decisiones. Por lo tanto, esta propuesta considera las visualizaciones interactivas existentes y la propuesta de nuevas visualizaciones con etapas específicas del proceso. Con el fin de lograr el objetivo principal de este proyecto, hay algunas cuestiones a tener en cuenta: la complejidad de los datos y el proceso de toma de decisiones, el dominio del conocimiento de las partes interesadas y evitar la sobrecarga cognitiva cuando se consideran las dimensiones de la calidad.

Asesor: Jose Tiberio Hernández Peñaloza

IMAGINE

Juan Camilo Ibarra López

Asesor: Jose Tiberio Hernández Peñaloza

IMAGINE

Juan Pablo Reyes

En el marco de la próxima gran encuesta fotométrica del Gran Telescopio para Rastreos o Sondeos Sinópticos (LSST), el desarrollo de un software específico está en desarrollo para procesar gran cantidad de imágenes que se recogerán durante 10 años a partir de 2020. Uno de los principales retos de este proyecto es descubrir y seguir a cientos de millones de objetos que aparecen y desaparecen de la imagen: los transitorios, entre las decenas de petabytes de imágenes que se pueden observar. Entre estos transitorios, las supernovas de tipo Ia son una de las principales sondas que ayudarán a determinar los parámetros del modelo cosmológico y especificar la naturaleza de la energía oscura.

El propósito de la tesis es, a partir de un marco ya existente, sugerir optimizaciones o nuevos métodos numéricos para el descubrimiento de objetos transitorios y para la selección de supernovas de tipo Ia en las imágenes de series de tiempo. Este trabajo también se puede proceder a la optimización de la medición fotométrica de objetos descubiertos por los métodos de ajuste de imágenes múltiples. Las imágenes que se van a utilizar para este trabajo será simulaciones para LSST y las imágenes obtenidas con telescopios y cámaras de proyectos actuales o recientes, como el Observatorio Canada, Francia, Hawái (CFHTLS) o el Observatorio de Energía Oscura (DES).

Asesor: Marcela Hernández Hoyos

IMAGINE

Ricardo Antonio Mendoza Leon

Las enfermedades neurodegenerativas son patologías de tejido muerto del cerebro caracterizadas por la degradación o atrofia de la materia del cerebro y el deterioro de las funciones cognitivas. Actualmente, 35.6 millones de personas en todo el mundo se ven afectadas por alguna forma de demencia neurodegenerativa. Algunos ejemplos son la Enfermedades de Alzheimer (AD) y su estado prodrómico: leve deterioro cognitivo (MCI), que progresivamente compromete la memoria y la demencia frontotemporal que altera el comportamiento, cuyos sintomas pueden ser imitados por una condición no demencial que también puede mostrar evidencia de neurodegeneración: el trastorno afectivo bipolar (BAD). Nuestro objetivo es proveer métodos nuevos y útiles asistidos por computador para apoyar el diagnostico de enfermedades neurodegenerativas utilizando una aproximación basada en en recuperación de patologías en neuroimagenes (PBNIR) en imágenes de resonancia magnética estructural (sMRI). PBNIR es una metodología de recuperación de imágenes basada en contenido para consultar y explorar colecciones de datos médicos de acuerdo con la similitud de la enfermedad que permite reducir los problemas actuales en el diagnostico de demencias. Nuestra estrategia se enfoca en crear modelos de representación significativos del contenido de neuroimagenes obtenidas por sMRI, reduciendo la variabilidad e identificando patologías visuales claves, así como señales cuantitativas y la formulación de esquemas computacionales eficaces para cuantificar las similitudes basadas en patologías entre las representaciones. De esta manera, planeamos implementar y evaluar prototipos PBNIR para diagnostico diferencial entre AD, MCI y pacientes sanos provenientes de diferentes bases de datos publicas de AD y entre FTD, BAD y pacientes sanos provenientes de un estudio de comportamiento neurofisiológico que se está realizando en el Hopital Universitario San Ignacio en Bogotá.

Asesor: Marcela Hernández Hoyos