Proyectos

  • DAMASCO – Big Data Mining Using Social Content

    Big Data (Datos Enormes) es el término para referirse al contexto de integración de información móvil, web, social, en la nube y contextualizada. Esta es información semiestructurada o no estructurada, profundamente heterogénea, proveniente de fuentes diversas usualmente autónomas, creciente de forma exponencial y no manipulable de forma efectiva con herramientas tradicionales de gestión de bases de datos.

    La tecnología que la maneja deja de ser transaccional y se crean nuevas tecnologías que permiten su modelaje, almacenamiento, procesamiento, indexación y consulta de datos en gran escala. A nivel de almacenamiento, dicha tecnología se denomina NoSQL de manera general. Se acompaña del uso de infraestructuras de cómputo y almacenamiento en contextos de alta escalabilidad y procesamiento paralelo, estudiados en los contextos de Grid y Cloud Computing. Así mismo, integra técnicas de análisis de contenidos (texto, imágenes, video, documentos, páginas Web, …).

    Leer más
  • MagPie

    Estudio de la problemática de uso del contexto para la gestión de información pertinente y oportuna, de acuerdo con las preferencias y necesidades de los usuarios. Una solución pervasive busca inferir al máximo el contexto en el que ocurre una situación, de forma que la solución computacional se adapte a dicho contexto y el usuario obtenga el mayor beneficio con el mínimo posible de interacción con la aplicación.

    Leer más
  • UnaCloud

    UnaCloud es una implementación a medida del modelo IaaS de cloud computing, capaz de entregar servicios computacionales fundamentales (procesamiento, memoria RAM, almacenamiento, networking) a través del uso oportunista de los recursos de cómputo actualmente disponibles en el Campus de la Universidad de Los Andes.

    Leer más
  • CDCOL

    Herramienta de última generación para soportar el análisis de imágenes satelitales. El manejo de imágenes satelitales representa un gran reto para las instituciones y para la informática en general. Cada 16 días, los satélites de la familia LANDSAT pasan tomando fotografías sobre Colombia. Para cubrir completo el territorio colombiano se necesitan 180 fotografías de en promedio 4 Gigabytes, que habrá que descargar, almacenar, corregir (posición, orientación, condiciones atmosféricas, etc.) y luego si procesar para realizar los análisis que requiere el país.

    Leer más
  • Análisis de Datos a Gran Escala en Supercomputadores

    Desde el surgimiento de las computadoras comerciales, para realizar ciencia, a principios de la década de 1950, el desarrollo en arquitecturas de computadoras científicas, el hardware y software subyacentes se han centrado en el análisis numérico. Es así como se introdujeron los primeros Supercomputadores, los computadores vectoriales (o array processors), en la década de 1970.  Posteriormente, en las últimas décadas, se introducen las supercomputadoras de quinta generación, los clústeres fuertemente acoplados.

    El desarrollo de supercomputadoras centrado en el análisis numérico, dio lugar a las computadoras Giga-escala en 1985, Tera-escala en 1997 y las computadoras Peta-escala en 2008. Sin embargo, el incremento en la tasa de producción de datos generados por estas computadoras e instrumentos científicos asociados, generaron un punto de inflexión en el diseño de los Supercomputadores en el año 2013. Este punto de inflexión, cambió el pensamiento en el diseño de arquitecturas de supercomputadores basadas en análisis numérico hacia el desarrollo de arquitecturas que incorporen capacidades para suplir las necesidades tanto de análisis numérico como de análisis en Big Data que se observó a partir de 2007 en  aplicaciones científicas.

    Leer más