CénitS-COMPUTAEX publications

A Novel Methodology Based on Orthogonal Projections for a Mobile Network Data Set Analysis

Nowadays, networks are at the center of the next industrial revolution. In fact, 5G in a short time will connect people, industries and things, so understanding how the network is performing its critical mission in this new paradigm is a key aspect. Network analytics increases the knowledge of the network and its users, leading the network managers to make smarter, data-driven decisions about the operations that they will execute in the network. In this article, a new methodology is introduced to analyze real data contained in a Call Details Record of a mobile network. With this novel methodology, the extraction of extreme points using the orthogonal projection decrease the complexity of the classification algorithm to obtain key information about network usage. Experimental results show how the proposed methodology selects and classifies network behavior patterns using a simple classification algorithm and how these patterns could be used to find, for instance, anomalies in the network, track human mobility, undertake network planning, detect events in the network, etc.

Fuente de la publicación: 
  • D. Cortés-Polo, L. I. J. Gil, J. Calle-Cancho and J. González-Sánchez. A Novel Methodology Based on Orthogonal Projections for a Mobile Network Data Set Analysis. IEEE Access, vol. 7, pp. 158007-158015, 2019. doi: 10.1109/ACCESS.2019.2949804.

Analysis of Energy Consumption and Optimization Techniques for Writing Energy-Efficient Code

El crecimiento sin precedentes de los dispositivos conectados, junto con la notable convergencia de una amplia variedad de tecnologías, han llevado a un aumento exponencial de los servicios ofrecidos por el Internet de las cosas (IoT, Internet of Things), destinados a mejorar nuestra calidad de vida. Uno de los retos a los que se enfrentan actualmente los investigadores es la reducción del consumo energético, debido a las significativas limitaciones que presentan algunos de estos dispositivos. Además, aunque inicialmente la búsqueda de la eficiencia energética estuvo centrada en el hardware, también se ha convertido en una preocupación para los desarrolladores de software. De hecho, actualmente supone una intensa área de investigación que presenta como objetivo principal el análisis y la optimización del consumo de energía en los sistemas software.

Por ello, esta investigación analiza el ahorro energético que puede obtenerse mediante la utilización de un amplio conjunto de técnicas destinadas a la escritura de código energéticamente eficiente. También demuestra que los programadores pueden ahorrar más energía si aplican manualmente las técnicas propuestas, en lugar de confiar en otras opciones de optimización automática ofrecidas por compiladores como GCC (GNU Compiler Collection). En consecuencia, los autores destacan que los programadores deben ser conscientes del significativo impacto que estas técnicas pueden tener en el consumo de energía de una aplicación.

Fuente de la publicación: 
  • Javier Corral-García, Felipe Lemus-Prieto, José-Luis González-Sánchez and Miguel-Ángel Pérez-Toledano. Analysis of Energy Consumption and Optimization Techniques for Writing Energy-Efficient Code. Electronics 2019, 8, 1192 (21 pages). doi:10.3390/electronics8101192.

Análisis de costes del despliegue de una arquitectura de red basada en SDN/NFV

En los últimos años, el incremento exponencial del tráfico de datos móviles unido al despliegue de nuevos servicios sobre las redes actuales, han propiciado que los operadores de red busquen nuevas tecnologı́as para adaptarse. Entre éstas, destacan especialmente las redes definidas por software (SDN) y la virtualización de funciones de red (NFV), como dos de las tecnologı́as que se ajustan a la naturaleza dinámica de las redes de próxima generación. Dado que la migración a estas nuevas tecnologı́as conlleva un coste elevado para los operadores, éstos buscan soluciones que ofrezcan un aumento de las capacidades de la red, reduciendo lo máximo posible los costes de infraestructura (CAPEX) y los costes de operación (OPEX).

Este trabajo desarrolla un análisis y evaluación de costes sobre la Red Cientı́fico Tecnológica de Extremadura (RCT), de forma que se puedan cubrir las necesidades de las redes de próxima generación, reduciendo costes y proporcionando agilidad en el despliegue de sus servicios.

Fuente de la publicación: 
  • Jesús Calle‐Cancho, David Cortés‐Polo, Javier Carmona‐Murillo, José‐Luis González‐Sánchez and Francisco‐Javier Rodríguez‐Pérez. Análisis de costes del despliegue de una arquitectura de red basada en SDN/NFV. XIV Jornadas de Ingeniería Telemática (JITEL 2019), Zaragoza, octubre 2019.

Efficiency Analysis in Code Development for High-Performance Computing Centers

La computación de alto rendimiento (HPC, High-Performance Computing) se ha convertido en una herramienta indispensable para resolver proyectos de gran complejidad que de otra forma no podrían ser abordados. Sin embargo, desarrollar programas paralelos que aprovechen realmente sus beneficios, mediante un uso adecuado y eficiente de los recursos disponibles, resulta complicado para usuarios noveles o investigadores de ramas de la ciencia muy alejadas de la programación informática.

Con el objetivo de ayudar a estos usuarios y lograr mejores rendimientos en centros HPC, en CénitS se ha desarrollado un transcompilador para la paralelización automática de códigos secuenciales. Los esfuerzos actuales se centran en ampliar dicho transcompilador con un módulo adicional para la optimización de códigos secuenciales y paralelos, con el objetivo de acelerar sus tiempos de ejecución. Para ello, se evaluaron diversas técnicas para la escritura de código eficiente,  con el fin de ser integradas en el transcompilador en el futuro. De este modo, este trabajo discute la importancia de estas técnicas para disminuir los tiempos de ejecución de los programas HPC. Además, muestra un conjunto de pruebas desarrolladas para analizar y medir las mejoras obtenidas al aplicar cada una de las técnicas, consiguiendo todas ellas un significativo impacto en los tiempos de ejecución.

Fuente de la publicación: 
  • Javier Corral-García, José-Luis González-Sánchez, and Miguel-Ángel Pérez-Toledano. 2019. Efficiency Analysis in Code Development for High Performance Computing Centers. In Proceedings of the Seventh International Conference on Technological Ecosystems for Enhancing Multiculturality (TEEM 2019) (León, Spain, October 16-18, 2019), ACM, New York, NY, USA, pp 539-547. https://doi.org/10.1145/3362789.3362865.

Gestión de la seguridad de las comunicaciones para entornos de HPC en centros de supercomputación

La búsqueda de la eficiencia por parte de los centros de supercomputación para adaptarse a las necesidades de los usuarios, en cuanto a los recursos de cómputo, está llevando a integrar múltiples tecnologı́as que deben convivir de forma heterogénea, de manera que la gestión de los recursos, ası́ como, la seguridad de la infraestructura de cómputo se está volviendo más compleja que en los escenarios tradicionales. En este marco, tecnologı́as como las redes definidas por software o la virtualización de funciones de red están siendo adoptadas como mecanismos que facilitan la gestión de las comunicaciones, y como soluciones que introducen un buen número de herramientas a la hora de gestionar la seguridad de los clústers de computación. En este trabajo se describen las principales caracterı́sticas de la evolución de estas redes de comunicaciones y su aplicación a la seguridad de la información y las comunicaciones de un centro de cómputo, de forma que se expone un ejemplo de uso donde se aplican estas tecnologı́as de nueva generación para detectar y mitigar un problema de seguridad mediante funciones de red virtualizadas desplegadas en contenedores.

Fuente de la publicación: 

David Cortés-Polo, Felipe Lemus-Prieto, Jesús Calle-Cancho, Luis Ignacio Jiménez y José-Luis González-Sánchez. Gestión de la seguridad de las comunicaciones para entornos de HPC en centros de supercomputación. Avances en Arquitectura y Tecnología de Computadores, Actas de las Jornadas SARTECO 2019. Cáceres, España. 18-20 septiembre, 2019. ISBN: 978-84-09-12127-4. pp 437-443.

Medición de overheads para el uso eficiente de recursos en centros de computación de alto rendimiento

El desarrollo de códigos para su ejecución en infraestructuras de computación de alto rendimiento (HPC, High-Performance Computing) puede resultar una ardua tarea para científicos que no son expertos en programación paralela, pero que necesitan estas infraestructuras para el desarrollo de sus investigaciones. A menudo intentan ejecutar sus códigos utilizando tantos núcleos como sea posible, sin considerar el overhead asociado, creyendo, en muchos casos erróneamente, que de ese modo obtendrán antes sus resultados, con el consecuente e innecesario gasto que esto puede suponer en términos de tiempo, energía y recursos. Éste es un problema común en los centros de HPC, donde las decisiones de planificación eficiente y el ahorro energético se convierten en desafíos clave que afrontar diariamente. Para ayudar a resolverlos, se presenta un método de medición de overhead, centrado en la eficiencia, para analizar los efectos producidos, tanto por el incremento del número de cores de ejecución, como por la planificación paralela escogida en cada caso.

Fuente de la publicación: 

Javier Corral García, José Luis González Sánchez y Miguel Ángel Pérez Toledano. Medición de overheads para el uso eficiente de recursos en centros de computación de alto rendimiento. Avances en Arquitectura y Tecnología de Computadores, Actas de las Jornadas SARTECO 2019. Cáceres, España. 18-20 septiembre, 2019. ISBN: 978-84-09-12127-4. pp 326-333.

High Performance Computing, Big Data, and Cloud Computing: The Perfect De Facto Trio or Converging Technological Mantras?

Actualmente, existe una creciente necesidad de avanzar en las estrategias que dirigen el crecimiento y el avance de las empresas y la industria. Así, resulta clave la utilización de métodos que consigan su adaptación al progreso, esencial para el éxito de estas organizaciones.

La transformación organizativa y la innovación de la gestión en la Cuarta Revolución Industrial proporcionan conocimientos sobre la gestión de los avances y la implementación de estrategias para adaptarse a estos cambios. Por ello, el libro "Organizational Transformation and Managing Innovation in the Fourth Industrial Revolution" editado por la Profesora Alicia Guerra de la Universidad de Extremadura, y publicado por IGI Global, cubre diversos aspectos centrados en el crecimiento de las empresas y cómo éstas cambian junto con la economía y la infraestructura, al mismo tiempo que examina, tanto el compromiso social, como el ciberperiodismo y la innovación educativa, estando orientado a gerentes, consultores, académicos, investigadores y profesionales.

Varios ingenieros de CénitS han colaborado en la elaboración de un capítulo dedicado a Computación de Alto Rendimiento (HPC, High-Performance Computing), Big Data y Cloud Computing, tres paradigmas básicos de alta complejidad que, por separado o convergentes, están consolidando una revolución que está cambiando el mundo y ofreciendo oportunidades a todos aquellos que están dispuestos a adaptarse a los cambios de la revolución digital. 

Fuente de la publicación: 
  • González-Sánchez, J., Calle-Cancho, J., Cortés-Polo, D., Jiménez Gil, L., & López-Rourich, A. (2019). High Performance Computing, Big Data, and Cloud Computing: The Perfect De Facto Trio or Converging Technological Mantras?. In A. Guerra Guerra (Ed.), Organizational Transformation and Managing Innovation in the Fourth Industrial Revolution (pp. 165-182). Hershey, PA: IGI Global. doi:10.4018/978-1-5225-7074-5.ch009

Estudio y análisis de nuevos mecanismos para redes inalámbricas de próxima generación haciendo uso de técnicas de computación de altas prestaciones

En los últimos años, las redes inalámbricas han experimentado un gran desarrollo debido al aumento exponencial de dispositivos móviles. Además, según varios informes de las principales empresas del sector TIC, se prevé que el volumen de tráfico de datos se multiplique por 1000 en el año 2020. Por ello, se están realizando avances en la infraestructura de red existente para dar cobertura a la creciente demanda de capacidad que se producirá en un futuro cercano, considerando despliegues de celdas de cobertura muy densos en las redes de próxima generación (5G).

Además, están apareciendo numerosos mecanismos para incrementar la capacidad de la red, como por ejemplo mejorar la eficiencia espectral con técnicas avanzadas de modulación y codificación, mejorar las condiciones de interferencia dentro de una celda mediante el uso de tecnologı́as avanzadas en la antena (Beamforming) o mejorar el número de enlaces entre un transmisor y un receptor a través del uso de tecnologı́as de multiplexación (MIMO), entre otros. No todos estos mecanismos son rentables desde el punto de vista económico, ya que, normalmente, los costes de infraestructura de red se incrementan de manera lineal en relación al número de estaciones base desplegadas. Por ello, los operadores de comunicaciones buscan soluciones que ofrezcan un aumento de la capacidad de red, reduciendo al máximo posible los costes de infraestructura (CAPEX) y los costes para mantenerla operativa (OPEX). Conseguir un equilibrio entre el despliegue eficiente de las estaciones base y los costes asociados a dicho despliegue no es una tarea sencilla, por lo que aparece la necesidad de elevada capacidad de cómputo como la que proporcionan los centros de supercomputación.

Por ello, este proyecto propone un estudio y un análisis del despliegue de mecanismos de nivel fı́sico, considerando cuál es el grado de influencia sobre los niveles superiores, desde el punto de vista del rendimiento y de los costes económicos asociados a los despliegues llevados a cabo.

Fuente de la publicación: 

José Javier Rico Palomo, Javier Carmona Murillo y Jesús Calle Cancho. Estudio y análisis de nuevos mecanismos para redes inalámbricas de próxima generación haciendo uso de técnicas de computación de altas prestaciones. Trabajo de Fin de Grado en Ingeniería Telemática de la Universidad de Extremadura. Noviembre de 2018.

Sistema Ciberfísico para la Optimización de una Explotación Agropecuaria

El desarrollo de la agricultura, comparada con otras áreas, se encuentra retrasado y avanza lentamente. Además, en los próximos años deberá enfrentarse al reto de abastecer a una población mundial en crecimiento al mismo tiempo que se disminuyen las hectáreas cultivables por persona. Esto implica que se debe aumentar considerablemente la productividad.

Para ello, se debe aspirar a una gestión de los cultivos de manera innovadora, profesional y de máxima producción, sobre la base de la observación, la medida y la actuación frente a los datos que se puedan extraer.

Los avances en la ciencia y el desarrollo tecnológico han permitido la implementación de sensores que, junto con la aparición de otras tecnologías como el Big Data y el Internet de las Cosas han hecho posible el avance de las técnicas de agricultura de precisión.

Aunque la incorporación de la agricultura inteligente en las etapas del ciclo de producción (preparación del suelo, siembra, gestión de los cultivos, cosecha y almacenamiento del producto final) presenta numerosas ventajas, sigue en etapa de gestación, con bajos niveles de penetración.

Este Trabajo de Fin de Grado pretende desarrollar un sistema ciberfísico que mediante el uso de sensores, dispositivos y una aplicación informática, permitirá obtener información detallada del cultivo del suelo y de variaciones climáticas más específicas que las técnicas de agricultura tradicional.

Fuente de la publicación: 
  • Juan Francisco Bermejo, José Luis González y Félix R. Rodríguez. Sistema Ciberfísico para la Optimización de una Explotación Agropecuaria. Trabajo de Fin de Grado en Ingeniería Informática en Ingeniería del Software de la Universidad de Extremadura. Noviembre de 2018.

A New Role for Supercomputing Centers in Open Science

In the last decades an exponential increase of the scientific and technical development in all the areas of science has become manifest, being more and more relevant the conflicts between the pure scientific advance of the society and the property of the researched knowledge. Particularly the brake that certain aspects of the established system suppose in the acquisition of some findings. The ever demanding scientific community aims for new platforms and services up to date in order to diminish the inconveniences that have arisen due this same growth. The guidelines provided by the Open Science (OS), despite being a concept already discuss for some time, set out the perfect framework for the creation of new applications and platforms in which the research centers might take over from the responsibility exercised so far by the publishers to allocate resources for disclosure and distribution without replace them. In particular Open Access (OA), Open Data (OD) and Open Methodologies (OM) are the guidelines that can fit the most in the current tasks performed by supercomputing and research centers where availability, reliability and security are concepts well implemented already and can be very powerful skills to them in order to step in the spotlight in this new framework which is OS. In the other hand, while universities and publishers can be tempted by recognition and self promotion at the time of deciding whether a job can benefit them or not, the public supercomputing centers, that are already providing services for both private and public projects, working in the same direction and as a set, could be considered more objectives. In this paper it is proposed a path to follow by the supercomputing centers, within the framework of European Open Science, to share resources with the aim of providing an adequate infrastructure for the development of scientific research, adding to their current competences the ability to become neutral ground for scientific disclosure.

Fuente de la publicación: 

Luis Ignacio Jiménez, Jesús Calle-Cancho, David Cortés-Polo and José Luis González Sánchez. A New Role for Supercomputing Centers in Open Science. IBEGRID 2018. Lisbon, Portugal. October 2018.

Implementación de un Sistema para el Control de Consumos Energéticos en Entornos HPC

El propósito de este proyecto es la monitorización de trabajos ejecutados sobre el supercomputador LUSITANIA II. Debido a la gran relevancia que posee la correcta administración de los recursos disponibles en el supercomputador, obtener la capacidad de gestionar sus recursos de forma inteligente se ha convertido en una actividad prioritaria.

Por tanto, la aportación de este proyecto ha sido desarrollar una herramienta integrando diferentes programas / herramientas, cuyo funcionamiento conjunto tiene como objetivo facilitar al usuario final una correcta extracción, realización de gráficos y tratamiento de los datos obtenidos. Para ello se han utilizado programas como: Slurm, empleado como extractor de datos de los trabajos del Lusitania II y Grafana, cuyo uso ha sido como motor gráfico. En cuanto al lenguaje de programación principalmente empleado ha sido Python, debido a las facilidades que proporciona en cuanto a tratamiento con matrices y, a la gran comunidad de usuarios de carácter OpenSource que posee.

Cabe destacar que la eficiencia energética es cada vez más importante en la administración de recursos, debido principalmente a los costes derivados de los enormes requerimientos exigidos por los sistemas de cómputo avanzado. En este ámbito la capacidad de registrar el consumo individual de los trabajos lanzados en un supercomputador abre las puertas a un número importante de opciones de gestión. Es evidente la importancia del aspecto económico a la hora de consumir la energía estrictamente necesaria con el objetivo de ofrecer un servicio eficiente.

La organización de la memoria de este proyecto consta de una primera sección, la Introducción, en la cual se detallan los pasos seguidos en la elaboración de este trabajo. La segunda sección consta de los objetivos de nuestro trabajo detallándose todas las metas que se desea alcanzar. La siguiente sección, el Estado del Arte, actualiza los conocimientos sobre las herramientas/técnicas previas que existen en el sector. Tras esto, en la siguiente sección del trabajo se detalla la Metodología empleada, en la cual se explica todo el proceso de planificación que se ha ido siguiendo, con el objetivo de cubrir todas las partes de manera correcta y que en ninguna parte escasee el tiempo para su desarrollo. Por otro lado, la sección de Implementación muestra todo lo relacionado con el desarrollo de la propia herramienta descrita previamente. La sección de Resultados y discusión, recopila los resultados obtenidos en cada fase de la sección de Implementación y proporciona un balance general sobre la calidad de los datos con respecto a la calidad esperada. La última parte del trabajo trata las Conclusiones y trabajos futuros proporcionando un comentario final sobre el proyecto y proponiendo varias líneas de trabajos futuros con los cuales se podrán aumentar las funcionalidades de la herramienta creada. Tras esto, encontramos las secciones de Referencias Bibliográficas y de Anexos. La primera de ellas es una recopilación de todos los enlaces de aquellas páginas/libros/artículos y otros proyectos que se han consultado en busca de información y de ayuda para este proyecto. Y, la segunda, a su vez se divide en un primer anexo el cual agrupa todo el código mostrado a lo largo del proyecto y el segundo, trata de un manual de usuario, donde se explica cómo proceder con las herramientas utilizadas en el proyecto.

Fuente de la publicación: 

Manuel José Casillas, José Luis González y Miguel Ángel Vega. Implementación de un Sistema para el Control de Consumos Energéticos en Entornos HPC. Trabajo de Fin de Grado en Ingeniería Informática en Ingeniería de Computadores de la Universidad de Extremadura. Septiembre de 2018.

Mecanismos de Monitorización y Análisis de Tráfico en Redes de Próxima Generación

Currently, communication networks are formed by a heterogeneous set of technologies and protocols in constant evolution, characterized by a great complexity. The current network protocols provide a great performance and reliability, increase the connectivity and the security but each protocol solves a specific problem without a global abstraction.

To solve this problem and to simplify the network management, a new trend called Software Defined Networking (SDN) has emerged. It’s a new network architecture based on the separation between the data plane functions and control plane functions of the network infrastructure, making the management, evolution and operation simplified by adding centralized software approaches.

Due to the expected evolution of networks towards the SDN architecture and the importance of monitoring systems in the management and maintenance of networks, it is necessary to review the classic mechanisms for monitoring network traffic and end devices computing to adapt them to this new scenario.

This project analyzes the new monitoring mechanisms that are currently being proposed for this type of networks, as well as the development of an application for granular monitoring of network data flows and graphical representation of metrics integrated within of the SDN paradigm.

With the development of this prototype, computing and network traffic will be analyzed by means of the data acquired in the network and the performance of the set of data metrics will be represented in real time graphs, which will be the entry requirements to subsequently establish quality of service (QoS) and security policies in the next generation networks.

Fuente de la publicación: 
  • Daniel González Sánchez, Javier Carmona Murillo y David Cortés Polo. Mecanismos de Monitorización y Análisis de Tráfico en Redes de Próxima Generación. Trabajo de Fin de Grado en Ingeniería en Telemática de la Universidad de Extremadura. Septiembre de 2018.

Compilador source-to-source, para la paralelización automática de códigos secuenciales, orientado a la gestión eficiente de recursos en centros de Computación de Alto Rendimiento

La Computación de Alto Rendimiento supone una potente herramienta para dar solución a proyectos de elevada complejidad que de otra forma no podrı́an ser afrontados. Sin embargo, desarrollar programas paralelos que aprovechen sus beneficios, haciendo un uso adecuado y eficaz de los recursos de cómputo disponibles, resulta complejo para investigadores, de diversas ramas de la ciencia, que no presentan experiencia previa en la programación paralela. Por ello, se ha desarrollado un transcompilador que, mediante aprendizaje supervisado, entrenado con la ayuda de un sistema de apoyo a la toma de decisiones, persigue equilibrar el uso eficiente de los recursos en este tipo de centros, con la necesidad de sus usuarios de obtener resultados en tiempos adecuados, mediante la paralelización automática de códigos secuenciales enfocada a la formación de nuevos usuarios en el ámbito de la programación paralela.

Fuente de la publicación: 

Javier Corral García, José Luis González Sánchez y Miguel Ángel Pérez Toledano. Compilador source-to-source, para la paralelización automática de códigos secuenciales, orientado a la gestión eficiente de recursos en centros de Computación de Alto Rendimiento. Avances en arquitectura y tecnología de computadores, actas de las Jornadas SARTECO 2018. Teruel, España. 12-14 septiembre, 2018. ISBN: 978-84-09-04334-7. pp 321-328. 

Análisis de un sistema de gobierno para federaciones de centros de procesamiento de datos con computación de alto rendimiento

En los últimos años, las Tecnologías de la Información y la Comunicación (TIC) se han convertido en parte de la sociedad, cambiando múltiples aspectos como la forma de vida, las relaciones o el desempeño de la actividad profesional. La denominada Sociedad de la Información o del Conocimiento está fuertemente influenciada por la aparición de los servicios en la nube (Cloud Computing). Dichos servicios, que se proporcionan a través de Internet a los usuarios finales, se ofrecen desde centros de procesamiento de datos.

En un Centro de Procesamiento de Datos (CPD) se concentran todos los recursos necesarios para el tratamiento de los datos y convertirlos en información útil. El CPD debe garantizar la continuidad y disponibilidad del servicio a clientes y empleados, de tal modo que es muy importante la protección de los equipos de comunicaciones, servidores y equipos de almacenamiento que puedan contener información sensible.

Las organizaciones, conscientes del valor que posee la información para la subsistencia del negocio o la investigación, reparan en la importancia de tener un CPD que garantice la disponibilidad y la seguridad de su activo más valioso.

Históricamente, los criterios de diseño del CPD se basaban, principalmente, en la disponibilidad, el rendimiento y la seguridad, lo que suponía un sobredimensionamiento de todos los componentes del CPD y un uso ineficiente, económica y energéticamente, de los recursos. En la actualidad, el enfoque principal de este tipo de centros busca los mismos criterios citados anteriormente pero desde una gestión óptima de los recursos disponibles para aumentar su eficiencia económica y energética. Para lograrlo es imprescindible un dimensionamiento adecuado de todas sus infraestructuras, además de mecanismos como la consolidación y virtualización de servidores, redes y equipos electrónicos.

El objetivo principal de este Trabajo Fin de Máster es maximizar la eficiencia económica y energética de los equipos informáticos y de climatización de CPDs, mediante el desarrollo de un sistema inteligente para gestionar una federación de CPDs.

Para alcanzar este objetivo fue necesario, en primer lugar, la realización de un estudio y análisis sobre CPDs, el paradigma cloud computing y el estado del arte de las federaciones de CPDs. A continuación se procedió a diseñar y desplegar la infraestructura necesaria para la federación y los servicios de gestión de la misma en CénitS utilizando la plataforma OpenNebula.

Los principales resultados de este proyecto fueron los siguientes: 

  • Ampliación de conocimientos sobre cloud computing.
  • Despliegue de infraestructuras cloud en OpenNebula.
  • Aprendizaje de lenguaje de programación Ruby; implementación de un sistema de gobierno inteligente en CénitS.
Fuente de la publicación: 
  • Javier Rubio Bravo. Análisis de un sistema de gobierno para federaciones de centros de procesamiento de datos con computación de alto rendimiento. Trabajo Final de Máster en Ingeniería de Telecomunicación, Universidad de Extremadura. 2017.

Evaluación de la movilidad IP y posibilidades de integración en redes programables 5G

En los últimos años, la generalización de los dispositivos de comunicaciones inalámbricos y el desarrollo de multitud de servicios y aplicaciones han hecho que las redes inalámbricas y móviles se hayan convertido en la parte más atractiva y dinámica en el acceso de los usuarios a las tecnologías de la información y las comunicaciones (TIC). Según las previsiones de las principales empresas del sector, se espera que el tráfico de datos en este tipo de redes se multiplique casi por 10 en el año 2020 y que tres cuartas partes de todo este tráfico sea tráfico multimedia. Un requerimiento fundamental para poder dar soporte a este crecimiento de datos en las redes de próxima generación es el de la gestión eficiente de la movilidad de los usuarios. Por tanto, es necesario diseñar nuevas técnicas que permitan mantener las conexiones activas en situaciones cambiantes.

Tanto la industria como la academia coinciden en que el motor de los sistemas 5G estará basado en software, recayendo el funcionamiento de la red en mecanismos emergentes. Uno de ellos es el de las redes definidas por software (SDN) con el que se espera conseguir el rendimiento esperado, escalabilidad y agilidad en la red.

La integración de las SDN con las redes troncales y, sobre todo con redes de centros de cómputo, es un campo de investigación abierto a propuestas innovadoras, principalmente, en el caso de redes de baja latencia, elevado ancho de banda y baja sobrecarga de CPU como InfiniBand, por ello se analizará este importante aspecto.

En este proyecto, se propone el estudio y análisis de los mecanismos de gestión de la movilidad e integración con otras tecnologías, basados en el paradigma SDN a través de un entorno de emulación de la red en el que sea posible probar el rendimiento de las soluciones con distintas configuraciones de tráfico, topología, modelos de movimiento de los usuarios, etc.

Como resultado del estudio y análisis inicial de soluciones existentes el autor propone una solución propia: SDN Redirection-based DMM (SR-DMM), cuyas principales características son las siguientes:

  • Mayor flexibilidad ya que no requiere de dispositivos especializados para la gestión de la movilidad.
  • Se puede implementar en dispositivos genéricos.
  • Permite el desarrollo del protocolo a través de programación.
  • Mejora el Coste de Entrega de Paquetes y elimina el Coste de Tunneling.
Fuente de la publicación: 
  • José Manuel Mendoza Rubio. Evaluación de la movilidad IP y posibilidades de integración en redes programables 5G. Trabajo de Fin de Grado en Ingeniería Telemática, Universidad de Extremadura. Septiembre de 2017.

Deployment of next generation services in the Scientific and Technological Network of Extremadura

With the continuous development of network communications over the past few years, the achievement of an efficient orchestration and network management has revealed as one of the major challenges in next-generation networks environments. Furthermore, advances in mobile technologies and the user-driven growth of an increasingly diverse range of services has triggered the requirements to create a new generation of efficient network management mechanisms and architectures able to support these new mobile technologies, services and applications. The configuration and installation of traditional networks require a high degree of knowledge because many network elements have to be treated. Moreover the interactions between networks nodes (switches, routers, etc) are complex. Most cloud applications are distributed and often involve significant network activity to perform their operations. Network operators and service and product providers require a new network solution to efficiently for supporting the increasing demands of this changing network landscape.

Software Defined Networking (SDN) has emerged as an efficient network approach capable of supporting the dynamic nature of the next-generation networks. Integrated with this approach, Network Function Virtualization (NFV) has also emerged as an important opportunity in telecommunications service provisioning for providing an optimization of network functions and resources.

The importance of these approaches is that SDN and NFV has a potential to lead to important reductions in capital expenditures (CAPEX) and operating expenditures (OPEX), which facilitate the deployment of new services. For this reason, the virtualization has emerged to decouple the software networking processing and applications from it hardware, allowing network services to be implemented as a software.

In this project, an approach is proposed in order to reduce the impact of NFV, SDN and Cloud-RAN on the total cost (TCO) of Extremadura Scientific Technological Network (RCT). A techno-economic model is presented providing a technical and economic vision. Moreover, a qualitative and quantitative analysis is established to evaluate the benefits and disadvantage of these emergent technologies.

The quantitative model is used to perform experiments which show a significant cost reduction when virtualization mechanisms are applied on radio access networks. The performed analysis reveals that the proposed architecture provides important CAPEX, OPEX and TCO savings. The experimental results obtained from the comparison between the traditional case and the virtualized case show that:

  • CAPEX for the virtualized radio access network can be reduced up to 70 percent with respect to the traditional case.
  • In comparison with traditional radio access network, the OPEX for the virtualized radio access network can be reduced up to 59 percent.
  • The TCO for the virtualized architecture can be reduced up to 68 percent.
  • The cost reduction increases when the number of virtual slices grows.
  • The cost savings are greater when the EPC is virtualized.
Fuente de la publicación: 
  • Jesús Calle Cancho. Deployment of next generation services in the Scientific and Technological Network of Extremadura. Trabajo Final de Máster Universitario en Dirección TIC, Universidad de Extremadura. Julio de 2017.

HPC Services to Characterize Genetic Mutations Through Cloud Computing Federations

One child in every 200 births may be affected by one of the approximately 6,000 monogenic diseases discovered so far. Establishing the pathogenicity of the mutations detected with NGS (Next-Generation Sequencing) techniques, within the sequence of the associated genes, will allow Precision Medicine concept to be developed. However, sometimes the clinical significance of the mutations detected in a genome may be uncertain (VUS, Variant of Uncertain Significance) which prevents the development of health measures devoted to personalize individuals' treatments. A VUS pathogenicity can be inferred thanks to evidences obtained from specific types of NGS studies. Therefore the union of supercomputing through HPC (High-Performance Computing) tools and the cloud computing paradigm (HPCC), within a Data Center federation environment offers a solution to develop and provide services to infer the pathogenicity of a set of VUS detected in a genome, while guaranteeing both the security of the information generated during the whole workflow and its availability.

Fuente de la publicación: 

Performance Evaluation of Distributed Mobility Management Protocols: Limitations and Solutions for Future Mobile Networks.

Mobile Internet data traffic has experienced an exponential growth over the last few years due to the rise of demanding multimedia content and the increasing number of mobile devices. Seamless mobility support at the IP level is envisioned as a key architectural requirement in order to deal with the ever-increasing demand for data and to efficiently utilize a plethora of different wireless access networks. Current efforts from both industry and academia aim to evolve the mobility management protocols towards a more distributed operation to tackle shortcomings of fully centralized approaches. However, distributed solutions face several challenges that can result in lower performance which might affect real-time and multimedia applications. In this paper, we conduct an analytical and simulated evaluation of the main centralized and proposed Distributed Mobility Management (DMM) solutions. Our results show that, in some scenarios, when users move at high speed and/or when the mobile node is running long-lasting applications, the DMM approaches incur high signaling cost and long handover latency.

Fuente de la publicación: 

Future Trends in Mobile-Fixed Integration for Next Generation Networks: Classification and Analysis

In recent years, the growth the in the number of heterogeneous interconnected systems, as well as the emergence of new requirements in applications and services are progressively changing the original simplicity and transparency of the Internet architecture. When this architecture was designed, the main goal was to interconnect stationary host. Therefore, the appearance of mobile communications has made necessary to adapt traditional protocols in order to accommodate mobile users. This implies a new interaction between the mobile network and the fixed access network. This paper describes the main IP mobility protocols both centralized and distributed paradigms, and emergent approaches based on software defined networking. Moreover, a novel classification is presented, which relates the integration of the mobility protocol with the access network. Analytical models evaluate the registration updates cost and the packet loss rate of the classified protocols.

Fuente de la publicación: 

Towards automatic parallelization of sequential programs and efficient use of resources in HPC centers

High-Performance Computing (HPC) is becoming increasingly required by scientists of all branches in order to achieve their desired research results. However, carrying out their research in an HPC center can be a difficult task when they are new to parallel programming. These users need support in the parallelization and optimization of their codes, in order to obtain reliable results as well as make efficient use of the available resources. For this purpose, a novel code analyzer for automatic parallelization of sequential codes is presented, focused on resource management of a supercomputing center, where efficient scheduling decisions and energy saving become key challenges. Thus, this paper aims to introduce the analyzer so as to demonstrate the importance of using it, specially in terms of efficiency, when running parallel codes in HPC centers.

Fuente de la publicación: 

Javier Corral-García, José-Luis González-Sánchez and Miguel A. Pérez-Toledano. Towards Automatic Parallelization of Sequential Programs and Efficient Use of Resources in HPC Centers. Proceedings of the 2016 International Conference on High Performance Computing & Simulation. IEEE HPCS 2016. Innsbruck, Austria. July 18-22, 2016. ISBN: 978-1-5090-2087-4, electronic ISBN: 978-1-5090-2088-1. pp 947-954. DOI: 10.1109/HPCSim.2016.7568436

Diseño de un sistema de gestión por procesos de negocio en CénitS/COMPUTAEX

Hoy en día, es un hecho innegable que las organizaciones están inmersas en mercados y entornos globalizados; entorno donde cualquier organización que desee tener éxito, o, al menos, sobrevivir, necesita obtener buenos resultados empresariales.

Para lograr estos buenos resultados comerciales, las organizaciones necesitan gestionar adecuadamente su actividades y recursos para alinearlos con los objetivos de negocio, lo que ha desembocado en la necesidad de utilizar herramientas y metodologías que permitan a las organizaciones configurar su sistema de gestión.

Existen diferentes estándares internacionales para la implantación de sistemas de gestión en las organizaciones, tales como ISO 9000, ISO 20000 o EFQM (Fundación Europea de Gestión de la Calidad), pero todos ellos poseen un elemento en común, todos proponen implementar dichos sistemas a través de un enfoque basado en procesos. Un enfoque basado en procesos permite organizar y gestionar las actividades de la organización más eficientemente con el fin de generar más valor para los clientes y demás partes interesadas.

El objetivo principal de este Trabajo Fin de Máster era el diseño e implementación de un sistema de gestión de una organización basado en procesos, tomando como ejemplo real una organización de TI, CénitS. Para, a continuación, optimizar los procesos implicados con el fin de mejorar el rendimiento (eficiencia y efectividad) de la organización. Además, este trabajo buscaba servir de ejemplo práctico para la implementación y optimización de un sistema de gestión por procesos.

Para alcanzar estos objetivos fue necesaria, en primer lugar, la realización de un estudio y análisis de la organización. Como resultado de dicho análisis, se identificaron y clasificaron los procesos internos más relevantes de la organización, en este caso CénitS. El siguiente paso consistió en el estudio de diferentes alternativas para la gestión y optimización de los procesos en organizaciones de TI, 
profundizando en la Gestión de Procesos de Negocio como principal estrategia para la implementación y optimización de procesos.
Finalmente se seleccionó la herramienta de software Bonita BPM para realizar el diseño y la implementación de aquellos procesos clasificados como clave dentro de la organización con el fin de automatizarlos y optimizarlos. 

Los principales resultados de este proyecto fueron los siguientes:

  • Definición y clasificación de procesos CénitS.
  • Mayor conocimiento del funcionamiento interno de la organización.
  • Avances en la implementación de la gestión de procesos en CénitS.
  • Aprendizaje de marcos de gestión, estándares y mejores prácticas en TI.
  • Automatización de procesos clave.
  • Implementación de herramientas para el diseño, simulación y optimización de procesos.
  • Ejemplo práctico de un sistema de gestión de procesos.
Fuente de la publicación: 
  • Felipe Lemus Prieto. Diseño de un sistema de gestión por procesos de negocio en CénitS/COMPUTAEX. Máster Universitario en Dirección TIC, Universidad de Extremadura. Febrero de 2016.

Despliegue de un testbed de redes definidas por software para la gestión de recursos de red en un CPD

El aumento de los dispositivos móviles y los contenidos, la virtualización de servidores, y la llegada de los servicios en la nube son algunas de las tendencias que impulsan a la industria del networking a reexaminar las arquitecturas de red tradicionales. El modelo de red predominante hoy en día no está optimizado para satisfacer los requerimientos actuales y futuros de los operadores de telecomunicaciones, empresas y usuarios finales. La mayor parte de las redes convencionales presentan una arquitectura estática inadecuada para los requisitos actuales, como, por ejemplo, las necesidades de almacenamiento de los centros de datos empresariales. Al reconocer el problema, la comunidad del networking trabaja para desarrollar nuevos modelos de red que se adapten mejor a los requisitos que son necesarios para los nuevos servicios y aplicaciones.
 
En los últimos años, una de las tendencias tecnológicas que ha suscitado mayor interés en los fabricantes son las Redes Definidas por Software (SDN). Este concepto no es nuevo y completamente innovador sino que surge como el resultado de contribuciones ideas y avances en la investigación de redes. La idea de una red que pueda programarse, y no simplemente configurarse, ha sido ya aplicada por numerosos fabricantes, pero con la limitación de que todas las iniciativas habían sido propietarias.

El objetivo general de este trabajo Fin de Máster fue llevar a cabo la implementación y evaluación de una red SDN (Software Defined Network). Para ello se realizaron las siguientes actividades:

  • Estudio profundo de los principios básicos de SDN.
  • Conocer diferentes controladores SDN para tomar una decisión sobre cuál de ellos es el más apropiado para usar en el desarrollo del proyecto.
  • Evaluación de la funcionalidad y el rendimiento del controlador.
  • Desarrollo e implementación de una SDN en un entorno virtual y en uno real.
  • Evaluación de las implementaciones mencionadas anteriormente.

Este proyecto ha permitido verificar que las redes SDN proporcionan una nueva forma de utilizar las redes. Aunque las redes definidas por software pueden tener una estructura similar a las redes tradicionales, la diferencia radica en el hecho que es en el controlador donde se toman las decisiones relacionadas con el tráfico de red mientras que en las redes tradicionales estas decisiones se toman en los dispositivos de red.
 

Fuente de la publicación: 
  • Laura Amarilla Cardoso. Despliegue de un testbed de redes definidas por software para la gestión de recursos de red en un CPD. Trabajo Final de Máster en Ingeniería de Telecomunicación, Universidad de Extremadura. Diciembre de 2015.

Gestión de la movilidad en redes de transporte de paquetes para la mejora de la calidad de servicio en la convergencia entre las redes fijas y móviles

Durante el año 2015, se presentó esta tesis doctoral, realizada por David Cortés, Administrador de redes y comunicaciones de CénitS, y dirigida por José Luis González Sánchez, Director General de la Fundación COMPUTAEX.

La gestión de la movilidad y la Calidad de Servicio (QoS) son dos de los objetivos más importantes en el presente y futuro desarrollo de las redes inalámbricas. En los últimos años, el incremento de los sistemas interconectados a la red de datos, y la aparición de nuevos dispositivos, servicios y aplicaciones han modificado la simplicidad y transparencia con la que se ideó Internet de manera progresiva, así como la organización tradicional de las redes. Además, se están desarrollando nuevos servicios y aplicaciones que requieren de una red de gran capacidad, no sólo en el dominio inalámbrico, sino también en la red que interconecta a los dispositivos móviles con Internet. Es por esto que tanto la industria como la comunidad científica están trabajando en la búsqueda de la convergencia fija/móvil (FMC). La principal motivación de esta convergencia es la integración y creación de una infraestructura unificada de redes fijas y móviles. En esta infraestructura convergente, los usuarios podrán moverse entre las diferentes redes y acceder a los servicios de manera transparente.

Para conseguir esta convergencia, diversas funciones de red deben ser implementadas de manera uniforme, independientemente del tipo de acceso que se utilice (fijo o móvil). Esto implica diversos retos como: optimizar la gestión del tráfico, mejorar la organización de los dispositivos para mantener la dirección IP entre la red fija y la móvil, así como mantener la QoS en la comunicación.

Por lo tanto, la integración de redes heterogéneas para la convergencia de los dos paradigmas fijo y móvil, de manera transparente, se consigue a través del despliegue de arquitecturas basadas en IP. Gracias a este despliegue, y al desarrollo de protocolos de gestión de la movilidad basados en IP como Mobile IP (MIP) o Proxy Mobile IP (PMIP) se consigue que la integración sea más sencilla al estar ambas redes basadas en el mismo protocolo de red, aunque todavía existen ciertos retos que deben ser acometidos como la QoS o la optimización de la gestión del tráfico para que se reduzca la pérdida de paquetes y la señalización debido a la integración.

Para hacer frente a estos retos se ha propuesto una nueva arquitectura que unifica ambas redes y gestiona la QoS en la red fija y móvil usando un protocolo de gestión de la movilidad basado en IP, que se integra con el protocolo de la red fija basado en MPLS-TP (Multi-Protocol Label Switching Transport Profile), usado en las redes de transporte de paquetes (PTN). La arquitectura propuesta es llamada Integrated Proxy Mobile MPLS-TP (IPM-TP) y está diseñada para proporcionar el mayor nivel de convergencia y gestionar la QoS de las comunicaciones, favoreciendo el despliegue de una red fija/móvil completamente integrada, aun cuando la movilidad del nodo móvil sea alta.

Además, se presenta un estudio de los avances recientes y trabajos relacionados en los protocolos de gestión de la movilidad, describiendo su interacción con la red de acceso, en el que se realiza un estudio cualitativo de los mismos.

Para evaluar la propuesta se han realizado análisis y simulaciones que miden el rendimiento de los protocolos en términos de costes de movilidad, latencia de handover y parámetros de QoS.

Fuente de la publicación: 
  • David Miguel Cortés Polo. Gestión de la movilidad en redes de transporte de paquetes para la mejora de la calidad de servicio en la convergencia entre las redes fijas y móviles. Tesis Doctoral, Universidad de Extremadura. Noviembre de 2015.

Performance and energy aware scheduling simulator for HPC: evaluating different resource selection methods

Hoy en día, en una sociedad preocupada por el ahorro energético, la planificación de los trabajos de supercomputación es una tarea muy importante para los administradores de las infraestructuras TI, pues tienen que asegurar que exista un compromiso entre el rendimiento de la infraestructura y un posible ahorro de consumo.

En este trabajo se presenta un simulador para computación de alto rendimiento, que junto con nuevos algoritmos, permiten a los administradores de los centros de cálculo a tomar decisiones sobre una base experimental sólida y robusta. Las simulaciones realizadas han demostrado la utilidad del simulador para este tipo de estudios y para la realización de comparativas entre diferentes algoritmos de planificación, incluyendo los algoritmos multiobjetivo.
 

Fuente de la publicación: 
  • Gómez-Martín, C., Vega-Rodríguez, M. A., and González-Sánchez, J.-L. (2015) Performance and energy aware scheduling simulator for HPC: evaluating different resource selection methods. Concurrency Computat.: Pract. Exper., doi:10.1002/cpe.3607.

Análisis de imágenes en profundidad en terapias de rehabilitación supervisadas por robots autónomos

En un futuro cercano la interacción y el contacto entre humanos y robots se transformarán en algo cotidiano. Pero, antes de alcanzar dicho futuro, es imprescindible la realización de investigaciones que permitan establecer y diseñar algoritmos de tal modo que los robots puedan realizar tareas de forma completamente autónoma. Entre estas tareas, destacan aquellas orientadas a la mejora de la salud de las personas como es el caso de liderar terapias de recuperación física.

En este Trabajo Fin de Máster se ha diseñado, desarrollado e implementado un sistema que permite realizar una sesión de terapia jugando al popular juego Simon Dice, pero con la particularidad de que quien dirige el juego es un robot que indica los movimientos que se han de realizar. Este sistema está especialmente diseñado para las personas mayores, ya que se trata de un grupo poblacional muy numeroso y que necesita realizar ejercicios supervisados de cara a mejorar su calidad de vida.

Con la finalidad de entrenar y validar el sistema, se ha creado una Base de Datos con datos en 3D de 20 personas realizando una serie de ejercicios específicos, así como las diferentes características extraídas de los mismos. Los resultados experimentales obtenidos muestran que es posible el reconocimiento de los distintos tipos de ejercicios realizados por el paciente, lo cual es fundamental para el desarrollo del juego.

Fuente de la publicación: 
  • Eva María Mógena Cisneros. Análisis de imágenes en profundidad en terapias de rehabilitación supervisadas por robots autónomos. Trabajo Final de Máster en Ingeniería de Telecomunicación, Universidad de Extremadura. Septiembre de 2015.

Green Code, Energy Efficiency in the Source Code for High-Performance Computing

Energy consumption is a key challenge in HPC (High-Performance Computing). Nowadays, as far as software is concerned, optimizations for energy saving are usually implemented at different levels, with an obvious lack of proposals so that the user could directly write energy-efficient code. This proposal aims to contribute to source code optimization so as to achieve optimal performances and maximum efficiencies in their executions, demonstrating the importance of certain strategies in creating code.
 

Fuente de la publicación: 

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez. Green Code, Energy Efficiency in the Source Code for High-Performance Computing. Sistemas y Tecnologías de la Información, Actas de la 10ª Conferencia Ibérica de Sistemas y Tecnologías de la Información, Vol. II. CISTI 2015. Águeda, Aveiro, Portugal. 17-20 junio 2015. ISBN: 978-989-98434-5-5. pp 61-64.

TaxonomTIC: Situación de un sector clave en Extremadura

La edición 2014 de TaxonomTIC es un subproyecto enmarcado dentro del proyecto Cenital 2, cuyo objetivo principal consiste en seguir analizando el impacto y el futuro del sector TIC (Tecnologías de la Información y la Comunicación) de forma objetiva: estableciendo una comparativa del sector en la región, respecto de España y Europa, estudiando y analizando la visión del sector a través de los responsables técnicos más cualificados, y desarrollando una plataforma Open Data que contiene todos los datos extraídos durante los años 2013 y 2014. 

El documento con los resultados más destacables así como la memoria del proyecto, pueden consultarse a continuación:

Aplicación de técnicas Big Data a la predictibilidad de flujos de tráfico urbano en Ciudades Inteligentes

Aplicación de técnicas Big Data a la predictibilidad de flujos de tráfico urbano en Ciudades Inteligentes, es un subproyecto de CENITAL 2, que persigue la continuidad del trabajo desarrollado en el proyecto Eco-trafic, con el objetivo de poner a disposición de las ciudades extremeñas servicios de Cloud Computing y Big Data para una gestión eficaz, eficiente y sostenible del tráfico rodado. 

Estirpex-2

Estirpex-2 es un subproyecto de CENITAL 2, que persigue la continuidad del trabajo desarrollado en el proyecto Estirpex, mediante el estudio, desarrollo y despliegue de servicios para sectores económicos relevantes en la región que puedan beneficiarse de la tecnología de secuenciación genética masiva (NGS, Next-Generation Sequencing), apoyada en el uso de la supercomputación.

Proposal and analysis of integrated PTN architecture in the mobile backhaul to improve the QoS of HetNets

David Cortés Polo, José Luis González Sánchez, Javier Carmona Murillo, Franciso J. Rodríguez Pérez.
Proposal and analysis of integrated PTN architecture in the mobile backhaul to improve the QoS of HetNets.
EURASIP Journal on Wireless Communications and Networking. April 2015. 
DOI:10.1186/s13638-015-0341-2

 

Análisis y evaluación experimental de protocolos de gestión de la movilidad basados en IPv6

Jesús Calle-Cancho, David Cortés-Polo, Javier Carmona-Murillo, José-Luis González-Sánchez, and Francisco-Javier Rodríguez-Pérez, "Análisis y evaluación experimental de protocolos de gestión de la movilidad basados en IPv6", in Proc. IADIS Ibero-American Conference on WWW/Internet 2014, pp. 35-42, October 2014. ISBN: 978-989-8704-12-2. Eds. C. Costa, L.B. Martínez, F. M. Santoro, P. Isaias. Oporto, Portugal.

PedigreeX: Gestión Automatizada de Pedigrís Humanos en Consejo Genético

El Consejo Genético es una de las actividades propias de la Genética Clínica y consiste en un proceso comunicativo para informar, educar y dar soporte a individuos y familias que tienen una enfermedad genética o el riesgo de tenerla. El Consejo Genético les brinda a los pacientes información acerca de su enfermedad y les ayuda a tomar decisiones informadas. Un aspecto fundamental en dicho Consejo Genético es la generación y análisis del Pedigrí del paciente afecto, pero la carencia de una herramienta automatizada para ello complica la labor del especialista. Tras identificar las necesidades de los propios genetistas de nuestra región se han analizado diferentes herramientas, ya desarrolladas, para trabajar con Pedigrís tanto de carácter privativo como libre (Cyrillic, Progeny Clinical, GRAMPS, Madeline 2.0 PDE, GenoPro, PED, PELICAN, etc.), y ninguna de ellas integra totalmente las necesidades de los especialistas.

Para solventar esta carencia y mejorar la eficiencia en su trabajo diario de Consejo Genético, se ha desarrollado una herramienta de software libre y de escritorio, la cual:

  • Da soporte para la elaboración de los diagramas de Pedigrí de los pacientes, de manera sencilla, siendo lo más fiel posible a la notación estándar para su representación (PSWG, Pedigree Standardization Work Group) y permitiendo el estudio de varias patologías en un mismo diagrama.
  • Permite su almacenamiento y gestión, dentro del marco legal de la Ley Orgánica 15/1999, de 13 de diciembre, de protección de datos de carácter personal (LOPD), debido a los datos clínicos que se van a tratar.
  • Se ha estudiado la posibilidad de incluir algunos aspectos de análisis de Pedigrí, como el cálculo de probabilidades de que se desarrollen patologías.
Fuente de la publicación: 
  • Noelia Alonso Sánchez. PedigreeX: Gestión Automatizada de Pedigrís Humanos en Consejo Genético. Trabajo Final de Máster en Ingeniería Informática, Universidad de Extremadura. Septiembre de 2014.

Estudio y evaluación de los mecanismos de gestión de la movilidad en redes de próxima generación

With the continuous development of mobile communications and Internet technology, one of the major challenges is to achieve e_cient mobility management in wireless networks.IP mobility management is a key function that allows mobile nodes to continue their communications even when their point of attachment to the IP network changes. Internet protocols do not support mobility and wireless networking does not provide reliable connections to mobile users for real-time communications.

For this reason, the Internet Engineering Task Force (IETF) developed various protocols for IP mobility management such as Mobile IPv6 (MIPv6) and Proxy Mobile IPv6 (PMIPv6). These protocols employ a centralized mobility management scheme where all intelligence is concetrated in one end-point system, rather than being distributed through the internet. However, centralized mobility solutions are prone to several problems and limitations: longer (sub-optimal) routing paths, scalability problems, signaling overhead,.. This motivates Distributed Mobility Management (DMM) whose purpose is to overcome the limitations of the traditional centralized mobility management.

We focus on DMM approach that is currently being considered by the IETF: PMIPv6 based DMM. The possibility of testing scenarios for these latest technologies is essential to analyze and implement proposals to optimize and verify the results of researches.

An analysis of distributed mobility management has been carried out with this project: designing and con_guring testbeds, con_guring protocols and devices, analyzing critical process (handover) and analyzing exchange messages.

Moreover, a proposal has been developed for improving tunneling management in Distributed Mobility Management called TE-DMM (Tunneling Extension to Distributed Mobility Management), based in the improvement of control plane (signaling). In conclusion, TE-DMM will conduct an e_cient management of control plane.

Fuente de la publicación: 
  • Jesús Calle Cancho. Estudio y evaluación de los mecanismos de gestión de la movilidad en redes de próxima generación. Trabajo Final de Máster en Ingeniería Informática, Universidad de Extremadura. Septiembre de 2014.

Propuesta y análisis de viabilidad de un sistema automatizado de diagnóstico e investigación aplicado a la tecnología de ultra-secuenciación genética en un centro de supercomputación

Dentro de toda la gama de experimentos de secuenciación genética que la tecnología actual permite llevar a cabo, el más utilizado por los genetistas es el de resecuenciación genética. Es en sus dos últimas fases donde la bioinformática puede ser de gran ayuda, ya que se requiere la correcta orquestación de una serie de elementos software para la obtención de información genética de alto nivel, que sea útil para el diagnóstico e investigación de enfermedades cuyo origen es genético.

Con el desarrollo de este trabajo se ha llevado a cabo un estudio de viabilidad, con el objetivo de saber:

  • La tecnologíıa necesaria para que un especialista que secuencia una muestra biológica logre obtener todos los datos requeridos para su investigación o diagnóstico.
  • La organización y los requisitos necesarios a tal efecto.
  • El coste derivado del proceso.

Desde el punto de vista del procesamiento de la información:

  • Se han analizado aquellos tratamientos de secuencias genéticas que permitan un automatismo y una mejora de la eficacia en los análisis de estas, utilizando HPC (High Performance Computing). Se ha proporcionado a los especialistas el nivel de aplicabilidad requerido para su trabajo.
  • Se ha tenido en cuenta el tratamiento personalizado que debe aplicarse a las secuencias genéticas en materia de seguridad de la información.
Fuente de la publicación: 
  • Manuel Alfonso López Rourich. Propuesta y análisis de viabilidad de un sistema automatizado de diagnóstico e investigación aplicado a la tecnología de ultra-secuenciación genética en un centro de supercomputación. Trabajo Final de Máster universitario en investigación, Universidad de Extremadura. Septiembre de 2014.

Green Code

Green Code es un subproyecto de Cenital, cuyo objetivo principal persigue un desarrollo de código fuente eficiente, partiendo de la propia eficiencia energética de los dispositivos tecnológicos sobre los que se ejecuta dicho código.

Dicha eficiencia debe ser un importante factor a tener en cuenta durante el despliegue de cualquier sistema. La supercomputación de altas prestaciones es un buen ejemplo de ello, debido al elevado consumo energético que conlleva.

Estirpex

Estirpex es un subproyecto de Cenital, cuyo objetivo principal persigue la creación de una plataforma online que permita el acceso a un repositorio piloto de datos históricos y clínicos de ciudadanos de Extremadura y profundizar en el estudio de enfermedades hereditarias a los profesionales del ámbito sanitario, a través de la obtención y análisis de variaciones en la secuencia genética del exoma de las personas representadas, obtenida mediante tecnologías NGS (Next-Generation Sequencing).

TaxonomTIC: Taxonomía del sector TIC en Extremadura

TaxonomTIC es un subproyecto de Cenital, cuyo objetivo principal consiste en identificar qué son las Tecnologías de la Información y la Comunicación (TIC), los elementos que las componen, describirlos y clasificarlos, para poder estudiar su impacto en Extremadura y generar una fuente de información adicional, que permita conocer qué profesionales, empresas u organismos se encuentran relacionados con este sector y cuáles se apoyan en dichas entidades para ofrecer servicios TIC.

Optimización de la red de acceso conmutada para provisión de QoS a dispositivos móviles mediante programación lineal

La gestión del movimiento y la calidad de servicio (QoS) son dos de los puntos claves en el desarrollo tanto presente como futuro de las redes inalámbricas. Estas tareas no sólo involucran al dominio de la red inalámbrica sino que la red de acceso que interconecta los nodos móviles con Internet también tiene capacidad para mejorar las comunicaciones. Este campo de investigación es conocido como Convergencia Fija-Móvil (FMC). El objetivo de esta convergencia es la integración y la creación de una infraestructura unificada de las redes cableadas e inalámbricas. En esta infraestructura convergente, los usuarios pueden moverse y saltar de una red a otra sin interrupción. En este Trabajo Final de Máster, se ha presentado un estudio de los avances recientes y campos de investigación abiertos en los protocolos de movilidad en conjunción con redes de acceso basadas en MPLS (Multi-Protocol Label Switching), los cuales se plantean ser integrados en una única arquitectura como infraestructura convergente. También se describe una nueva aproximación para optimizar los recursos de la red de acceso. Este algoritmo de optimización permite organizar los nodos móviles que van a permanecer estáticos durante largos periodos de tiempo y planificar el resto de la red de acceso para atender las peticiones del resto de nodos móviles que se están moviendo. Para ello se han usado trazas de movimientos de usuarios reales analizando un periodo de diez horas.

Fuente de la publicación: 
  • David Miguel Cortés Polo. Optimización de la red de acceso conmutada para provisión de QoS a dispositivos móviles mediante programación lineal. Trabajo Final de Máster Universitario en Investigación, Universidad de Extremadura. Noviembre de 2014.

Propuesta y análisis de viabilidad de un servicio asistencial para la disposición de ultra-secuenciación genética en un centro de supercomputación

Este trabajo surge del proyecto de la Fundación COMPUTAEX “Ultrasecuenciación genética mediante técnicas de supercomputación con LUSITANIA”, en donde se procesan secuencias genéticas procedentes de pacientes de la región para estudiar enfermedades hereditarias y desarrollar tratamientos médicos personalizados.

La motivación para el desarrollo del Trabajo vino dada principalmente por la capacidad de aportar valor (en forma de servicios) a ciertos sectores de la región de Extremadura, gracias al desarrollo de las tecnologías de secuenciación de siguiente generación (NGS), y con el apoyo de infraestructuras de supercomputación dadas por el supercomputador LUSITANIA.

Gracias a ello, se consiguió la capacidad de poder llevar a cabo un flujo de trabajo general que permitiera la aportación de valor a los usuarios de los servicios propuestos, por el uso de los experimentos que un secuenciador de esas características puede realizar. También se realizó un análisis de viabilidad para comprobar la posibilidad de implantar los servicios propuestos para la región.

Fuente de la publicación: 
  • Manuel Alfonso López Rourich. Propuesta y análisis de viabilidad de un servicio asistencial para la disposición de ultra-secuenciación genética en un centro de supercomputación. Trabajo Final de Máster Universitario en Investigación, Universidad de Extremadura. Noviembre de 2014

Testbed para el análisis del impacto de la movilidad en redes de acceso

Javier Carmona-Murillo, David Cortés-Polo, Pedro Rodríguez-Cubero, Francisco-Javier Rodríguez-Pérez, José-Luis González-Sánchez. Testbed para el análisis del impacto de la movilidad en redes de acceso. Actas de las Jornadas de Ingeniería Telemática 2013 (JITEL 2013), pp. 357-363. Granada, 28-30 de Octubre de 2013. ISBN-10: 84-616-5597-4. ISBN-13: 978-84-616-5597-7.

Performance and Energy Aware Scheduling Simulator for High-Performance Computing

César Gómez-Martín, Miguel A. Vega-Rodríguez, José-Luis González-Sánchez, Javier Corral-García y David Cortés-Polo. Performance and Energy Aware Scheduling Simulator for High-Performance Computing. 7th IBERGRID 2013, Conference Proceedings. Madrid, España. 19-20 de septiembre 2013. ISBN: 978-84-9048-110-3. pp 17-29.

Aplicabilidad de la Reutilización de Código a la Implementación de Soluciones en Entornos HPC

Javier Corral-García, José-Luis González-Sánchez, César Gómez-Martín y David Cortés-Polo. Aplicabilidad de la Reutilización de Código a la Implementación de Soluciones en Entornos HPC. Sistemas y Tecnologías de la Información, Actas de la 8ª Conferencia Ibérica de Sistemas y Tecnologías de la Información, Vol. II. CISTI 2013. Lisboa, Portugal. 19-22 junio 2013. ISBN: 978-989-98434-0-0. pp 359-362.

Development of Scientific Applications with High-Performance Computing through a Component-Based and Aspect-Oriented Methodology

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez and David Cortés-Polo. Development of Scientific Applications with High-Performance Computing through a Component-Based and Aspect-Oriented Methodology. International Journal of Advanced Computer Science, Vol. 3, No. 8, Pp. 400-408, Aug., 2013.

Enhancing PTN to Improve the QoS Provided by the IP Mobility Management

David Cortés-Polo, José-Luis González-Sánchez, Javier Carmona-Murillo, Fco. Javier Rodríguez-Pérez, Javier Corral-García. Enhancing PTN to Improve the QoS Provided by the IP Mobility Management. 2013 World Conference on Information Systems and Technologies (WorldCIST'13). Algarve, Portugal, Marzo 27-30, 2013. ISBN: 978-3-642-36980-3.

Metodología y Framework para el Desarrollo de Aplicaciones Científicas en Entornos HPC

Se trata de un proyecto ambicioso de complejidad muy notable, con una propuesta trabajada desde un marco teórico y publicada en diversos artículos en congresos de ámbito internacional. Dicha propuesta pretende cubrir las necesidades detectadas y aportar nuevas soluciones sobre los desafíos abiertos en la computación de alto rendimiento, mediante la creación de una metodología y un framework basados en componentes y orientados a aspectos, para el desarrollo de aplicaciones científicas en entornos de computación de alto rendimiento, HPC (High-Performance Computing). El objetivo es permitir a investigadores y usuarios generar sus programas de manera más eficiente, con mayor confianza en su funcionalidad y alcanzando destacables reducciones de tiempo, esfuero y coste, mediante la reutilización de componentes con códigos paralelos ya desarrollados y probados previamente.

Numerosas investigaciones de diversa índole se enfrentan continuamente a desafíos realmente críticos que requieren un especial protagonismo por parte de la computación de alto rendimiento. Actualmente, la paralelización de sus códigos suele ser el primer problema que afrontan los usuarios a la hora de compenzar a uitlizar HPC. En algunos casos, la propia tarea de crear los códigos secuenciales ya es complicada para expertos de determinadas ramas de la ciencia que poco o nada tienen que ver con la programación informática. Cuando además estos usuarios se ven obligados a hacer uso de la potencia que ofrece la computación de alto rendimiento, la curva de aprendizaje se endurece, aumentando las dificultades para conseguir dar solución a los problemas planteados. Uno de los retos más importantes a los que se enfrentan la creación de aplicaciones científicas y el desarrollo en HPC es, precisamente, la carencia de entornos de programación que permitan generar código de forma eficiente.

La experiencia ha demostrado que sería muy útil para investigadores y usuarios de computación de alto rendimiento, seguir una metodología concreta y un framework que facilitasen el desarrollo de sus códigos y aplicaciones. Sin embargo, existe una patente falta de enfoques que presenten metodologías específicas o entornos de trabajo óptimos, obligándoles a afrontar los desafíos que supone la utilización de estos computadores. En un amplio número de casos, estos usuarios no tienen la formación previa y las habilidades necesarias para hacerlo o únicamente desean compilar sus códigos y ejecutarlos lo antes posbile. En ocasiones, esto acaba siendo contraproducente en términos de eficiencia, dado que acaban teniendo que esperar más tiempo para obtener el resultado final, debido a la elección de un modelo incorrecto de programación o incluso a una arquitectura software errónea, por no hablar de errores en la propia paralelización de códigos inicialmente secuenciales.

Este trabajo de investigación fue realizado por Javier Corral García y dirigido por José Luis González Sánchez para la obtención del Diploma de Estudios Avanzados en la Universidad de Extremadura.

Fuente de la publicación: 
  • Javier Corral García. Metodología y Framework para el Desarrollo de Aplicaciones Científicas en Entornos HPC. Diploma de Estudios Avanzados, Universidad de Extremadura. Diciembre de 2012.

Development of Pattern-Based Scientific Applications for High-Performance Computing

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez y David Cortés-Polo. "Development of Pattern-Based Scientific Applications for High-Performance Computing". Proceedings of 6th Iberian Grid Infrastructure Conference, IBERGRID '12. 6th Iberian Grid Infrastructure Conference, Lisboa, Portugal. 7-9 de Noviembre de 2012. ISBN: 978-989-98265-0-2. pp 147-158.

Implementación del modelo cloud computing en un centro de supercomputación

El cloud computing se ha convertido en uno de los principales ejes de la investigación y la innovación en el sector de las TIC en los últimos años; el impacto generado por este modelo de servicio es comparable únicamente a la revolución generada por la llegada de internet durante los años 90. En CénitS surge la necesidad de investigar este nuevo paradigma, analizar el modelo de negocio y valorar la posibilidad de incorporarlo dentro de su catálogo de servicios.

En este trabajo fin de máster realizado por Jaime Rivero Ramos y codirigido por José Luis González Sánchez se analiza el estado actual del cloud computing y su influencia en el ámbito estratégico de la economía, estableciendo las motivaciones por las que una entidad pública cualquiera (y en particular para la Fundación COMPUTAEX) valora dar el salto hacia la oferta de este servicio en la modalidad de IaaS (Infraestructure as a Service).

Para ello, se desarrolla un informe que comprende la visión empresarial en términos estratégicos con la metodología seguida para la inserción de este nuevo modelo de negocio en la entidad. El enfoque genérico permite aplicar los resultados a cualquier empresa, abordando cómo y por qué comenzar a ofrecer servicios de cloud computing en el contexto socio-económico y político actual. El estudio también analiza diversas soluciones desde el punto de vista técnico (análisis de las posibles herramientas, modo de implantación y puesta en producción) para proporcionar servicios en la infraestructura de CénitS.

Por último, se incluye un estudio del funcionamiento de CénitS bajo el nuevo modelo de trabajo, detallando el impacto económico, operacional y las nuevas oportunidades de negocio para la Fundación COMPUTAEX.

Fuente de la publicación: 
  • Jaime Rivero Ramos. Implementación del modelo cloud computing en un centro de supercomputación. Trabajo Final de Máster en Dirección TIC, Universidad de Extremadura.

Sistema de vigilancia tecnológica para un centro de supercomputación

La investigación, el desarrollo tecnológico y la innovación son factores críticos en las organizaciones a la hora de determinar su crecimiento económico, nivel de bienestar y competitividad internacional. La normalización y certificación de estas actividades aportan calidad a los procesos productivos, generando mayor confianza en los clientes y mejores productos y servicios. En este trabajo fin de máster se presenta una pequeña introducción enfocada a comprender qué es un sistema de vigilancia tecnológica, cómo debe implementarse e implantarse en una organización para que sea eficaz y los distintos procesos que un sistema de vigilancia tecnológica debe incluir.

También se analizan las necesidades de la Fundación COMPUTAEX para diseñar e implantar un sistema de vigilancia tecnológica que permita mejorar sus capacidades de innovación y competitividad. Este estudio finalizará con el desarrollo de una primera versión funcional de la herramienta tecnológica sobre la que se apoyarán los procesos de vigilancia tecnológica de la Fundación y su implantación en la infraestructura de CénitS.

Fuente de la publicación: 
  • Javier Lázaro Jareño. Sistema de vigilancia tecnológica para un centro de supercomputación. Trabajo Final de Máster en Dirección TIC, Universidad de Extremadura. Noviembre de 2012.

Methodology and Framework for the Development of Scientific Applications with High-Performance Computing through Web Services

Javier Corral-García, David Cortés-Polo, César Gómez-Martín y J.L. González-Sánchez. "Methodology and Framework for the Development of Scientific Applications with High-Performance Computing through Web Services". EATIS 2012, 6th Euro American Conference on Telematics and Information Systems. Valencia, España. 23-25 Mayo 2012. ISBN: 978-1-4503-1012-3. pp 173-180. DOI: 10.1145/2261605.2261631

Performance Study of Hyper-Threading Technology on the LUSITANIA Supercomputer

César Gómez-Martín, José-Luis González-Sánchez, Javier Corral-García, Ángel Bejarano-Borrega, Javier Lázaro-Jareño: "Performance Study of Hyper-Threading Technology on the LUSITANIA Supercomputer". Ibergrid 2010. ISBN 978-84-9745-549-7. 12 páginas. Braga, Portugal. Mayo de 2010. DOI: 10.4272/978-84-9745-549-7.ch5

La supercomputación como herramienta para lograr la excelencia en la Investigación y en la Innovación Tecnológica

César Gómez-Martín, Javier Corral-García, José Luis González-Sánchez, Ángel Bejarano-Borrega, Javier Lázaro-Jareño: "La Supercomputación como Herramienta para Lograr la Excelencia en la Investigación y en la Innovación Tecnológica". I Jornadas de Jóvenes Investigadores. Xtrelan'10. ISBN 978-84-693-1707-5. Cáceres. Abril de 2010.