Publicaciones CénitS-COMPUTAEX

High Performance Computing, Big Data, and Cloud Computing: The Perfect De Facto Trio or Converging Technological Mantras?

Actualmente, existe una creciente necesidad de avanzar en las estrategias que dirigen el crecimiento y el avance de las empresas y la industria. Así, resulta clave la utilización de métodos que consigan su adaptación al progreso, esencial para el éxito de estas organizaciones.

La transformación organizativa y la innovación de la gestión en la Cuarta Revolución Industrial proporcionan conocimientos sobre la gestión de los avances y la implementación de estrategias para adaptarse a estos cambios. Por ello, el libro "Organizational Transformation and Managing Innovation in the Fourth Industrial Revolution" editado por la Profesora Alicia Guerra de la Universidad de Extremadura, y publicado por IGI Global, cubre diversos aspectos centrados en el crecimiento de las empresas y cómo éstas cambian junto con la economía y la infraestructura, al mismo tiempo que examina, tanto el compromiso social, como el ciberperiodismo y la innovación educativa, estando orientado a gerentes, consultores, académicos, investigadores y profesionales.

Varios ingenieros de CénitS han colaborado en la elaboración de un capítulo dedicado a Computación de Alto Rendimiento (HPC, High-Performance Computing), Big Data y Cloud Computing, tres paradigmas básicos de alta complejidad que, por separado o convergentes, están consolidando una revolución que está cambiando el mundo y ofreciendo oportunidades a todos aquellos que están dispuestos a adaptarse a los cambios de la revolución digital. 

Fuente de la publicación: 
  • González-Sánchez, J., Calle-Cancho, J., Cortés-Polo, D., Jiménez-Gil, L., & López-Rourich, A. (2019). High Performance Computing, Big Data, and Cloud Computing: The Perfect De Facto Trio or Converging Technological Mantras?. In A. Guerra Guerra (Ed.), Organizational Transformation and Managing Innovation in the Fourth Industrial Revolution (pp. 165-182). Hershey, PA: IGI Global. doi:10.4018/978-1-5225-7074-5.ch009

Estudio y análisis de nuevos mecanismos para redes inalámbricas de próxima generación haciendo uso de técnicas de computación de altas prestaciones

En los últimos años, las redes inalámbricas han experimentado un gran desarrollo debido al aumento exponencial de dispositivos móviles. Además, según varios informes de las principales empresas del sector TIC, se prevé que el volumen de tráfico de datos se multiplique por 1000 en el año 2020. Por ello, se están realizando avances en la infraestructura de red existente para dar cobertura a la creciente demanda de capacidad que se producirá en un futuro cercano, considerando despliegues de celdas de cobertura muy densos en las redes de próxima generación (5G).

Además, están apareciendo numerosos mecanismos para incrementar la capacidad de la red, como por ejemplo mejorar la eficiencia espectral con técnicas avanzadas de modulación y codificación, mejorar las condiciones de interferencia dentro de una celda mediante el uso de tecnologı́as avanzadas en la antena (Beamforming) o mejorar el número de enlaces entre un transmisor y un receptor a través del uso de tecnologı́as de multiplexación (MIMO), entre otros. No todos estos mecanismos son rentables desde el punto de vista económico, ya que, normalmente, los costes de infraestructura de red se incrementan de manera lineal en relación al número de estaciones base desplegadas. Por ello, los operadores de comunicaciones buscan soluciones que ofrezcan un aumento de la capacidad de red, reduciendo al máximo posible los costes de infraestructura (CAPEX) y los costes para mantenerla operativa (OPEX). Conseguir un equilibrio entre el despliegue eficiente de las estaciones base y los costes asociados a dicho despliegue no es una tarea sencilla, por lo que aparece la necesidad de elevada capacidad de cómputo como la que proporcionan los centros de supercomputación.

Por ello, este proyecto propone un estudio y un análisis del despliegue de mecanismos de nivel fı́sico, considerando cuál es el grado de influencia sobre los niveles superiores, desde el punto de vista del rendimiento y de los costes económicos asociados a los despliegues llevados a cabo.

Fuente de la publicación: 

José Javier Rico Palomo, Javier Carmona Murillo y Jesús Calle Cancho. Estudio y análisis de nuevos mecanismos para redes inalámbricas de próxima generación haciendo uso de técnicas de computación de altas prestaciones. Trabajo de Fin de Grado en Ingeniería Telemática de la Universidad de Extremadura. Noviembre de 2018.

Sistema Ciberfísico para la Optimización de una Explotación Agropecuaria

El desarrollo de la agricultura, comparada con otras áreas, se encuentra retrasado y avanza lentamente. Además, en los próximos años deberá enfrentarse al reto de abastecer a una población mundial en crecimiento al mismo tiempo que se disminuyen las hectáreas cultivables por persona. Esto implica que se debe aumentar considerablemente la productividad.

Para ello, se debe aspirar a una gestión de los cultivos de manera innovadora, profesional y de máxima producción, sobre la base de la observación, la medida y la actuación frente a los datos que se puedan extraer.

Los avances en la ciencia y el desarrollo tecnológico han permitido la implementación de sensores que, junto con la aparición de otras tecnologías como el Big Data y el Internet de las Cosas han hecho posible el avance de las técnicas de agricultura de precisión.

Aunque la incorporación de la agricultura inteligente en las etapas del ciclo de producción (preparación del suelo, siembra, gestión de los cultivos, cosecha y almacenamiento del producto final) presenta numerosas ventajas, sigue en etapa de gestación, con bajos niveles de penetración.

Este Trabajo de Fin de Grado pretende desarrollar un sistema ciberfísico que mediante el uso de sensores, dispositivos y una aplicación informática, permitirá obtener información detallada del cultivo del suelo y de variaciones climáticas más específicas que las técnicas de agricultura tradicional.

Fuente de la publicación: 

Juan Francisco Bermejo, José Luis González y Félix R. Rodríguez. Sistema Ciberfísico para la Optimización de una Explotación Agropecuaria. Trabajo de Fin de Grado en Ingeniería Informática en Ingeniería del Software de la Universidad de Extremadura. Noviembre de 2018.

A New Role for Supercomputing Centers in Open Science

In the last decades an exponential increase of the scientific and technical development in all the areas of science has become manifest, being more and more relevant the conflicts between the pure scientific advance of the society and the property of the researched knowledge. Particularly the brake that certain aspects of the established system suppose in the acquisition of some findings. The ever demanding scientific community aims for new platforms and services up to date in order to diminish the inconveniences that have arisen due this same growth. The guidelines provided by the Open Science (OS), despite being a concept already discuss for some time, set out the perfect framework for the creation of new applications and platforms in which the research centers might take over from the responsibility exercised so far by the publishers to allocate resources for disclosure and distribution without replace them. In particular Open Access (OA), Open Data (OD) and Open Methodologies (OM) are the guidelines that can fit the most in the current tasks performed by supercomputing and research centers where availability, reliability and security are concepts well implemented already and can be very powerful skills to them in order to step in the spotlight in this new framework which is OS. In the other hand, while universities and publishers can be tempted by recognition and self promotion at the time of deciding whether a job can benefit them or not, the public supercomputing centers, that are already providing services for both private and public projects, working in the same direction and as a set, could be considered more objectives. In this paper it is proposed a path to follow by the supercomputing centers, within the framework of European Open Science, to share resources with the aim of providing an adequate infrastructure for the development of scientific research, adding to their current competences the ability to become neutral ground for scientific disclosure.

Fuente de la publicación: 

Luis Ignacio Jiménez, Jesús Calle-Cancho, David Cortés-Polo and José Luis González Sánchez. A New Role for Supercomputing Centers in Open Science. IBEGRID 2018. Lisbon, Portugal. October 2018.

Implementación de un Sistema para el Control de Consumos Energéticos en Entornos HPC

El propósito de este proyecto es la monitorización de trabajos ejecutados sobre el supercomputador LUSITANIA II. Debido a la gran relevancia que posee la correcta administración de los recursos disponibles en el supercomputador, obtener la capacidad de gestionar sus recursos de forma inteligente se ha convertido en una actividad prioritaria.

Por tanto, la aportación de este proyecto ha sido desarrollar una herramienta integrando diferentes programas / herramientas, cuyo funcionamiento conjunto tiene como objetivo facilitar al usuario final una correcta extracción, realización de gráficos y tratamiento de los datos obtenidos. Para ello se han utilizado programas como: Slurm, empleado como extractor de datos de los trabajos del Lusitania II y Grafana, cuyo uso ha sido como motor gráfico. En cuanto al lenguaje de programación principalmente empleado ha sido Python, debido a las facilidades que proporciona en cuanto a tratamiento con matrices y, a la gran comunidad de usuarios de carácter OpenSource que posee.

Cabe destacar que la eficiencia energética es cada vez más importante en la administración de recursos, debido principalmente a los costes derivados de los enormes requerimientos exigidos por los sistemas de cómputo avanzado. En este ámbito la capacidad de registrar el consumo individual de los trabajos lanzados en un supercomputador abre las puertas a un número importante de opciones de gestión. Es evidente la importancia del aspecto económico a la hora de consumir la energía estrictamente necesaria con el objetivo de ofrecer un servicio eficiente.

La organización de la memoria de este proyecto consta de una primera sección, la Introducción, en la cual se detallan los pasos seguidos en la elaboración de este trabajo. La segunda sección consta de los objetivos de nuestro trabajo detallándose todas las metas que se desea alcanzar. La siguiente sección, el Estado del Arte, actualiza los conocimientos sobre las herramientas/técnicas previas que existen en el sector. Tras esto, en la siguiente sección del trabajo se detalla la Metodología empleada, en la cual se explica todo el proceso de planificación que se ha ido siguiendo, con el objetivo de cubrir todas las partes de manera correcta y que en ninguna parte escasee el tiempo para su desarrollo. Por otro lado, la sección de Implementación muestra todo lo relacionado con el desarrollo de la propia herramienta descrita previamente. La sección de Resultados y discusión, recopila los resultados obtenidos en cada fase de la sección de Implementación y proporciona un balance general sobre la calidad de los datos con respecto a la calidad esperada. La última parte del trabajo trata las Conclusiones y trabajos futuros proporcionando un comentario final sobre el proyecto y proponiendo varias líneas de trabajos futuros con los cuales se podrán aumentar las funcionalidades de la herramienta creada. Tras esto, encontramos las secciones de Referencias Bibliográficas y de Anexos. La primera de ellas es una recopilación de todos los enlaces de aquellas páginas/libros/artículos y otros proyectos que se han consultado en busca de información y de ayuda para este proyecto. Y, la segunda, a su vez se divide en un primer anexo el cual agrupa todo el código mostrado a lo largo del proyecto y el segundo, trata de un manual de usuario, donde se explica cómo proceder con las herramientas utilizadas en el proyecto.

Fuente de la publicación: 

Manuel José Casillas, José Luis González y Miguel Ángel Vega. Implementación de un Sistema para el Control de Consumos Energéticos en Entornos HPC. Trabajo de Fin de Grado en Ingeniería Informática en Ingeniería de Computadores de la Universidad de Extremadura. Septiembre de 2018.

Mecanismos de Monitorización y Análisis de Tráfico en Redes de Próxima Generación

Currently, communication networks are formed by a heterogeneous set of technologies and protocols in constant evolution, characterized by a great complexity. The current network protocols provide a great performance and reliability, increase the connectivity and the security but each protocol solves a specific problem without a global abstraction.

To solve this problem and to simplify the network management, a new trend called Software Defined Networking (SDN) has emerged. It’s a new network architecture based on the separation between the data plane functions and control plane functions of the network infrastructure, making the management, evolution and operation simplified by adding centralized software approaches.

Due to the expected evolution of networks towards the SDN architecture and the importance of monitoring systems in the management and maintenance of networks, it is necessary to review the classic mechanisms for monitoring network traffic and end devices computing to adapt them to this new scenario.

This project analyzes the new monitoring mechanisms that are currently being proposed for this type of networks, as well as the development of an application for granular monitoring of network data flows and graphical representation of metrics integrated within of the SDN paradigm.

With the development of this prototype, computing and network traffic will be analyzed by means of the data acquired in the network and the performance of the set of data metrics will be represented in real time graphs, which will be the entry requirements to subsequently establish quality of service (QoS) and security policies in the next generation networks.

Fuente de la publicación: 

Daniel González Sánchez, Javier Carmona Murillo y David Cortés Polo. Mecanismos de Monitorización y Análisis de Tráfico en Redes de Próxima Generación. Trabajo de Fin de Grado en Ingeniería en Telemática de la Universidad de Extremadura. Septiembre de 2018.

Compilador source-to-source, para la paralelización automática de códigos secuenciales, orientado a la gestión eficiente de recursos en centros de Computación de Alto Rendimiento

La Computación de Alto Rendimiento supone una potente herramienta para dar solución a proyectos de elevada complejidad que de otra forma no podrı́an ser afrontados. Sin embargo, desarrollar programas paralelos que aprovechen sus beneficios, haciendo un uso adecuado y eficaz de los recursos de cómputo disponibles, resulta complejo para investigadores, de diversas ramas de la ciencia, que no presentan experiencia previa en la programación paralela. Por ello, se ha desarrollado un transcompilador que, mediante aprendizaje supervisado, entrenado con la ayuda de un sistema de apoyo a la toma de decisiones, persigue equilibrar el uso eficiente de los recursos en este tipo de centros, con la necesidad de sus usuarios de obtener resultados en tiempos adecuados, mediante la paralelización automática de códigos secuenciales enfocada a la formación de nuevos usuarios en el ámbito de la programación paralela.

Fuente de la publicación: 

Javier Corral García, José Luis González Sánchez y Miguel Ángel Pérez Toledano. Compilador source-to-source, para la paralelización automática de códigos secuenciales, orientado a la gestión eficiente de recursos en centros de Computación de Alto Rendimiento. Avances en arquitectura y tecnología de computadores, actas de las Jornadas SARTECO 2018. Teruel, España. 12-14 septiembre, 2018. ISBN: 978-84-09-04334-7. pp 321-328. 

HPC Services to Characterize Genetic Mutations Through Cloud Computing Federations

One child in every 200 births may be affected by one of the approximately 6,000 monogenic diseases discovered so far. Establishing the pathogenicity of the mutations detected with NGS (Next-Generation Sequencing) techniques, within the sequence of the associated genes, will allow Precision Medicine concept to be developed. However, sometimes the clinical significance of the mutations detected in a genome may be uncertain (VUS, Variant of Uncertain Significance) which prevents the development of health measures devoted to personalize individuals' treatments. A VUS pathogenicity can be inferred thanks to evidences obtained from specific types of NGS studies. Therefore the union of supercomputing through HPC (High-Performance Computing) tools and the cloud computing paradigm (HPCC), within a Data Center federation environment offers a solution to develop and provide services to infer the pathogenicity of a set of VUS detected in a genome, while guaranteeing both the security of the information generated during the whole workflow and its availability.

Fuente de la publicación: 

Performance Evaluation of Distributed Mobility Management Protocols: Limitations and Solutions for Future Mobile Networks.

Mobile Internet data traffic has experienced an exponential growth over the last few years due to the rise of demanding multimedia content and the increasing number of mobile devices. Seamless mobility support at the IP level is envisioned as a key architectural requirement in order to deal with the ever-increasing demand for data and to efficiently utilize a plethora of different wireless access networks. Current efforts from both industry and academia aim to evolve the mobility management protocols towards a more distributed operation to tackle shortcomings of fully centralized approaches. However, distributed solutions face several challenges that can result in lower performance which might affect real-time and multimedia applications. In this paper, we conduct an analytical and simulated evaluation of the main centralized and proposed Distributed Mobility Management (DMM) solutions. Our results show that, in some scenarios, when users move at high speed and/or when the mobile node is running long-lasting applications, the DMM approaches incur high signaling cost and long handover latency.

Fuente de la publicación: 

Future Trends in Mobile-Fixed Integration for Next Generation Networks: Classification and Analysis

In recent years, the growth the in the number of heterogeneous interconnected systems, as well as the emergence of new requirements in applications and services are progressively changing the original simplicity and transparency of the Internet architecture. When this architecture was designed, the main goal was to interconnect stationary host. Therefore, the appearance of mobile communications has made necessary to adapt traditional protocols in order to accommodate mobile users. This implies a new interaction between the mobile network and the fixed access network. This paper describes the main IP mobility protocols both centralized and distributed paradigms, and emergent approaches based on software defined networking. Moreover, a novel classification is presented, which relates the integration of the mobility protocol with the access network. Analytical models evaluate the registration updates cost and the packet loss rate of the classified protocols.

Fuente de la publicación: 

Towards automatic parallelization of sequential programs and efficient use of resources in HPC centers

High-Performance Computing (HPC) is becoming increasingly required by scientists of all branches in order to achieve their desired research results. However, carrying out their research in an HPC center can be a difficult task when they are new to parallel programming. These users need support in the parallelization and optimization of their codes, in order to obtain reliable results as well as make efficient use of the available resources. For this purpose, a novel code analyzer for automatic parallelization of sequential codes is presented, focused on resource management of a supercomputing center, where efficient scheduling decisions and energy saving become key challenges. Thus, this paper aims to introduce the analyzer so as to demonstrate the importance of using it, specially in terms of efficiency, when running parallel codes in HPC centers.

Fuente de la publicación: 

Javier Corral-García, José-Luis González-Sánchez and Miguel A. Pérez-Toledano. Towards Automatic Parallelization of Sequential Programs and Efficient Use of Resources in HPC Centers. Proceedings of the 2016 International Conference on High Performance Computing & Simulation. IEEE HPCS 2016. Innsbruck, Austria. July 18-22, 2016. ISBN: 978-1-5090-2087-4, electronic ISBN: 978-1-5090-2088-1. pp 947-954. DOI: 10.1109/HPCSim.2016.7568436

Performance and energy aware scheduling simulator for HPC: evaluating different resource selection methods

Hoy en día, en una sociedad preocupada por el ahorro energético, la planificación de los trabajos de supercomputación es una tarea muy importante para los administradores de las infraestructuras TI, pues tienen que asegurar que exista un compromiso entre el rendimiento de la infraestructura y un posible ahorro de consumo.

En este trabajo se presenta un simulador para computación de alto rendimiento, que junto con nuevos algoritmos, permiten a los administradores de los centros de cálculo a tomar decisiones sobre una base experimental sólida y robusta. Las simulaciones realizadas han demostrado la utilidad del simulador para este tipo de estudios y para la realización de comparativas entre diferentes algoritmos de planificación, incluyendo los algoritmos multiobjetivo.
 

Fuente de la publicación: 
  • Gómez-Martín, C., Vega-Rodríguez, M. A., and González-Sánchez, J.-L. (2015) Performance and energy aware scheduling simulator for HPC: evaluating different resource selection methods. Concurrency Computat.: Pract. Exper., doi:10.1002/cpe.3607.

Green Code, Energy Efficiency in the Source Code for High-Performance Computing

Energy consumption is a key challenge in HPC (High-Performance Computing). Nowadays, as far as software is concerned, optimizations for energy saving are usually implemented at different levels, with an obvious lack of proposals so that the user could directly write energy-efficient code. This proposal aims to contribute to source code optimization so as to achieve optimal performances and maximum efficiencies in their executions, demonstrating the importance of certain strategies in creating code.
 

Fuente de la publicación: 

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez. Green Code, Energy Efficiency in the Source Code for High-Performance Computing. Sistemas y Tecnologías de la Información, Actas de la 10ª Conferencia Ibérica de Sistemas y Tecnologías de la Información, Vol. II. CISTI 2015. Águeda, Aveiro, Portugal. 17-20 junio 2015. ISBN: 978-989-98434-5-5. pp 61-64.

TaxonomTIC: Situación de un sector clave en Extremadura

La edición 2014 de TaxonomTIC es un subproyecto enmarcado dentro del proyecto Cenital 2, cuyo objetivo principal consiste en seguir analizando el impacto y el futuro del sector TIC (Tecnologías de la Información y la Comunicación) de forma objetiva: estableciendo una comparativa del sector en la región, respecto de España y Europa, estudiando y analizando la visión del sector a través de los responsables técnicos más cualificados, y desarrollando una plataforma Open Data que contiene todos los datos extraídos durante los años 2013 y 2014. 

El documento con los resultados más destacables así como la memoria del proyecto, pueden consultarse a continuación:

Aplicación de técnicas Big Data a la predictibilidad de flujos de tráfico urbano en Ciudades Inteligentes

Aplicación de técnicas Big Data a la predictibilidad de flujos de tráfico urbano en Ciudades Inteligentes, es un subproyecto de CENITAL 2, que persigue la continuidad del trabajo desarrollado en el proyecto Eco-trafic, con el objetivo de poner a disposición de las ciudades extremeñas servicios de Cloud Computing y Big Data para una gestión eficaz, eficiente y sostenible del tráfico rodado. 

Estirpex-2

Estirpex-2 es un subproyecto de CENITAL 2, que persigue la continuidad del trabajo desarrollado en el proyecto Estirpex, mediante el estudio, desarrollo y despliegue de servicios para sectores económicos relevantes en la región que puedan beneficiarse de la tecnología de secuenciación genética masiva (NGS, Next-Generation Sequencing), apoyada en el uso de la supercomputación.

Proposal and analysis of integrated PTN architecture in the mobile backhaul to improve the QoS of HetNets

David Cortés Polo, José Luis González Sánchez, Javier Carmona Murillo, Franciso J. Rodríguez Pérez.
Proposal and analysis of integrated PTN architecture in the mobile backhaul to improve the QoS of HetNets.
EURASIP Journal on Wireless Communications and Networking. April 2015. 
DOI:10.1186/s13638-015-0341-2

 

Análisis y evaluación experimental de protocolos de gestión de la movilidad basados en IPv6

Jesús Calle-Cancho, David Cortés-Polo, Javier Carmona-Murillo, José-Luis González-Sánchez, and Francisco-Javier Rodríguez-Pérez, "Análisis y evaluación experimental de protocolos de gestión de la movilidad basados en IPv6", in Proc. IADIS Ibero-American Conference on WWW/Internet 2014, pp. 35-42, October 2014. ISBN: 978-989-8704-12-2. Eds. C. Costa, L.B. Martínez, F. M. Santoro, P. Isaias. Oporto, Portugal.

Green Code

Green Code es un subproyecto de Cenital, cuyo objetivo principal persigue un desarrollo de código fuente eficiente, partiendo de la propia eficiencia energética de los dispositivos tecnológicos sobre los que se ejecuta dicho código.

Dicha eficiencia debe ser un importante factor a tener en cuenta durante el despliegue de cualquier sistema. La supercomputación de altas prestaciones es un buen ejemplo de ello, debido al elevado consumo energético que conlleva.

Estirpex

Estirpex es un subproyecto de Cenital, cuyo objetivo principal persigue la creación de una plataforma online que permita el acceso a un repositorio piloto de datos históricos y clínicos de ciudadanos de Extremadura y profundizar en el estudio de enfermedades hereditarias a los profesionales del ámbito sanitario, a través de la obtención y análisis de variaciones en la secuencia genética del exoma de las personas representadas, obtenida mediante tecnologías NGS (Next-Generation Sequencing).

TaxonomTIC: Taxonomía del sector TIC en Extremadura

TaxonomTIC es un subproyecto de Cenital, cuyo objetivo principal consiste en identificar qué son las Tecnologías de la Información y la Comunicación (TIC), los elementos que las componen, describirlos y clasificarlos, para poder estudiar su impacto en Extremadura y generar una fuente de información adicional, que permita conocer qué profesionales, empresas u organismos se encuentran relacionados con este sector y cuáles se apoyan en dichas entidades para ofrecer servicios TIC.

Testbed para el análisis del impacto de la movilidad en redes de acceso

Javier Carmona-Murillo, David Cortés-Polo, Pedro Rodríguez-Cubero, Francisco-Javier Rodríguez-Pérez, José-Luis González-Sánchez. Testbed para el análisis del impacto de la movilidad en redes de acceso. Actas de las Jornadas de Ingeniería Telemática 2013 (JITEL 2013), pp. 357-363. Granada, 28-30 de Octubre de 2013. ISBN-10: 84-616-5597-4. ISBN-13: 978-84-616-5597-7.

Performance and Energy Aware Scheduling Simulator for High-Performance Computing

César Gómez-Martín, Miguel A. Vega-Rodríguez, José-Luis González-Sánchez, Javier Corral-García y David Cortés-Polo. Performance and Energy Aware Scheduling Simulator for High-Performance Computing. 7th IBERGRID 2013, Conference Proceedings. Madrid, España. 19-20 de septiembre 2013. ISBN: 978-84-9048-110-3. pp 17-29.

Aplicabilidad de la Reutilización de Código a la Implementación de Soluciones en Entornos HPC

Javier Corral-García, José-Luis González-Sánchez, César Gómez-Martín y David Cortés-Polo. Aplicabilidad de la Reutilización de Código a la Implementación de Soluciones en Entornos HPC. Sistemas y Tecnologías de la Información, Actas de la 8ª Conferencia Ibérica de Sistemas y Tecnologías de la Información, Vol. II. CISTI 2013. Lisboa, Portugal. 19-22 junio 2013. ISBN: 978-989-98434-0-0. pp 359-362.

Development of Scientific Applications with High-Performance Computing through a Component-Based and Aspect-Oriented Methodology

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez and David Cortés-Polo. Development of Scientific Applications with High-Performance Computing through a Component-Based and Aspect-Oriented Methodology. International Journal of Advanced Computer Science, Vol. 3, No. 8, Pp. 400-408, Aug., 2013.

Enhancing PTN to Improve the QoS Provided by the IP Mobility Management

David Cortés-Polo, José-Luis González-Sánchez, Javier Carmona-Murillo, Fco. Javier Rodríguez-Pérez, Javier Corral-García. Enhancing PTN to Improve the QoS Provided by the IP Mobility Management. 2013 World Conference on Information Systems and Technologies (WorldCIST'13). Algarve, Portugal, Marzo 27-30, 2013. ISBN: 978-3-642-36980-3.

Development of Pattern-Based Scientific Applications for High-Performance Computing

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez y David Cortés-Polo. "Development of Pattern-Based Scientific Applications for High-Performance Computing". Proceedings of 6th Iberian Grid Infrastructure Conference, IBERGRID '12. 6th Iberian Grid Infrastructure Conference, Lisboa, Portugal. 7-9 de Noviembre de 2012. ISBN: 978-989-98265-0-2. pp 147-158.

Methodology and Framework for the Development of Scientific Applications with High-Performance Computing through Web Services

Javier Corral-García, David Cortés-Polo, César Gómez-Martín y J.L. González-Sánchez. "Methodology and Framework for the Development of Scientific Applications with High-Performance Computing through Web Services". EATIS 2012, 6th Euro American Conference on Telematics and Information Systems. Valencia, España. 23-25 Mayo 2012. ISBN: 978-1-4503-1012-3. pp 173-180. DOI: 10.1145/2261605.2261631

Performance Study of Hyper-Threading Technology on the LUSITANIA Supercomputer

César Gómez-Martín, José-Luis González-Sánchez, Javier Corral-García, Ángel Bejarano-Borrega, Javier Lázaro-Jareño: "Performance Study of Hyper-Threading Technology on the LUSITANIA Supercomputer". Ibergrid 2010. ISBN 978-84-9745-549-7. 12 páginas. Braga, Portugal. Mayo de 2010. DOI: 10.4272/978-84-9745-549-7.ch5

La supercomputación como herramienta para lograr la excelencia en la Investigación y en la Innovación Tecnológica

César Gómez-Martín, Javier Corral-García, José Luis González-Sánchez, Ángel Bejarano-Borrega, Javier Lázaro-Jareño: "La Supercomputación como Herramienta para Lograr la Excelencia en la Investigación y en la Innovación Tecnológica". I Jornadas de Jóvenes Investigadores. Xtrelan'10. ISBN 978-84-693-1707-5. Cáceres. Abril de 2010.