Publicações CénitS-COMPUTAEX

Cation substitution effects on the structural, electronic and sun-light absorption features of all-inorganic halide perovskites

All-inorganic perovskites (such as CsPbI3) are emerging as new candidates for photovoltaic applications. Unfortunately, this class of materials present two important weaknesses in their way to commercialization: poor stability and toxicity. This paper explores the possibility of lessening both stability and toxicity related problems, as well as obtaining improved photovoltaic efficiencies through the propitious fine-tuning of the chemical composition. Therefore, a systematic ab initio study of the family of all-inorganic perovskites with the general formula RbaCs1−aSnbPb1−bI2Br (a = 0–0.125 and b = 0–1) is here presented. Our results provide a complete description on the connections between the chemical composition, crystal structure, intrinsic stability, electronic properties, and absorption features, pointing out that all-inorganic RbaCs1−aSnbPb1−bI2Br (a = 0.125 and 1 > b > 0.5) perovskites would be adequate candidates for photovoltaic applications with improved stability and reduced Pb concentration.

Fuente de la publicación: 
  • Pablo Sánchez-Palencia, Gregorio García, Perla Wahnón & Pablo Palacios. Cation substitution effects on the structural, electronic and sun-light absorption features of all-inorganic halide perovskites. Inorganic Chemistry Frontiers, 2022. https://doi.org/10.1039/D1QI01553B

Charting the Lattice Thermal Conductivities of I–III–VI2 Chalcopyrite Semiconductors

Chalcopyrite-structured semiconductors have promising potential as low-cost thermoelectric materials, but their thermoelectric figures of merit must be increased for practical applications. Understanding their thermal properties is important for engineering their thermal conductivities and achieving better thermoelectric behavior. We present here a theoretical investigation of the lattice thermal conductivities of 20 chalcopyrite semiconductors with an ABX2 composition (I–III–VI2) (A = Cu or Ag; B = Al, Ga, In, or Tl; X = S, Se, or Te). To afford accurate predictions across this large family of compounds, we solve the Boltzmann transport equation with force constants derived from density functional theory calculations and machine learning-based regression algorithms, reducing by between 1 and 2 orders of magnitude the computational cost with respect to conventional approaches of the same accuracy. The results are in good agreement with available experimental data and allow us to rationalize the role of chemical composition, temperature, and nanostructuring in the thermal conductivities across this important family of semiconductors.

Fuente de la publicación: 
  • Jose J. Plata, Victor Posligua, Antonio M. Márquez, Javier Fernandez Sanz, and Ricardo Grau-Crespo. Charting the Lattice Thermal Conductivities of I–III–VI2 Chalcopyrite Semiconductors. Chemistry of Materials 2022 34 (6), 2833-2841.
    DOI: 10.1021/acs.chemmater.2c00336

CultivData: Application of IoT to the Cultivation of Agricultural Data

CultivData proposes the convergence of technologies, such as IoT, big data, HPC, open data and artificial intelligence, to apply HPDA (High Performance Data Analytics) to the cultivation of agricultural data and improve the efficiency and effectiveness of farms. An information system has been developed as an IT platform for the cultivation of open data to extract knowledge and to support the decision making of stakeholders in the agricultural sector, so that it is possible to improve product quality and farm productivity. The resulting system integrates access to data provided by IoT devices that sensorize farms and public and open data sources (Open Data). The platform was designed to make precision agriculture a reality and to be useful not only to farmers, but also to agricultural decision-makers who plan species and crops based on data such as available water; expected weather; prices and market demands, and so forth. In addition, the platform provides to agricultural producers access to historical climate data; climate forecasts to anticipate times of drought or disasters; pest situations or monitoring of their plantations with sensorization and orthophotographs

Fuente de la publicación: 
  • F. Lemus-Prieto, J. F. Bermejo Martín, J.-L. Gónzalez-Sánchez, and E. Moreno Sánchez, “CultivData: Application of IoT to the Cultivation of Agricultural Data,” IoT, vol. 2, no. 4, pp. 564–589, Sep. 2021, doi: 10.3390/iot2040029.

Análisis y diseño de prototipo experimental para el estudio y la validación de redes de alta velocidad

El objetivo de este TFG ha consistido en diseñar e implementar una plataforma que permite virtualizar estaciones de trabajo para facilitar así la realización de prácticas de asignaturas de la universidad sin ser necesario acceder a un aula que presente un PC potente para cada alumno. Por lo tanto, uno de los principales puntos a cumplir en este trabajo, ha sido estudiar la posibilidad de virtualizar todas las computadoras en uno o varios servidores, compartiendo los recursos hardware entre las máquinas virtuales, para así evitar tener que mantener múltiples ordenadores individuales, centralizando el mantenimiento. Esta plataforma de virtualización presenta la capacidad de escalar para poder incorporar nuevo hardware en caso de que sea necesario dar de alta más máquinas virtuales de las que soportaba el hardware original. Esto permite responder de manera rápida, efectiva y con el mínimo coste posible a aumentos de demanda del servicio.

Los alumnos (usuarios del sistema) pueden acceder a un portal centralizado el cual les proporciona acceso y control a su estación de trabajo remota asignada. Este gestor garantiza la exclusividad de las máquinas y restringe el acceso a usuarios no autorizados, autenticando bajo nombre y contraseña. Para poder facilitar la conexión a las estaciones virtuales desde cualquier sitio con independencia del aula en el que se encuentre el alumno, el sistema es visible a través de Internet. De esta manera, los alumnos no están limitados a estar dentro de una red local determinada y el docente puede impartir prácticas desde cualquier aula.

Sin embargo, al quedar expuesto a Internet, la seguridad en la comunicación es uno de los principales requisitos, ya que sin ella, todo el sistema sería vulnerable a ataques pasivos de monitorización. Es por esto que los protocolos que se utilizan para el acceso remoto a las estaciones de trabajo virtuales, tienen un nivel de encriptación que aseguran la integridad y privacidad de los datos. Al mismo tiempo, como las estaciones pueden trabajar con diversos programas que mantengan puertos en escucha, es necesario aislar todas las estaciones en una red protegida para evitar que atacantes externos puedan acceder a dichos puertos. Aunque se protege la red, ésta sigue teniendo acceso a Internet. No se puede olvidar que el propósito de esta plataforma es facilitar a los estudiantes la realización de prácticas sobre estudio y prueba de redes de alta velocidad. Por lo tanto, las estaciones de trabajo se ubican todas dentro de una misma red en la que puedan comunicarse entre ellas.

Por último, es importante destacar que todo el software empleado en el desarrollo de la plataforma, es de uso libre y gratuito. De esta manera, se facilita la replicación y despliegue de esta plataforma cuándo y dónde se desee si requerir de licencias de software extra.

Fuente de la publicación: 
  • Moisés Gaitán, David Cortés y José Luis González. Análisis y diseño de prototipo experimental para el estudio y la validación de redes de alta velocidad. Trabajo Final de Grado en Ingeniería Informática en Ingeniería del Software de la Universidad de Extremadura. Septiembre de 2021.

Paralelización Automática y Estrategias de Desarrollo de Código Eficiente para Aumentar el Rendimiento en Centros de Supercomputación

Expertos de múltiples ramas del conocimiento se enfrentan diariamente a multitud de desafíos en proyectos científicos, técnicos o industriales que requieren el uso de la computación de alto rendimiento (HPC, High-Performance Computing) para satisfacer adecuadamente sus necesidades. Sin embargo, el desarrollo de algoritmos y programas que empleen correctamente este tipo de infraestructuras implica un importante conocimiento previo que muchos de estos usuarios no poseen, lo cual dificulta notablemente su labor.

Este tipo de proyectos, ampliamente multidisciplinares y heterogéneos, demandan una obtención de resultados con tiempos de ejecución realmente críticos, necesitando para ello la imprescindible utilización de la computación paralela. De este modo, con objeto de alcanzar resultados confiables y emplear eficientemente los recursos de cómputo disponibles, muchos de estos profesionales necesitan una importante ayuda adicional que les permita llevar a cabo la paralelización y optimización de sus códigos. De hecho, es habitual que el primer obstáculo al que se enfrenten sea precisamente la adaptación de sus propios algoritmos secuenciales. En algunos casos, implementar estos códigos ya resulta una tarea complicada para expertos de diversas ramas de la ciencia muy alejadas de la programación informática, lo cual prolonga significativamente su curva de aprendizaje. La situación empeora especialmente cuando precisan además el uso de la computación paralela. De esta forma, para estos usuarios obtener una solución adecuada puede convertirse en un objetivo de notable complejidad.

Este problema está principalmente motivado por el hecho de que los algoritmos paralelos no son diseñados únicamente para realizar el trabajo computacional, sino que también indican cómo será distribuido o dividido éste entre múltiples unidades de procesamiento. Así, es común que científicos e investigadores, que carecen de la formación específica requerida, empleen demasiado tiempo en desarrollar y ejecutar correctamente este tipo de algoritmos. Esto propicia además que sus códigos no sean tan eficientes como deberían, para lo cual se requiere mayor preparación y experiencia.

La completa paralelización automática de códigos de programación, considerando además su eficiencia y el correcto uso de los recursos de cómputo disponibles, sería de utilidad, no solo para estos investigadores, sino también para los propios administradores de los centros de computación de alto rendimiento. De esta forma, los usuarios podrían hacer un uso más eficiente tanto de su propio tiempo, como de las infraestructuras ofrecidas por estos centros, donde dicha eficiencia es clave en diversos aspectos, entre los que destacan: los tiempos de cómputo y de espera para acceder a las distintas infraestructuras, el número de núcleos o procesadores empleados y la disponibilidad de memoria y espacio en disco, sin olvidar el consumo energético, que actualmente supone un desafío clave para los centros HPC.

En consecuencia, uno de los objetivos principales de la presente tesis doctoral consiste en dar solución a los problemas identificados, proponiendo un transcompilador (compilador source-to-source) para la paralelización automática de códigos secuenciales, con el cual será posible obtener mejores rendimientos y eficiencias en las ejecuciones y escoger una correcta estrategia de planificación para cada código. De esta manera, el transcompilador determina las partes del código que pueden ser paralelizadas y genera automáticamente la correspondiente versión paralela. La realización de transformaciones source-to-source secuencial-paralelo permite además a los usuarios comparar ambos códigos de forma más simple, facilitando el aprendizaje y la mejora de sus capacidades en programación paralela.

Adicionalmente, es habitual que los programadores centren sus esfuerzos en aquellas instrucciones que pueden ser paralelizadas, sin tener en cuenta la eficiencia del resto del código, a menudo ignorando el importante efecto que las partes secuenciales tienen sobre los tiempos de ejecución. El impacto asociado es especialmente significativo en trabajos HPC que tardan varios días en ejecutarse o que forman parte de proyectos que requieren miles de horas de CPU anuales, algo muy común en variedad de investigaciones científicas. Por ello, esta tesis evalúa y analiza diversas técnicas software con el objetivo de conseguir mejoras adicionales en el código y reducir los tiempos de ejecución. Las técnicas han sido seleccionadas entre la literatura existente y escogidas por ser las más representativas o que mejoran de modo más notable la eficiencia, entendiendo ésta como el rendimiento computacional alcanzado por un programa en relación al alcanzable en una situación óptima. En primer lugar, se realiza un detallado análisis del impacto producido al aplicar las distintas estrategias en dispositivos IoT (Internet of Things, Internet de las cosas), debido a su mayor sencillez para realizar todas las mediciones necesarias. Tras comprobar su impacto en la reducción de los tiempos de ejecución y en el ahorro energético, las mismas estrategias son aplicadas sobre infraestructuras HPC. De este modo se demuestra que las técnicas propuestas permiten aumentar la eficiencia de forma fácil y sencilla en ambos entornos, posibilitando que los usuarios obtengan destacables mejoras de rendimiento con cambios menores en sus códigos.

Con todo lo anterior se consigue que incluso usuarios noveles puedan hacer un uso más apropiado y eficiente de los recursos computacionales, disminuyendo los problemas inherentes al aprendizaje de la programación paralela.

Análisis Predictivo Mediante Deep-learning con Datos de Aerogeneradores de Energía Eléctrica

Este proyecto final de carrera ha abordado el estudio predictivo de la ejecución de aerogeneradores que integran un parque eólico ubicado en España, mediante la aplicación de redes neuronales LSTM. La desafiante problemática en la que está envuelta nuestro planeta, de cara al cambio climático, ha supuesto que un ingente número de organizaciones e instituciones se hayan volcado con gran interés en su gestión. Las energías renovables protagonizan un papel clave para afrontar e impulsar una recuperación hacia un futuro sostenible. En los último años, el imparable crecimiento de la tecnología sumado al polivalente paradigma de ‘deep learning’ ha permitido potenciar y promover, en grandes dimensiones, una creciente investigación dentro del campo de las energías renovables. El objetivo principal se ha centrado en un análisis exhaustivo de las series temporales propias de los componentes de las turbinas eólicas con el fin de pronosticar su comportamiento a lo largo del tiempo. Por ende, este hecho permite la identificación, definición y precisión de los posibles fallos, averías o paradas que puedan ser ocasionados en su operatividad con vistas a avivar un entorno sostenible e impedir pérdidas económicas. Para lograr el propósito final, se explicará la naturaleza de las variables a estudiar para establecer una evaluación rigurosa y real. Posteriormente, se especificará el proceso seguido para la construcción de las redes neuronales así como los diferentes modelos probados para cada una de las variables determinadas anteriormente. Conforme a ello y para finalizar, se concreta cuál es el modelo ideal para cada una de ellas.

Fuente de la publicación: 
  • Estela Martín Verdugo, Félix Rodríguez Rodríguez y José-Luis González-Sánchez. Análisis Predictivo Mediante Deep-learning con Datos de Aerogeneradores de Energía Eléctrica. Trabajo Fin de Grado (TFG) en Ingeniería Informática en Ingeniería del Software de la Universidad de Extremadura. Julio de 2021.

A Quantitative and Comparative Evaluation of Key Points Selection Algorithms for Mobile Network Data Sets Analysis

In recent years, network operators are receiving an outsize amount of data due to the increasing number of mobile network subscribers, network services and device signalling. This trend increases with the deployment of 5G that will provide advanced connectivity to wireless devices and develop new services. Network analytics must allow telecommunications operators to improve their services and the infrastructure extracting useful information from large amounts of data. A methodology based on orthogonal projections was developed in order to analyze the network information and facilitate the management and the operations to network providers. In the current study, different key points selection algorithms are investigated in order to make a quantitative and qualitative evaluation and analyze the performance of those algorithms which use different approaches to select these points, which will be utilized in the methodology. A novel synthetic data set has also been developed to statistically evaluate the effect of the key points selection algorithms in the clustering, as well as, measure the performance of the aforementioned methodology. Finally, these key points selection algorithms are used in a real scenario to evaluate the impact of the different approaches in the analysis.

Fuente de la publicación: 
  • D. Cortés-Polo, L. I. J. Gil, J. -L. González-Sánchez and J. Carmona-Murillo, "A Quantitative and Comparative Evaluation of Key Points Selection Algorithms for Mobile Network Data Sets Analysis," in IEEE Access, vol. 9, pp. 92030-92042, 2021, doi: 10.1109/ACCESS.2021.3092596.

Despliegue de técnicas SDNFV para la detección, gestión y mitigación de amenazas a la seguridad de centros de supercomputación (HPC)

Los incidentes de seguridad son cada vez más frecuentes en todo tipo de organizaciones que experimentan el impacto negativo provocado por este tipo de amenazas. Los centros de supercomputación que prestan servicios de computación de alto rendimiento no son ajenos a este tipo de incidentes que afectan a la alta disponibilidad que estos centros críticos deben garantizar. Por ello, la investigación y diseño de infraestructuras que permitan detectar, gestionar y mitigar las amenazas a la seguridad de este tipo de centros de datos es especialmente necesaria. Se presenta la investigación en la softwarización y virtualización de red para implementar una infraestructura de red basada en NFV y SDN. Se ha desplegado esta infraestructura de red donde se aplican tecnologías de nueva generación para mitigar los incidentes de seguridad mediante funciones de red virtualizadas y desplegadas en contenedores.

Fuente de la publicación: 
  • Lemus Prieto, F., Cortés-Polo, D., González-Sánchez, J. L., Calle-Cancho, J., & Jiménez Gil, L. I. Despliegue de técnicas SDNFV para la detección, gestión y mitigación de amenazas a la seguridad de centros de supercomputación (HPC). Actas de las VI Jornadas Nacionales (JNIC2021 Live). 2021. doi: 10.18239/jornadas_2021.34.05

Thinking in Parallel: foreword

Under the title of Supercomputing Education: Thinking in Parallel, this special issue of the Journal of Supercomputing (SUPE) was promoted from the TEEM'19 International ConferenceFootnote1 held in León (Spain) in October 2019. A special session under the same title was organized at the Conference, focused on the factors that have to be taken into account for improving training in Supercomputing, on identifying the limitations of Supercomputing training, and on how to provide solutions for these limitations. 

The use of Supercomputers is wide spreading, constituting an essential component in many fields of science. The interest in the use of high-performance computing (HPC) facilities is also increasing in a growing percentage of undergraduates because the use of these infrastructures allows them to improve their skills and the results of their training. For this reason, the demand of training on supercomputing increases continuously. “Thinking in Parallel” intended to focus on the factors that have to be taking into account for improving training in Supercomputing for improving the performance of researchers and also to try to identify the limitations of current supercomputing training and to provide solutions for these limitations.

In particular, this special issue is focused on experiences and tools to facilitate the parallelization of existing code, training of researchers and professionals with non-IT backgrounds, recycling of IT professional for the HPC ecosystem, and learning methodologies, tools, and experiences for training of computer science students in parallel programming.

Fuente de la publicación: 

CultivData: Integración, análisis y gestión de la recolección y tratamiento de datos de cultivo para la mejora de la eficiencia agraria

A pesar de que la tecnología avanza y se implanta cada vez más en la sociedad y en la actividad económica, las soluciones tecnológicas para el sector agropecuario llegan con retraso. Este sector resulta fundamental dada la demanda existente de productos agrícolas y ganaderos debida al crecimiento de la población. Por lo tanto, es necesaria una mejora en la producción de estos bienes, sobre todo en lo que concierne a nuestra región, Extremadura.

Este proyecto pretende dar una solución tecnológica para mejorar la producción agrícola y ganadera mediante la aplicación de técnicas de agricultura de precisión, en términos generales, técnicas Big Data aplicadas al sector agropecuario. En concreto, el proyecto se ha centrado en métodos de extracción de datos que servirán como base de futuros análisis. Estos datos se captarán de fuentes abiertas que permitan el uso para tales propósitos. El objetivo ha sido desarrollar una plataforma que permita la extracción, gestión y visualización de esta información. La plataforma posibilita extraer los datos de las distintas fuentes de una forma sencilla, gestionarlos y visualizarlos en distintos formatos desde un mismo lugar, sin necesidad de acceder a las plataformas específicas de cada fuente.

Fuente de la publicación: 
  • Enrique Moreno Sánchez, Félix Rodríguez y José-Luis González-Sánchez. CultivData: Integración, análisis y gestión de la recolección y tratamiento de datos de cultivo para la mejora de la eficiencia agraria. Trabajo Fin de Grado (TFG) en Ingeniería Informática en Ingeniería del Software de la Universidad de Extremadura. Enero de 2021.

Mecanismos para la Gestión Eficiente del Plano de Control y del Plano de Datos en Redes Móviles 5G

En los últimos años, el incremento exponencial del tráfico de datos móviles, unido al despliegue de nuevos servicios sobre las redes actuales, han propiciado que los operadores de telecomunicaciones busquen nuevos mecanismos que permitan una gestión eficiente de la red de acuerdo a las demandas específicas de los usuarios. Estos mecanismos deben ser capaces de gestionar los recursos de red dinámicamente, proporcionando flexibilidad en el nuevo entorno 5G, a través de tecnologías emergentes. En este contexto, uno de los procesos involucrados en la gestión de la red es el soporte a la movilidad, cuyo principal objetivo es mantener las comunicaciones activas mientras los usuarios se mueven entre redes de acceso diferentes de manera transparente, minimizando el tiempo de desconexión o pérdida de servicio.

A tal efecto, se han estandarizado protocolos para la gestión de la movilidad centralizada (CMM) que basan su funcionamiento en una entidad central que gestiona el tráfico de datos y la señalización de los nodos móviles. Sin embargo, estos protocolos presentan algunas limitaciones y necesitan ser adaptados a las nuevas tendencias y a la creciente demanda de tráfico de datos móviles. Por ello, se han desarrollado nuevas soluciones de gestión de la movilidad distribuida (DMM), cuyo objetivo es distribuir los nodos que actúan como ancla de movilidad por el borde de la red más cerca de los usuarios finales.

Por lo tanto, DMM reduce algunos de los problemas que afectan a las redes móviles, pero debido a la densificación de celdas producida por el incipiente desarrollo de 5G, se está produciendo un incremento de tráfico de señalización usado para gestionar la movilidad, que debe ser tenido en cuenta por los operadores de red en la fase de diseño. Además, a pesar de que muchos protocolos se están desarrollando de forma distribuida, existen situaciones en las que DMM provoca mayores costes de la red y, por tanto, su rendimiento puede verse afectado.

Partiendo de esta situación, en esta tesis se proponen tres nuevos mecanismos para mejorar el rendimiento de las redes móviles de próxima generación desde tres perspectivas diferentes. Nuestra primera propuesta, TE-DMM, permite llevar a cabo una gestión e ciente del plano de control, reduciendo en gran medida el tráfico de señalización. La segunda propuesta, SR-DMM, combina SDN con DMM para mejorar el proceso de gestión de la movilidad desde el punto de vista del plano de datos. Nuestro tercer mecanismo propone una estrategia de asociación entre estaciones base y la red de acceso para mejorar el rendimiento de los protocolos de gestión de la movilidad, tanto del plano de control como del plano de datos.

Adicionalmente, se ha llevado a cabo una evaluación de costes relacionados con el despliegue de tecnologías de red emergentes, analizando su viabilidad económica. Además, se propone un modelo analítico basado en costes de infraestructura y operación, que permite obtener una evaluación comparativa y fiable entre los despliegues de red tradicionales y los de arquitecturas de red virtualizadas. El análisis desarrollado ha tomado como base la Red Científico Tecnológica de Extremadura (RCT), de manera que se puedan cubrir sobre ella las necesidades de las redes de próxima generación, reduciendo costes y proporcionando agilidad en el despliegue de sus servicios.

Finalmente, se ha diseñado e implementado un simulador de gestión de la movilidad para redes de nueva generación (PyMMSim), que ha sido utilizado para obtener los resultados de simulación presentados en esta Tesis. PyMMSim ha sido integrado en un entorno real de HPC, permitiendo realizar simulaciones con topologías de red a gran escala, obteniendo resultados más fiables gracias al despliegue masivo del simulador sobre un clúster de supercomputación distribuido, empleando como infraestructura el supercomputador LUSITANIA II. Además, se han realizado evaluaciones analíticas y experimentales con el objetivo de medir el rendimiento de los mecanismos propuestos en términos de costes de movilidad.

Fuente de la publicación: 
  • Jesús Calle Cancho. Mecanismos para la Gestión Eficiente del Plano de Control y del Plano de Datos en Redes Móviles 5G. Tesis Doctoral, Universidad de Extremadura. Diciembre de 2020.

Big GeoData - Implantación de un entorno Big Data para la integración y análisis de datos geoespaciales en el centro de supercomputación extremeño CénitS-COMPUTAEX

En el proyecto se ha implementado un proceso completo de Big Data utilizando datos meteorológicos con el objetivo de conseguir información útil de determinadas zonas de interés. Los datos fueron obtenidos de las bases de datos de la NASA, siendo estructurados para aprovechar la información de sus satélites sobre la actividad del viento en la superficie de mares y océanos. Adicionalmente, estos datos fueron transformados y almacenados en una base de datos NoSQL de código abierto, MongoDB. La información fue seleccionada siguiendo estudios de viabilidad de trabajos previos, con tratamiento indexado de los datos georeferenciados mediante el uso de un índice 2dsphere. Asimismo, los datos directamente descargados de los repositorios NASA se fueron transformados para realizar procesamientos selectivos por regiones de interés con técnicas MapReduce, debido al gran volumen de datos a tratar, utilizando para ello Apache Hadoop.

El algoritmo MapReduce desarrollado por Dávila tiene dos tareas principales, por un lado, Map se encarga de tomar un conjunto de coordenadas y le asigna una clave dependiendo de la región a la que pertenezca y, en segundo lugar, Reduce toma el conjunto de elementos proporcionado por Map y combina los elementos en un conjunto más pequeño, realizando un filtrado de datos. Por último, para ejectuar tareas analíticas sobre los datos seleccionados mediante MapReduce o por consulta directa sobre la base de datos MongoDB, se permite la invocación a los algoritmos alojados en el entorno WEKA (Waikato Environment for Knowledge Analysis), facilitando así el empleo de algoritmos de análisis de cada una de las regiones obtenidas. Todo el proyecto se lleva a cabo en una máquina virtual de SpatialHadoop, analizando su escalabilidad con diferentes configuraciones de cara a su posterior implantación en un entorno HPC (High-Perfomance Computing).

Fuente de la publicación: 
  • Fátima Dávila Benítez, Félix Rodríguez Rodríguez y José-Luis González-Sánchez. Big GeoData: Implantación de un entorno Big Data para la integración y análisis de datos geoespaciales en el centro de supercomputación extremeño CénitS-COMPUTAEX. Trabajo Final de Grado (TFG) en Ingeniería Informática en Ingeniería del Software de la Universidad de Extremadura.

HeritaGen: Genetic and Genealogical Heritage Unification for Clinical Decision Making Support in Inherited Diseases

Databases with genealogical relationships linked to genetic information are very useful for epidemiological studies of genetic disorders. Integral analysis of this data helps clinicians in medical decision making, give genetic advice to families, identify individuals at risk of disease or discover new potential genetic causes for Mendelian diseases. A strategy was designed and implemented to collect the genealogical and genetic heritage of a delimited region to gain knowledge about primary immunodeficiencies (PIDDs) in the area. Next Generation Sequencing (NGS) technologies were used for whole exome sequencing (WES) of potentially immunodeficient participants. High Performance Computing (HPC) technologies were useful to manage the data. We have also developed the HeritaGen web platform to make it easier for clinicians to access and interpret information and help them in decision making.

Fuente de la publicación: 
  • José-Luis González-Sánchez, Bernabé Diéguez-Roda, José Antonio García Trujillo, Jonathan Gómez-Raja, Felipe Lemus-Prieto, Ana María Núñez-Cansado, María Peguero-Ramos, Álvaro Rodríguez-San Pedro and Silvia Romero-Chala. HeritaGen: Genetic and Genealogical Heritage Unification for Clinical Decision Making Support in Inherited Diseases. IWBBIO 2020, Congreso Internacional de Trabajo sobre Bioinformática e Ingeniería Biomédica. Octubre, 2020.

Efficient code development for improving execution performance in high-performance computing centers

Thanks to high-performance computing (HPC), it is possible to solve all kinds of highly complex projects from multiple scientific disciplines that require computationally intensive tasks to be undertaken and which otherwise could not be addressed. Unfortunately, since the development of parallel codes requires highly specific knowledge, it can become a challenge for beginners and non-expert programmers, especially when it comes to making adequate and efficient use of the available computing resources. To this end, we developed a transcompiler for helping researchers and inexperienced users who do not have the necessary skills in the use of parallel programming, and aimed at improving the performance of their HPC routines and tasks. Current efforts are focused on an additional module for optimizing code fragments in order to reduce their running times. In order to achieve this, twenty-six software techniques were selected from the literature to be integrated into this new module, all of them aimed at improving execution times of HPC programs by directly writing efficient code. Their effectiveness is analyzed and discussed in the current manuscript through a complete set of tests designed and conducted to measure and evaluate benefits achieved when applying these techniques.

Fuente de la publicación: 
  • Javier Corral-García, Felipe Lemus-Prieto and Miguel-Ángel Pérez-Toledano. Efficient code development for improving execution performance in high-performance computing centers. The Journal of Supercomputing, 77(4), 3261-3288, 2020. doi:10.1007/s11227-020-03382-z

A methodology for network analysis to improve the cyber-physicals communications in next-generation networks

Cyber-physical systems allow creating new applications and services which will bring people, data, processes, and things together. The network is the backbone that interconnects this new paradigm, especially 5G networks that will expand the coverage, reduce the latency, and enhance the data rate. In this sense, network analytics will increase the knowledge about the network and its interconnected devices, being a key feature especially with the increment in the number of physical things (sensors, actuators, smartphones, tablets, and so on). With this increment, the usage of online networking services and applications will grow, and network operators require to detect and analyze all issues related to the network. In this article, a methodology to analyze real network information provided by a network operator and acquire knowledge of the communications is presented. Various real data sets, provided by Telecom Italia, are analyzed to compare two different zones: one located in the urban area of Milan, Italy, and its surroundings, and the second in the province of Trento, Italy. These data sets describe different areas and shapes that cover a metropolitan area in the first case and a mainly rural area in the second case, which implies that these areas will have different comportments. To compare these comportments and group them in a single cluster set, a new technique is presented in this paper to establish a relationship between them and reduce those that could be similar.

Fuente de la publicación: 
  • D. Cortés-Polo, L.I. Jiménez Gil, J. González-Sánchez and J. Calle-Cancho. A Methodology for Network Analysis to Improve the Cyber-Physicals Communications in Next-Generation Networks. Sensors 2020, 20(8), 2247; doi:10.3390/s20082247.

Analytical and Experimental Evaluation of a Novel Mechanism to Improve the Control Plane in Next-Generation Mobile Networks

With the continuous development of mobile communications and the Internet of Things technology, the enhanced network performance can be seen as one of the major challenges in the fourth industrial revolution context, where new services and applications with strict performance requirements have emerged, such as driverless vehicles, smart cities, factories, and manufacturing, among others. These new services and applications also drive growth of the data traffic, which is increasing exponentially. Thus, in mobile network environments, industry and academia are proposing new mechanisms to overcome the traffic bottlenecks and reduce the signaling overhead that affects current networks. Centralized Mobility Management solutions are prone to several problems such as the aforementioned signaling overhead or scalability issues. To overcome these limitations, Distributed Mobility Management approaches are being considered. In this paper, an analytical cost model and experimental evaluation will be developed for evaluating the performance of the Distributed Mobility Management implementations. Furthermore, a new approach will be proposed to improve network performance.

Fuente de la publicación: 
  • Calle-Cancho, J.; Cortés-Polo, D.; González-Sánchez, J.-L.; Jiménez, L.I.; Carmona-Murillo, J. Analytical and Experimental Evaluation of a Novel Mechanism to Improve the Control Plane in Next-Generation Mobile Networks. Electronics 2020, 9, 417. doi: 10.3390/electronics9030417

Sistema bioinformático de apoyo a la investigación en la unificación del patrimonio genealógico y genético

El desarrollo en el campo de la genética ha abierto nuevas puertas en el estudio de enfermedades y en el diagnóstico clínico. La medicina de precisión pretende aprovechar esas nuevas capacidades. Aunando el estudio de la variabilidad genética de los individuos, su entorno y sus hábitos de vida, pretende identificar estrategias de tratamiento y prevención de enfermedades para grupos concretos. En Extremadura, la aplicación de tales técnicas está supeditada a la disponibilidad de la información. Para ello, es necesaria una plataforma que permita la unificación del patrimonio genealógico y genético, conjuntamente con los datos clínicos.

Este TFG pretende responde a esta necesidad, desarrollando un sistema bioinformático que permita la mencionada integración y, además, que dé soporte a la investigación médica. El objetivo es estudiar los beneficios de la unificación de fuentes de información heterogéneas, como registros civiles, eclesiásticos, o historiales clínicos, al estudio de enfermedades hereditarias. El estudio se ha enfocado a un conjunto de personas de una población relevante desde el punto de vista genético, para secuenciar su genoma (concretamente los genes asociados a la enfermedad elegida) y unificarlo con su información genealógica. La zona a estudio es la del Valle del Jerte debido a las características que presenta en cuanto a su población y entorno.

Para gestionar y analizar la información, así como para extraer conocimiento de la misma, se plantea el uso de recursos de supercomputación en combinación con técnicas de Big Data y de inteligencia artificial.

El objetivo se materializa en la implantación de una infraestructura de apoyo a la investigación genética con las siguientes funcionalidades:

  • Unificación de la información genealógica y personal e información genómica.
  • Gestión de grandes volúmenes de datos.
  • Facilitar el acceso y el análisis de la información.
  • Extracción de información a partir la integración de todas las fuentes de datos.

Los resultados obtenidos muestran que se cuenta con 637 documentos almacenados en la base de datos, de los cuales 380 son de participantes y 257 de pedigríes. Esto representa aproximadamente un 4% del total de la población a estudio.

La diferencia de documentos pone de manifiesto que a pesar de ser pocas personas, un número elevado de las mismas están relacionadas. Analizando la relación de participantes de cada población, es posible sospechar que, retrotrayéndose lo suficiente, se pueden encontrar ancestros comunes para casi todos los participantes. Además, se cuenta con otros datos que proporcionan información útil de la población estudiada y que podrían incorporarse al estudio, proporcionando otro tipo de conclusiones. Éstos son la edad, la actividad profesional, etc. Hay que considerar que para cada gen hay información de hasta cinco bases de datos (aunque no siempre hay información de todas) y que los riesgos están organizados en grupos de cáncer, que a su vez se dividen en cánceres específicos.

Con todo, se ha conseguido una base de datos que aúna múltiples fuentes, aportando valor extra al proyecto. La última base de datos es la de variantes. En ella, hay información de 2 runs, un total de 559.374 variantes y 1.283.123 análisis de cobertura para transcritos, para un total de 1.842.499 documentos.

Fuente de la publicación: 
  • Álvaro Rodríguez San Pedro, Félix Rodríguez Rodríguez y José-Luis González-Sánchez. Sistema bioinformático de apoyo a la investigación en la unificación del patrimonio genealógico y genético. Trabajo Final de Grado (TFG) en Ingeniería Informática en Ingeniería de Software de la Universidad de Extremadura.

Plataforma de integración y gestión de datos geolocalizados destinados a mejorar la eficiencia agraria de los cultivos

Es un hecho que las nuevas tecnologías están llegando con retraso al sector agropecuario en Extremadura, creando una gran desigualdad respecto a otros sectores como la industria alimentaria. Este problema se ve acrecentado ante una demanda de productos del sector agrícola y ganadero que va en aumento y que resulta en un mercado basado en la importación de productos del exterior y en la producción de productos de baja calidad. Esto supone un reto para el sector tecnológico de la región. Es por ello que se deben proponer soluciones para la mejora de la producción agrícola y ganadera y paliar esta desigualdad entre la oferta y la demanda.

Entre todos los objetivos que pueden ser acometidos por la tecnología para avanzar en este sector, este Trabajo de Fin de Grado se centra en los datos abiertos que, junto a tecnologías tan actuales como el Big Data o el aprendizaje automático ponen al alcance de cualquiera el desarrollo de herramientas beneficiosas para el entorno.

Su finalidad es la creación de un sistema que aporte valor al desarrollo de tecnologías vinculadas a la agricultura de precisión nutriéndose de medios como las fuentes de datos abiertos. Los objetivos específicos que se persiguen son los siguientes:

  • Análisis, diseño, implementación y evaluación de rendimiento de una plataforma de fuentes de datos públicas y abiertas en el sector agrario y agroalimentario.
  • Estudio de la viabilidad de uso de repositorio centralizado, distribuido o híbrido en la plataforma Open Data.
  • Evaluación técnica para la elección del Sistema Gestor de Bases de Datos (SGBD).

El proceso de desarrollo completo de la plataforma se culmina satisfactoriamente. Se realiza la implementación completa de un sistema para consultas en el portal Eurostat y el portal INE, mientras que se han dejado sentadas las bases para que en futuras fases del proyecto se añadan el resto de fuentes de datos abiertos con los que se desee trabajar. Para favorecer la ampliación de la plataforma se sigue un diseño modular. En lo referente al estudio de viabilidad de uso de un repositorio centralizado, distribuido o híbrido, se decide usar un repositorio centralizado. El resultado del modelo seleccionado es satisfactorio para las fuentes de datos elegidas, además, debido al diseño que ha adoptado el repositorio, será fácilmente ampliable en futuras fases del proyecto. Por último, en lo referente a la elección del Sistema de Bases de Datos, se utiliza un sistema no relacional, siguiendo un modelo NOSQL, donde los datos se almacenan en forma de documentos. Éstos presentan una estructura flexible, sin un esquema prefijado, lo cual favorece la inclusión de datos de diversas fuentes de forma sencilla. Actualmente la base de datos del repositorio cuenta con unos 300.000 registros y el rendimiento es óptimo, pero si el proyecto crece, el número de registros irá aumentando y siempre se podrá cambiar el modelo del repositorio al tipo híbrido.

Fuente de la publicación: 
  • Álvaro Huertas Martín, Félix Rodríguez Rodríguez y José-Luis González-Sánchez. Plataforma de integración y gestión de datos geolocalizados destinados a mejorar la eficiencia agraria de los cultivos. Trabajo Final de Grado (TFG) en Ingeniería Informática en Ingeniería de Software de la Universidad de Extremadura.

A Novel Methodology Based on Orthogonal Projections for a Mobile Network Data Set Analysis

Nowadays, networks are at the center of the next industrial revolution. In fact, 5G in a short time will connect people, industries and things, so understanding how the network is performing its critical mission in this new paradigm is a key aspect. Network analytics increases the knowledge of the network and its users, leading the network managers to make smarter, data-driven decisions about the operations that they will execute in the network. In this article, a new methodology is introduced to analyze real data contained in a Call Details Record of a mobile network. With this novel methodology, the extraction of extreme points using the orthogonal projection decrease the complexity of the classification algorithm to obtain key information about network usage. Experimental results show how the proposed methodology selects and classifies network behavior patterns using a simple classification algorithm and how these patterns could be used to find, for instance, anomalies in the network, track human mobility, undertake network planning, detect events in the network, etc.

Fuente de la publicación: 
  • D. Cortés-Polo, L. I. J. Gil, J. Calle-Cancho and J. González-Sánchez. A Novel Methodology Based on Orthogonal Projections for a Mobile Network Data Set Analysis. IEEE Access, vol. 7, pp. 158007-158015, 2019. doi: 10.1109/ACCESS.2019.2949804.

Analysis of Energy Consumption and Optimization Techniques for Writing Energy-Efficient Code

El crecimiento sin precedentes de los dispositivos conectados, junto con la notable convergencia de una amplia variedad de tecnologías, han llevado a un aumento exponencial de los servicios ofrecidos por el Internet de las cosas (IoT, Internet of Things), destinados a mejorar nuestra calidad de vida. Uno de los retos a los que se enfrentan actualmente los investigadores es la reducción del consumo energético, debido a las significativas limitaciones que presentan algunos de estos dispositivos. Además, aunque inicialmente la búsqueda de la eficiencia energética estuvo centrada en el hardware, también se ha convertido en una preocupación para los desarrolladores de software. De hecho, actualmente supone una intensa área de investigación que presenta como objetivo principal el análisis y la optimización del consumo de energía en los sistemas software.

Por ello, esta investigación analiza el ahorro energético que puede obtenerse mediante la utilización de un amplio conjunto de técnicas destinadas a la escritura de código energéticamente eficiente. También demuestra que los programadores pueden ahorrar más energía si aplican manualmente las técnicas propuestas, en lugar de confiar en otras opciones de optimización automática ofrecidas por compiladores como GCC (GNU Compiler Collection). En consecuencia, los autores destacan que los programadores deben ser conscientes del significativo impacto que estas técnicas pueden tener en el consumo de energía de una aplicación.

Fuente de la publicación: 
  • Javier Corral-García, Felipe Lemus-Prieto, José-Luis González-Sánchez and Miguel-Ángel Pérez-Toledano. Analysis of Energy Consumption and Optimization Techniques for Writing Energy-Efficient Code. Electronics 2019, 8, 1192 (21 pages). doi:10.3390/electronics8101192.

Análisis de costes del despliegue de una arquitectura de red basada en SDN/NFV

En los últimos años, el incremento exponencial del tráfico de datos móviles unido al despliegue de nuevos servicios sobre las redes actuales, han propiciado que los operadores de red busquen nuevas tecnologı́as para adaptarse. Entre éstas, destacan especialmente las redes definidas por software (SDN) y la virtualización de funciones de red (NFV), como dos de las tecnologı́as que se ajustan a la naturaleza dinámica de las redes de próxima generación. Dado que la migración a estas nuevas tecnologı́as conlleva un coste elevado para los operadores, éstos buscan soluciones que ofrezcan un aumento de las capacidades de la red, reduciendo lo máximo posible los costes de infraestructura (CAPEX) y los costes de operación (OPEX).

Este trabajo desarrolla un análisis y evaluación de costes sobre la Red Cientı́fico Tecnológica de Extremadura (RCT), de forma que se puedan cubrir las necesidades de las redes de próxima generación, reduciendo costes y proporcionando agilidad en el despliegue de sus servicios.

Fuente de la publicación: 
  • Jesús Calle‐Cancho, David Cortés‐Polo, Javier Carmona‐Murillo, José‐Luis González‐Sánchez and Francisco‐Javier Rodríguez‐Pérez. Análisis de costes del despliegue de una arquitectura de red basada en SDN/NFV. XIV Jornadas de Ingeniería Telemática (JITEL 2019), Zaragoza, octubre 2019.

Efficiency Analysis in Code Development for High-Performance Computing Centers

La computación de alto rendimiento (HPC, High-Performance Computing) se ha convertido en una herramienta indispensable para resolver proyectos de gran complejidad que de otra forma no podrían ser abordados. Sin embargo, desarrollar programas paralelos que aprovechen realmente sus beneficios, mediante un uso adecuado y eficiente de los recursos disponibles, resulta complicado para usuarios noveles o investigadores de ramas de la ciencia muy alejadas de la programación informática.

Con el objetivo de ayudar a estos usuarios y lograr mejores rendimientos en centros HPC, en CénitS se ha desarrollado un transcompilador para la paralelización automática de códigos secuenciales. Los esfuerzos actuales se centran en ampliar dicho transcompilador con un módulo adicional para la optimización de códigos secuenciales y paralelos, con el objetivo de acelerar sus tiempos de ejecución. Para ello, se evaluaron diversas técnicas para la escritura de código eficiente,  con el fin de ser integradas en el transcompilador en el futuro. De este modo, este trabajo discute la importancia de estas técnicas para disminuir los tiempos de ejecución de los programas HPC. Además, muestra un conjunto de pruebas desarrolladas para analizar y medir las mejoras obtenidas al aplicar cada una de las técnicas, consiguiendo todas ellas un significativo impacto en los tiempos de ejecución.

Fuente de la publicación: 
  • Javier Corral-García, José-Luis González-Sánchez, and Miguel-Ángel Pérez-Toledano. 2019. Efficiency Analysis in Code Development for High Performance Computing Centers. In Proceedings of the Seventh International Conference on Technological Ecosystems for Enhancing Multiculturality (TEEM 2019) (León, Spain, October 16-18, 2019), ACM, New York, NY, USA, pp 539-547. https://doi.org/10.1145/3362789.3362865.

Gestión de la seguridad de las comunicaciones para entornos de HPC en centros de supercomputación

La búsqueda de la eficiencia por parte de los centros de supercomputación para adaptarse a las necesidades de los usuarios, en cuanto a los recursos de cómputo, está llevando a integrar múltiples tecnologı́as que deben convivir de forma heterogénea, de manera que la gestión de los recursos, ası́ como, la seguridad de la infraestructura de cómputo se está volviendo más compleja que en los escenarios tradicionales. En este marco, tecnologı́as como las redes definidas por software o la virtualización de funciones de red están siendo adoptadas como mecanismos que facilitan la gestión de las comunicaciones, y como soluciones que introducen un buen número de herramientas a la hora de gestionar la seguridad de los clústers de computación. En este trabajo se describen las principales caracterı́sticas de la evolución de estas redes de comunicaciones y su aplicación a la seguridad de la información y las comunicaciones de un centro de cómputo, de forma que se expone un ejemplo de uso donde se aplican estas tecnologı́as de nueva generación para detectar y mitigar un problema de seguridad mediante funciones de red virtualizadas desplegadas en contenedores.

Fuente de la publicación: 

David Cortés-Polo, Felipe Lemus-Prieto, Jesús Calle-Cancho, Luis Ignacio Jiménez y José-Luis González-Sánchez. Gestión de la seguridad de las comunicaciones para entornos de HPC en centros de supercomputación. Avances en Arquitectura y Tecnología de Computadores, Actas de las Jornadas SARTECO 2019. Cáceres, España. 18-20 septiembre, 2019. ISBN: 978-84-09-12127-4. pp 437-443.

Medición de overheads para el uso eficiente de recursos en centros de computación de alto rendimiento

El desarrollo de códigos para su ejecución en infraestructuras de computación de alto rendimiento (HPC, High-Performance Computing) puede resultar una ardua tarea para científicos que no son expertos en programación paralela, pero que necesitan estas infraestructuras para el desarrollo de sus investigaciones. A menudo intentan ejecutar sus códigos utilizando tantos núcleos como sea posible, sin considerar el overhead asociado, creyendo, en muchos casos erróneamente, que de ese modo obtendrán antes sus resultados, con el consecuente e innecesario gasto que esto puede suponer en términos de tiempo, energía y recursos. Éste es un problema común en los centros de HPC, donde las decisiones de planificación eficiente y el ahorro energético se convierten en desafíos clave que afrontar diariamente. Para ayudar a resolverlos, se presenta un método de medición de overhead, centrado en la eficiencia, para analizar los efectos producidos, tanto por el incremento del número de cores de ejecución, como por la planificación paralela escogida en cada caso.

Fuente de la publicación: 

Javier Corral García, José Luis González Sánchez y Miguel Ángel Pérez Toledano. Medición de overheads para el uso eficiente de recursos en centros de computación de alto rendimiento. Avances en Arquitectura y Tecnología de Computadores, Actas de las Jornadas SARTECO 2019. Cáceres, España. 18-20 septiembre, 2019. ISBN: 978-84-09-12127-4. pp 326-333.

High Performance Computing, Big Data, and Cloud Computing: The Perfect De Facto Trio or Converging Technological Mantras?

Actualmente, existe una creciente necesidad de avanzar en las estrategias que dirigen el crecimiento y el avance de las empresas y la industria. Así, resulta clave la utilización de métodos que consigan su adaptación al progreso, esencial para el éxito de estas organizaciones.

La transformación organizativa y la innovación de la gestión en la Cuarta Revolución Industrial proporcionan conocimientos sobre la gestión de los avances y la implementación de estrategias para adaptarse a estos cambios. Por ello, el libro "Organizational Transformation and Managing Innovation in the Fourth Industrial Revolution" editado por la Profesora Alicia Guerra de la Universidad de Extremadura, y publicado por IGI Global, cubre diversos aspectos centrados en el crecimiento de las empresas y cómo éstas cambian junto con la economía y la infraestructura, al mismo tiempo que examina, tanto el compromiso social, como el ciberperiodismo y la innovación educativa, estando orientado a gerentes, consultores, académicos, investigadores y profesionales.

Varios ingenieros de CénitS han colaborado en la elaboración de un capítulo dedicado a Computación de Alto Rendimiento (HPC, High-Performance Computing), Big Data y Cloud Computing, tres paradigmas básicos de alta complejidad que, por separado o convergentes, están consolidando una revolución que está cambiando el mundo y ofreciendo oportunidades a todos aquellos que están dispuestos a adaptarse a los cambios de la revolución digital. 

Fuente de la publicación: 
  • González-Sánchez, J., Calle-Cancho, J., Cortés-Polo, D., Jiménez Gil, L., & López-Rourich, A. (2019). High Performance Computing, Big Data, and Cloud Computing: The Perfect De Facto Trio or Converging Technological Mantras?. In A. Guerra Guerra (Ed.), Organizational Transformation and Managing Innovation in the Fourth Industrial Revolution (pp. 165-182). Hershey, PA: IGI Global. doi:10.4018/978-1-5225-7074-5.ch009

Estudio y análisis de nuevos mecanismos para redes inalámbricas de próxima generación haciendo uso de técnicas de computación de altas prestaciones

En los últimos años, las redes inalámbricas han experimentado un gran desarrollo debido al aumento exponencial de dispositivos móviles. Además, según varios informes de las principales empresas del sector TIC, se prevé que el volumen de tráfico de datos se multiplique por 1000 en el año 2020. Por ello, se están realizando avances en la infraestructura de red existente para dar cobertura a la creciente demanda de capacidad que se producirá en un futuro cercano, considerando despliegues de celdas de cobertura muy densos en las redes de próxima generación (5G).

Además, están apareciendo numerosos mecanismos para incrementar la capacidad de la red, como por ejemplo mejorar la eficiencia espectral con técnicas avanzadas de modulación y codificación, mejorar las condiciones de interferencia dentro de una celda mediante el uso de tecnologı́as avanzadas en la antena (Beamforming) o mejorar el número de enlaces entre un transmisor y un receptor a través del uso de tecnologı́as de multiplexación (MIMO), entre otros. No todos estos mecanismos son rentables desde el punto de vista económico, ya que, normalmente, los costes de infraestructura de red se incrementan de manera lineal en relación al número de estaciones base desplegadas. Por ello, los operadores de comunicaciones buscan soluciones que ofrezcan un aumento de la capacidad de red, reduciendo al máximo posible los costes de infraestructura (CAPEX) y los costes para mantenerla operativa (OPEX). Conseguir un equilibrio entre el despliegue eficiente de las estaciones base y los costes asociados a dicho despliegue no es una tarea sencilla, por lo que aparece la necesidad de elevada capacidad de cómputo como la que proporcionan los centros de supercomputación.

Por ello, este proyecto propone un estudio y un análisis del despliegue de mecanismos de nivel fı́sico, considerando cuál es el grado de influencia sobre los niveles superiores, desde el punto de vista del rendimiento y de los costes económicos asociados a los despliegues llevados a cabo.

Fuente de la publicación: 

José Javier Rico Palomo, Javier Carmona Murillo y Jesús Calle Cancho. Estudio y análisis de nuevos mecanismos para redes inalámbricas de próxima generación haciendo uso de técnicas de computación de altas prestaciones. Trabajo de Fin de Grado en Ingeniería Telemática de la Universidad de Extremadura. Noviembre de 2018.

Evaluation of Strategies for the Development of Efficient Code for Raspberry Pi Devices

The Internet of Things (IoT) is faced with challenges that require green solutions and energy-efficient paradigms. Architectures (such as ARM) have evolved significantly in recent years, with improvements to processor efficiency, essential for always-on devices, as a focal point. However, as far as software is concerned, few approaches analyse the advantages of writing efficient code when programming IoT devices. Therefore, this proposal aims to improve source code optimization to achieve better execution times. In addition, the importance of various techniques for writing efficient code for Raspberry Pi devices is analysed, with the objective of increasing execution speed. A complete set of tests have been developed exclusively for analysing and measuring the improvements achieved when applying each of these techniques. This will raise awareness of the significant impact the recommended techniques can have.

Fuente de la publicación: 
  • Javier Corral-García, José-Luis González-Sánchez and Miguel-Ángel Pérez-Toledano. Evaluation of Strategies for the Development of Efficient Code for Raspberry Pi Devices. Sensors 2018, 18(11), 4066. doi:10.3390/s18114066.

Sistema Ciberfísico para la Optimización de una Explotación Agropecuaria

El desarrollo de la agricultura, comparada con otras áreas, se encuentra retrasado y avanza lentamente. Además, en los próximos años deberá enfrentarse al reto de abastecer a una población mundial en crecimiento al mismo tiempo que se disminuyen las hectáreas cultivables por persona. Esto implica que se debe aumentar considerablemente la productividad.

Para ello, se debe aspirar a una gestión de los cultivos de manera innovadora, profesional y de máxima producción, sobre la base de la observación, la medida y la actuación frente a los datos que se puedan extraer.

Los avances en la ciencia y el desarrollo tecnológico han permitido la implementación de sensores que, junto con la aparición de otras tecnologías como el Big Data y el Internet de las Cosas han hecho posible el avance de las técnicas de agricultura de precisión.

Aunque la incorporación de la agricultura inteligente en las etapas del ciclo de producción (preparación del suelo, siembra, gestión de los cultivos, cosecha y almacenamiento del producto final) presenta numerosas ventajas, sigue en etapa de gestación, con bajos niveles de penetración.

Este Trabajo de Fin de Grado pretende desarrollar un sistema ciberfísico que mediante el uso de sensores, dispositivos y una aplicación informática, permitirá obtener información detallada del cultivo del suelo y de variaciones climáticas más específicas que las técnicas de agricultura tradicional.

Fuente de la publicación: 
  • Juan Francisco Bermejo, José Luis González y Félix R. Rodríguez. Sistema Ciberfísico para la Optimización de una Explotación Agropecuaria. Trabajo de Fin de Grado en Ingeniería Informática en Ingeniería del Software de la Universidad de Extremadura. Noviembre de 2018.

A New Role for Supercomputing Centers in Open Science

In the last decades an exponential increase of the scientific and technical development in all the areas of science has become manifest, being more and more relevant the conflicts between the pure scientific advance of the society and the property of the researched knowledge. Particularly the brake that certain aspects of the established system suppose in the acquisition of some findings. The ever demanding scientific community aims for new platforms and services up to date in order to diminish the inconveniences that have arisen due this same growth. The guidelines provided by the Open Science (OS), despite being a concept already discuss for some time, set out the perfect framework for the creation of new applications and platforms in which the research centers might take over from the responsibility exercised so far by the publishers to allocate resources for disclosure and distribution without replace them. In particular Open Access (OA), Open Data (OD) and Open Methodologies (OM) are the guidelines that can fit the most in the current tasks performed by supercomputing and research centers where availability, reliability and security are concepts well implemented already and can be very powerful skills to them in order to step in the spotlight in this new framework which is OS. In the other hand, while universities and publishers can be tempted by recognition and self promotion at the time of deciding whether a job can benefit them or not, the public supercomputing centers, that are already providing services for both private and public projects, working in the same direction and as a set, could be considered more objectives. In this paper it is proposed a path to follow by the supercomputing centers, within the framework of European Open Science, to share resources with the aim of providing an adequate infrastructure for the development of scientific research, adding to their current competences the ability to become neutral ground for scientific disclosure.

Fuente de la publicación: 

Luis Ignacio Jiménez, Jesús Calle-Cancho, David Cortés-Polo and José Luis González Sánchez. A New Role for Supercomputing Centers in Open Science. IBEGRID 2018. Lisbon, Portugal. October 2018.

Implementación de un Sistema para el Control de Consumos Energéticos en Entornos HPC

El propósito de este proyecto es la monitorización de trabajos ejecutados sobre el supercomputador LUSITANIA II. Debido a la gran relevancia que posee la correcta administración de los recursos disponibles en el supercomputador, obtener la capacidad de gestionar sus recursos de forma inteligente se ha convertido en una actividad prioritaria.

Por tanto, la aportación de este proyecto ha sido desarrollar una herramienta integrando diferentes programas / herramientas, cuyo funcionamiento conjunto tiene como objetivo facilitar al usuario final una correcta extracción, realización de gráficos y tratamiento de los datos obtenidos. Para ello se han utilizado programas como: Slurm, empleado como extractor de datos de los trabajos del Lusitania II y Grafana, cuyo uso ha sido como motor gráfico. En cuanto al lenguaje de programación principalmente empleado ha sido Python, debido a las facilidades que proporciona en cuanto a tratamiento con matrices y, a la gran comunidad de usuarios de carácter OpenSource que posee.

Cabe destacar que la eficiencia energética es cada vez más importante en la administración de recursos, debido principalmente a los costes derivados de los enormes requerimientos exigidos por los sistemas de cómputo avanzado. En este ámbito la capacidad de registrar el consumo individual de los trabajos lanzados en un supercomputador abre las puertas a un número importante de opciones de gestión. Es evidente la importancia del aspecto económico a la hora de consumir la energía estrictamente necesaria con el objetivo de ofrecer un servicio eficiente.

La organización de la memoria de este proyecto consta de una primera sección, la Introducción, en la cual se detallan los pasos seguidos en la elaboración de este trabajo. La segunda sección consta de los objetivos de nuestro trabajo detallándose todas las metas que se desea alcanzar. La siguiente sección, el Estado del Arte, actualiza los conocimientos sobre las herramientas/técnicas previas que existen en el sector. Tras esto, en la siguiente sección del trabajo se detalla la Metodología empleada, en la cual se explica todo el proceso de planificación que se ha ido siguiendo, con el objetivo de cubrir todas las partes de manera correcta y que en ninguna parte escasee el tiempo para su desarrollo. Por otro lado, la sección de Implementación muestra todo lo relacionado con el desarrollo de la propia herramienta descrita previamente. La sección de Resultados y discusión, recopila los resultados obtenidos en cada fase de la sección de Implementación y proporciona un balance general sobre la calidad de los datos con respecto a la calidad esperada. La última parte del trabajo trata las Conclusiones y trabajos futuros proporcionando un comentario final sobre el proyecto y proponiendo varias líneas de trabajos futuros con los cuales se podrán aumentar las funcionalidades de la herramienta creada. Tras esto, encontramos las secciones de Referencias Bibliográficas y de Anexos. La primera de ellas es una recopilación de todos los enlaces de aquellas páginas/libros/artículos y otros proyectos que se han consultado en busca de información y de ayuda para este proyecto. Y, la segunda, a su vez se divide en un primer anexo el cual agrupa todo el código mostrado a lo largo del proyecto y el segundo, trata de un manual de usuario, donde se explica cómo proceder con las herramientas utilizadas en el proyecto.

Fuente de la publicación: 

Manuel José Casillas, José Luis González y Miguel Ángel Vega. Implementación de un Sistema para el Control de Consumos Energéticos en Entornos HPC. Trabajo de Fin de Grado en Ingeniería Informática en Ingeniería de Computadores de la Universidad de Extremadura. Septiembre de 2018.

Mecanismos de Monitorización y Análisis de Tráfico en Redes de Próxima Generación

Currently, communication networks are formed by a heterogeneous set of technologies and protocols in constant evolution, characterized by a great complexity. The current network protocols provide a great performance and reliability, increase the connectivity and the security but each protocol solves a specific problem without a global abstraction.

To solve this problem and to simplify the network management, a new trend called Software Defined Networking (SDN) has emerged. It’s a new network architecture based on the separation between the data plane functions and control plane functions of the network infrastructure, making the management, evolution and operation simplified by adding centralized software approaches.

Due to the expected evolution of networks towards the SDN architecture and the importance of monitoring systems in the management and maintenance of networks, it is necessary to review the classic mechanisms for monitoring network traffic and end devices computing to adapt them to this new scenario.

This project analyzes the new monitoring mechanisms that are currently being proposed for this type of networks, as well as the development of an application for granular monitoring of network data flows and graphical representation of metrics integrated within of the SDN paradigm.

With the development of this prototype, computing and network traffic will be analyzed by means of the data acquired in the network and the performance of the set of data metrics will be represented in real time graphs, which will be the entry requirements to subsequently establish quality of service (QoS) and security policies in the next generation networks.

Fuente de la publicación: 
  • Daniel González Sánchez, Javier Carmona Murillo y David Cortés Polo. Mecanismos de Monitorización y Análisis de Tráfico en Redes de Próxima Generación. Trabajo de Fin de Grado en Ingeniería en Telemática de la Universidad de Extremadura. Septiembre de 2018.

Compilador source-to-source, para la paralelización automática de códigos secuenciales, orientado a la gestión eficiente de recursos en centros de Computación de Alto Rendimiento

La Computación de Alto Rendimiento supone una potente herramienta para dar solución a proyectos de elevada complejidad que de otra forma no podrı́an ser afrontados. Sin embargo, desarrollar programas paralelos que aprovechen sus beneficios, haciendo un uso adecuado y eficaz de los recursos de cómputo disponibles, resulta complejo para investigadores, de diversas ramas de la ciencia, que no presentan experiencia previa en la programación paralela. Por ello, se ha desarrollado un transcompilador que, mediante aprendizaje supervisado, entrenado con la ayuda de un sistema de apoyo a la toma de decisiones, persigue equilibrar el uso eficiente de los recursos en este tipo de centros, con la necesidad de sus usuarios de obtener resultados en tiempos adecuados, mediante la paralelización automática de códigos secuenciales enfocada a la formación de nuevos usuarios en el ámbito de la programación paralela.

Fuente de la publicación: 

Javier Corral García, José Luis González Sánchez y Miguel Ángel Pérez Toledano. Compilador source-to-source, para la paralelización automática de códigos secuenciales, orientado a la gestión eficiente de recursos en centros de Computación de Alto Rendimiento. Avances en arquitectura y tecnología de computadores, actas de las Jornadas SARTECO 2018. Teruel, España. 12-14 septiembre, 2018. ISBN: 978-84-09-04334-7. pp 321-328. 

Análisis de un sistema de gobierno para federaciones de centros de procesamiento de datos con computación de alto rendimiento

En los últimos años, las Tecnologías de la Información y la Comunicación (TIC) se han convertido en parte de la sociedad, cambiando múltiples aspectos como la forma de vida, las relaciones o el desempeño de la actividad profesional. La denominada Sociedad de la Información o del Conocimiento está fuertemente influenciada por la aparición de los servicios en la nube (Cloud Computing). Dichos servicios, que se proporcionan a través de Internet a los usuarios finales, se ofrecen desde centros de procesamiento de datos.

En un Centro de Procesamiento de Datos (CPD) se concentran todos los recursos necesarios para el tratamiento de los datos y convertirlos en información útil. El CPD debe garantizar la continuidad y disponibilidad del servicio a clientes y empleados, de tal modo que es muy importante la protección de los equipos de comunicaciones, servidores y equipos de almacenamiento que puedan contener información sensible.

Las organizaciones, conscientes del valor que posee la información para la subsistencia del negocio o la investigación, reparan en la importancia de tener un CPD que garantice la disponibilidad y la seguridad de su activo más valioso.

Históricamente, los criterios de diseño del CPD se basaban, principalmente, en la disponibilidad, el rendimiento y la seguridad, lo que suponía un sobredimensionamiento de todos los componentes del CPD y un uso ineficiente, económica y energéticamente, de los recursos. En la actualidad, el enfoque principal de este tipo de centros busca los mismos criterios citados anteriormente pero desde una gestión óptima de los recursos disponibles para aumentar su eficiencia económica y energética. Para lograrlo es imprescindible un dimensionamiento adecuado de todas sus infraestructuras, además de mecanismos como la consolidación y virtualización de servidores, redes y equipos electrónicos.

El objetivo principal de este Trabajo Fin de Máster es maximizar la eficiencia económica y energética de los equipos informáticos y de climatización de CPDs, mediante el desarrollo de un sistema inteligente para gestionar una federación de CPDs.

Para alcanzar este objetivo fue necesario, en primer lugar, la realización de un estudio y análisis sobre CPDs, el paradigma cloud computing y el estado del arte de las federaciones de CPDs. A continuación se procedió a diseñar y desplegar la infraestructura necesaria para la federación y los servicios de gestión de la misma en CénitS utilizando la plataforma OpenNebula.

Los principales resultados de este proyecto fueron los siguientes: 

  • Ampliación de conocimientos sobre cloud computing.
  • Despliegue de infraestructuras cloud en OpenNebula.
  • Aprendizaje de lenguaje de programación Ruby; implementación de un sistema de gobierno inteligente en CénitS.
Fuente de la publicación: 
  • Javier Rubio Bravo. Análisis de un sistema de gobierno para federaciones de centros de procesamiento de datos con computación de alto rendimiento. Trabajo Final de Máster en Ingeniería de Telecomunicación, Universidad de Extremadura. 2017.

Evaluación de la movilidad IP y posibilidades de integración en redes programables 5G

En los últimos años, la generalización de los dispositivos de comunicaciones inalámbricos y el desarrollo de multitud de servicios y aplicaciones han hecho que las redes inalámbricas y móviles se hayan convertido en la parte más atractiva y dinámica en el acceso de los usuarios a las tecnologías de la información y las comunicaciones (TIC). Según las previsiones de las principales empresas del sector, se espera que el tráfico de datos en este tipo de redes se multiplique casi por 10 en el año 2020 y que tres cuartas partes de todo este tráfico sea tráfico multimedia. Un requerimiento fundamental para poder dar soporte a este crecimiento de datos en las redes de próxima generación es el de la gestión eficiente de la movilidad de los usuarios. Por tanto, es necesario diseñar nuevas técnicas que permitan mantener las conexiones activas en situaciones cambiantes.

Tanto la industria como la academia coinciden en que el motor de los sistemas 5G estará basado en software, recayendo el funcionamiento de la red en mecanismos emergentes. Uno de ellos es el de las redes definidas por software (SDN) con el que se espera conseguir el rendimiento esperado, escalabilidad y agilidad en la red.

La integración de las SDN con las redes troncales y, sobre todo con redes de centros de cómputo, es un campo de investigación abierto a propuestas innovadoras, principalmente, en el caso de redes de baja latencia, elevado ancho de banda y baja sobrecarga de CPU como InfiniBand, por ello se analizará este importante aspecto.

En este proyecto, se propone el estudio y análisis de los mecanismos de gestión de la movilidad e integración con otras tecnologías, basados en el paradigma SDN a través de un entorno de emulación de la red en el que sea posible probar el rendimiento de las soluciones con distintas configuraciones de tráfico, topología, modelos de movimiento de los usuarios, etc.

Como resultado del estudio y análisis inicial de soluciones existentes el autor propone una solución propia: SDN Redirection-based DMM (SR-DMM), cuyas principales características son las siguientes:

  • Mayor flexibilidad ya que no requiere de dispositivos especializados para la gestión de la movilidad.
  • Se puede implementar en dispositivos genéricos.
  • Permite el desarrollo del protocolo a través de programación.
  • Mejora el Coste de Entrega de Paquetes y elimina el Coste de Tunneling.
Fuente de la publicación: 
  • José Manuel Mendoza Rubio. Evaluación de la movilidad IP y posibilidades de integración en redes programables 5G. Trabajo de Fin de Grado en Ingeniería Telemática, Universidad de Extremadura. Septiembre de 2017.

Deployment of next generation services in the Scientific and Technological Network of Extremadura

With the continuous development of network communications over the past few years, the achievement of an efficient orchestration and network management has revealed as one of the major challenges in next-generation networks environments. Furthermore, advances in mobile technologies and the user-driven growth of an increasingly diverse range of services has triggered the requirements to create a new generation of efficient network management mechanisms and architectures able to support these new mobile technologies, services and applications. The configuration and installation of traditional networks require a high degree of knowledge because many network elements have to be treated. Moreover the interactions between networks nodes (switches, routers, etc) are complex. Most cloud applications are distributed and often involve significant network activity to perform their operations. Network operators and service and product providers require a new network solution to efficiently for supporting the increasing demands of this changing network landscape.

Software Defined Networking (SDN) has emerged as an efficient network approach capable of supporting the dynamic nature of the next-generation networks. Integrated with this approach, Network Function Virtualization (NFV) has also emerged as an important opportunity in telecommunications service provisioning for providing an optimization of network functions and resources.

The importance of these approaches is that SDN and NFV has a potential to lead to important reductions in capital expenditures (CAPEX) and operating expenditures (OPEX), which facilitate the deployment of new services. For this reason, the virtualization has emerged to decouple the software networking processing and applications from it hardware, allowing network services to be implemented as a software.

In this project, an approach is proposed in order to reduce the impact of NFV, SDN and Cloud-RAN on the total cost (TCO) of Extremadura Scientific Technological Network (RCT). A techno-economic model is presented providing a technical and economic vision. Moreover, a qualitative and quantitative analysis is established to evaluate the benefits and disadvantage of these emergent technologies.

The quantitative model is used to perform experiments which show a significant cost reduction when virtualization mechanisms are applied on radio access networks. The performed analysis reveals that the proposed architecture provides important CAPEX, OPEX and TCO savings. The experimental results obtained from the comparison between the traditional case and the virtualized case show that:

  • CAPEX for the virtualized radio access network can be reduced up to 70 percent with respect to the traditional case.
  • In comparison with traditional radio access network, the OPEX for the virtualized radio access network can be reduced up to 59 percent.
  • The TCO for the virtualized architecture can be reduced up to 68 percent.
  • The cost reduction increases when the number of virtual slices grows.
  • The cost savings are greater when the EPC is virtualized.
Fuente de la publicación: 
  • Jesús Calle Cancho. Deployment of next generation services in the Scientific and Technological Network of Extremadura. Trabajo Final de Máster Universitario en Dirección TIC, Universidad de Extremadura. Julio de 2017.

HPC Services to Characterize Genetic Mutations Through Cloud Computing Federations

One child in every 200 births may be affected by one of the approximately 6,000 monogenic diseases discovered so far. Establishing the pathogenicity of the mutations detected with NGS (Next-Generation Sequencing) techniques, within the sequence of the associated genes, will allow Precision Medicine concept to be developed. However, sometimes the clinical significance of the mutations detected in a genome may be uncertain (VUS, Variant of Uncertain Significance) which prevents the development of health measures devoted to personalize individuals' treatments. A VUS pathogenicity can be inferred thanks to evidences obtained from specific types of NGS studies. Therefore the union of supercomputing through HPC (High-Performance Computing) tools and the cloud computing paradigm (HPCC), within a Data Center federation environment offers a solution to develop and provide services to infer the pathogenicity of a set of VUS detected in a genome, while guaranteeing both the security of the information generated during the whole workflow and its availability.

Fuente de la publicación: 

Performance Evaluation of Distributed Mobility Management Protocols: Limitations and Solutions for Future Mobile Networks.

Mobile Internet data traffic has experienced an exponential growth over the last few years due to the rise of demanding multimedia content and the increasing number of mobile devices. Seamless mobility support at the IP level is envisioned as a key architectural requirement in order to deal with the ever-increasing demand for data and to efficiently utilize a plethora of different wireless access networks. Current efforts from both industry and academia aim to evolve the mobility management protocols towards a more distributed operation to tackle shortcomings of fully centralized approaches. However, distributed solutions face several challenges that can result in lower performance which might affect real-time and multimedia applications. In this paper, we conduct an analytical and simulated evaluation of the main centralized and proposed Distributed Mobility Management (DMM) solutions. Our results show that, in some scenarios, when users move at high speed and/or when the mobile node is running long-lasting applications, the DMM approaches incur high signaling cost and long handover latency.

Fuente de la publicación: 

Future Trends in Mobile-Fixed Integration for Next Generation Networks: Classification and Analysis

In recent years, the growth the in the number of heterogeneous interconnected systems, as well as the emergence of new requirements in applications and services are progressively changing the original simplicity and transparency of the Internet architecture. When this architecture was designed, the main goal was to interconnect stationary host. Therefore, the appearance of mobile communications has made necessary to adapt traditional protocols in order to accommodate mobile users. This implies a new interaction between the mobile network and the fixed access network. This paper describes the main IP mobility protocols both centralized and distributed paradigms, and emergent approaches based on software defined networking. Moreover, a novel classification is presented, which relates the integration of the mobility protocol with the access network. Analytical models evaluate the registration updates cost and the packet loss rate of the classified protocols.

Fuente de la publicación: 

Towards automatic parallelization of sequential programs and efficient use of resources in HPC centers

High-Performance Computing (HPC) is becoming increasingly required by scientists of all branches in order to achieve their desired research results. However, carrying out their research in an HPC center can be a difficult task when they are new to parallel programming. These users need support in the parallelization and optimization of their codes, in order to obtain reliable results as well as make efficient use of the available resources. For this purpose, a novel code analyzer for automatic parallelization of sequential codes is presented, focused on resource management of a supercomputing center, where efficient scheduling decisions and energy saving become key challenges. Thus, this paper aims to introduce the analyzer so as to demonstrate the importance of using it, specially in terms of efficiency, when running parallel codes in HPC centers.

Fuente de la publicación: 

Javier Corral-García, José-Luis González-Sánchez and Miguel A. Pérez-Toledano. Towards Automatic Parallelization of Sequential Programs and Efficient Use of Resources in HPC Centers. Proceedings of the 2016 International Conference on High Performance Computing & Simulation. IEEE HPCS 2016. Innsbruck, Austria. July 18-22, 2016. ISBN: 978-1-5090-2087-4, electronic ISBN: 978-1-5090-2088-1. pp 947-954. DOI: 10.1109/HPCSim.2016.7568436

Diseño de un sistema de gestión por procesos de negocio en CénitS/COMPUTAEX

Hoy en día, es un hecho innegable que las organizaciones están inmersas en mercados y entornos globalizados; entorno donde cualquier organización que desee tener éxito, o, al menos, sobrevivir, necesita obtener buenos resultados empresariales.

Para lograr estos buenos resultados comerciales, las organizaciones necesitan gestionar adecuadamente su actividades y recursos para alinearlos con los objetivos de negocio, lo que ha desembocado en la necesidad de utilizar herramientas y metodologías que permitan a las organizaciones configurar su sistema de gestión.

Existen diferentes estándares internacionales para la implantación de sistemas de gestión en las organizaciones, tales como ISO 9000, ISO 20000 o EFQM (Fundación Europea de Gestión de la Calidad), pero todos ellos poseen un elemento en común, todos proponen implementar dichos sistemas a través de un enfoque basado en procesos. Un enfoque basado en procesos permite organizar y gestionar las actividades de la organización más eficientemente con el fin de generar más valor para los clientes y demás partes interesadas.

El objetivo principal de este Trabajo Fin de Máster era el diseño e implementación de un sistema de gestión de una organización basado en procesos, tomando como ejemplo real una organización de TI, CénitS. Para, a continuación, optimizar los procesos implicados con el fin de mejorar el rendimiento (eficiencia y efectividad) de la organización. Además, este trabajo buscaba servir de ejemplo práctico para la implementación y optimización de un sistema de gestión por procesos.

Para alcanzar estos objetivos fue necesaria, en primer lugar, la realización de un estudio y análisis de la organización. Como resultado de dicho análisis, se identificaron y clasificaron los procesos internos más relevantes de la organización, en este caso CénitS. El siguiente paso consistió en el estudio de diferentes alternativas para la gestión y optimización de los procesos en organizaciones de TI, 
profundizando en la Gestión de Procesos de Negocio como principal estrategia para la implementación y optimización de procesos.
Finalmente se seleccionó la herramienta de software Bonita BPM para realizar el diseño y la implementación de aquellos procesos clasificados como clave dentro de la organización con el fin de automatizarlos y optimizarlos. 

Los principales resultados de este proyecto fueron los siguientes:

  • Definición y clasificación de procesos CénitS.
  • Mayor conocimiento del funcionamiento interno de la organización.
  • Avances en la implementación de la gestión de procesos en CénitS.
  • Aprendizaje de marcos de gestión, estándares y mejores prácticas en TI.
  • Automatización de procesos clave.
  • Implementación de herramientas para el diseño, simulación y optimización de procesos.
  • Ejemplo práctico de un sistema de gestión de procesos.
Fuente de la publicación: 
  • Felipe Lemus Prieto. Diseño de un sistema de gestión por procesos de negocio en CénitS/COMPUTAEX. Máster Universitario en Dirección TIC, Universidad de Extremadura. Febrero de 2016.

Despliegue de un testbed de redes definidas por software para la gestión de recursos de red en un CPD

El aumento de los dispositivos móviles y los contenidos, la virtualización de servidores, y la llegada de los servicios en la nube son algunas de las tendencias que impulsan a la industria del networking a reexaminar las arquitecturas de red tradicionales. El modelo de red predominante hoy en día no está optimizado para satisfacer los requerimientos actuales y futuros de los operadores de telecomunicaciones, empresas y usuarios finales. La mayor parte de las redes convencionales presentan una arquitectura estática inadecuada para los requisitos actuales, como, por ejemplo, las necesidades de almacenamiento de los centros de datos empresariales. Al reconocer el problema, la comunidad del networking trabaja para desarrollar nuevos modelos de red que se adapten mejor a los requisitos que son necesarios para los nuevos servicios y aplicaciones.
 
En los últimos años, una de las tendencias tecnológicas que ha suscitado mayor interés en los fabricantes son las Redes Definidas por Software (SDN). Este concepto no es nuevo y completamente innovador sino que surge como el resultado de contribuciones ideas y avances en la investigación de redes. La idea de una red que pueda programarse, y no simplemente configurarse, ha sido ya aplicada por numerosos fabricantes, pero con la limitación de que todas las iniciativas habían sido propietarias.

El objetivo general de este trabajo Fin de Máster fue llevar a cabo la implementación y evaluación de una red SDN (Software Defined Network). Para ello se realizaron las siguientes actividades:

  • Estudio profundo de los principios básicos de SDN.
  • Conocer diferentes controladores SDN para tomar una decisión sobre cuál de ellos es el más apropiado para usar en el desarrollo del proyecto.
  • Evaluación de la funcionalidad y el rendimiento del controlador.
  • Desarrollo e implementación de una SDN en un entorno virtual y en uno real.
  • Evaluación de las implementaciones mencionadas anteriormente.

Este proyecto ha permitido verificar que las redes SDN proporcionan una nueva forma de utilizar las redes. Aunque las redes definidas por software pueden tener una estructura similar a las redes tradicionales, la diferencia radica en el hecho que es en el controlador donde se toman las decisiones relacionadas con el tráfico de red mientras que en las redes tradicionales estas decisiones se toman en los dispositivos de red.
 

Fuente de la publicación: 
  • Laura Amarilla Cardoso. Despliegue de un testbed de redes definidas por software para la gestión de recursos de red en un CPD. Trabajo Final de Máster en Ingeniería de Telecomunicación, Universidad de Extremadura. Diciembre de 2015.

Gestión de la movilidad en redes de transporte de paquetes para la mejora de la calidad de servicio en la convergencia entre las redes fijas y móviles

Durante el año 2015, se presentó esta tesis doctoral, realizada por David Cortés, Administrador de redes y comunicaciones de CénitS, y dirigida por José Luis González Sánchez, Director General de la Fundación COMPUTAEX.

La gestión de la movilidad y la Calidad de Servicio (QoS) son dos de los objetivos más importantes en el presente y futuro desarrollo de las redes inalámbricas. En los últimos años, el incremento de los sistemas interconectados a la red de datos, y la aparición de nuevos dispositivos, servicios y aplicaciones han modificado la simplicidad y transparencia con la que se ideó Internet de manera progresiva, así como la organización tradicional de las redes. Además, se están desarrollando nuevos servicios y aplicaciones que requieren de una red de gran capacidad, no sólo en el dominio inalámbrico, sino también en la red que interconecta a los dispositivos móviles con Internet. Es por esto que tanto la industria como la comunidad científica están trabajando en la búsqueda de la convergencia fija/móvil (FMC). La principal motivación de esta convergencia es la integración y creación de una infraestructura unificada de redes fijas y móviles. En esta infraestructura convergente, los usuarios podrán moverse entre las diferentes redes y acceder a los servicios de manera transparente.

Para conseguir esta convergencia, diversas funciones de red deben ser implementadas de manera uniforme, independientemente del tipo de acceso que se utilice (fijo o móvil). Esto implica diversos retos como: optimizar la gestión del tráfico, mejorar la organización de los dispositivos para mantener la dirección IP entre la red fija y la móvil, así como mantener la QoS en la comunicación.

Por lo tanto, la integración de redes heterogéneas para la convergencia de los dos paradigmas fijo y móvil, de manera transparente, se consigue a través del despliegue de arquitecturas basadas en IP. Gracias a este despliegue, y al desarrollo de protocolos de gestión de la movilidad basados en IP como Mobile IP (MIP) o Proxy Mobile IP (PMIP) se consigue que la integración sea más sencilla al estar ambas redes basadas en el mismo protocolo de red, aunque todavía existen ciertos retos que deben ser acometidos como la QoS o la optimización de la gestión del tráfico para que se reduzca la pérdida de paquetes y la señalización debido a la integración.

Para hacer frente a estos retos se ha propuesto una nueva arquitectura que unifica ambas redes y gestiona la QoS en la red fija y móvil usando un protocolo de gestión de la movilidad basado en IP, que se integra con el protocolo de la red fija basado en MPLS-TP (Multi-Protocol Label Switching Transport Profile), usado en las redes de transporte de paquetes (PTN). La arquitectura propuesta es llamada Integrated Proxy Mobile MPLS-TP (IPM-TP) y está diseñada para proporcionar el mayor nivel de convergencia y gestionar la QoS de las comunicaciones, favoreciendo el despliegue de una red fija/móvil completamente integrada, aun cuando la movilidad del nodo móvil sea alta.

Además, se presenta un estudio de los avances recientes y trabajos relacionados en los protocolos de gestión de la movilidad, describiendo su interacción con la red de acceso, en el que se realiza un estudio cualitativo de los mismos.

Para evaluar la propuesta se han realizado análisis y simulaciones que miden el rendimiento de los protocolos en términos de costes de movilidad, latencia de handover y parámetros de QoS.

Fuente de la publicación: 
  • David Miguel Cortés Polo. Gestión de la movilidad en redes de transporte de paquetes para la mejora de la calidad de servicio en la convergencia entre las redes fijas y móviles. Tesis Doctoral, Universidad de Extremadura. Noviembre de 2015.

Performance and energy aware scheduling simulator for HPC: evaluating different resource selection methods

Hoy en día, en una sociedad preocupada por el ahorro energético, la planificación de los trabajos de supercomputación es una tarea muy importante para los administradores de las infraestructuras TI, pues tienen que asegurar que exista un compromiso entre el rendimiento de la infraestructura y un posible ahorro de consumo.

En este trabajo se presenta un simulador para computación de alto rendimiento, que junto con nuevos algoritmos, permiten a los administradores de los centros de cálculo a tomar decisiones sobre una base experimental sólida y robusta. Las simulaciones realizadas han demostrado la utilidad del simulador para este tipo de estudios y para la realización de comparativas entre diferentes algoritmos de planificación, incluyendo los algoritmos multiobjetivo.
 

Fuente de la publicación: 
  • Gómez-Martín, C., Vega-Rodríguez, M. A., and González-Sánchez, J.-L. (2015) Performance and energy aware scheduling simulator for HPC: evaluating different resource selection methods. Concurrency Computat.: Pract. Exper., doi:10.1002/cpe.3607.

Análisis de imágenes en profundidad en terapias de rehabilitación supervisadas por robots autónomos

En un futuro cercano la interacción y el contacto entre humanos y robots se transformarán en algo cotidiano. Pero, antes de alcanzar dicho futuro, es imprescindible la realización de investigaciones que permitan establecer y diseñar algoritmos de tal modo que los robots puedan realizar tareas de forma completamente autónoma. Entre estas tareas, destacan aquellas orientadas a la mejora de la salud de las personas como es el caso de liderar terapias de recuperación física.

En este Trabajo Fin de Máster se ha diseñado, desarrollado e implementado un sistema que permite realizar una sesión de terapia jugando al popular juego Simon Dice, pero con la particularidad de que quien dirige el juego es un robot que indica los movimientos que se han de realizar. Este sistema está especialmente diseñado para las personas mayores, ya que se trata de un grupo poblacional muy numeroso y que necesita realizar ejercicios supervisados de cara a mejorar su calidad de vida.

Con la finalidad de entrenar y validar el sistema, se ha creado una Base de Datos con datos en 3D de 20 personas realizando una serie de ejercicios específicos, así como las diferentes características extraídas de los mismos. Los resultados experimentales obtenidos muestran que es posible el reconocimiento de los distintos tipos de ejercicios realizados por el paciente, lo cual es fundamental para el desarrollo del juego.

Fuente de la publicación: 
  • Eva María Mógena Cisneros. Análisis de imágenes en profundidad en terapias de rehabilitación supervisadas por robots autónomos. Trabajo Final de Máster en Ingeniería de Telecomunicación, Universidad de Extremadura. Septiembre de 2015.

Green Code, Energy Efficiency in the Source Code for High-Performance Computing

Energy consumption is a key challenge in HPC (High-Performance Computing). Nowadays, as far as software is concerned, optimizations for energy saving are usually implemented at different levels, with an obvious lack of proposals so that the user could directly write energy-efficient code. This proposal aims to contribute to source code optimization so as to achieve optimal performances and maximum efficiencies in their executions, demonstrating the importance of certain strategies in creating code.
 

Fuente de la publicación: 

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez. Green Code, Energy Efficiency in the Source Code for High-Performance Computing. Sistemas y Tecnologías de la Información, Actas de la 10ª Conferencia Ibérica de Sistemas y Tecnologías de la Información, Vol. II. CISTI 2015. Águeda, Aveiro, Portugal. 17-20 junio 2015. ISBN: 978-989-98434-5-5. pp 61-64.

TaxonomTIC: Situación de un sector clave en Extremadura

La edición 2014 de TaxonomTIC es un subproyecto enmarcado dentro del proyecto Cenital 2, cuyo objetivo principal consiste en seguir analizando el impacto y el futuro del sector TIC (Tecnologías de la Información y la Comunicación) de forma objetiva: estableciendo una comparativa del sector en la región, respecto de España y Europa, estudiando y analizando la visión del sector a través de los responsables técnicos más cualificados, y desarrollando una plataforma Open Data que contiene todos los datos extraídos durante los años 2013 y 2014. 

El documento con los resultados más destacables así como la memoria del proyecto, pueden consultarse a continuación:

Aplicación de técnicas Big Data a la predictibilidad de flujos de tráfico urbano en Ciudades Inteligentes

Aplicación de técnicas Big Data a la predictibilidad de flujos de tráfico urbano en Ciudades Inteligentes, es un subproyecto de CENITAL 2, que persigue la continuidad del trabajo desarrollado en el proyecto Eco-trafic, con el objetivo de poner a disposición de las ciudades extremeñas servicios de Cloud Computing y Big Data para una gestión eficaz, eficiente y sostenible del tráfico rodado. 

Estirpex-2

Estirpex-2 es un subproyecto de CENITAL 2, que persigue la continuidad del trabajo desarrollado en el proyecto Estirpex, mediante el estudio, desarrollo y despliegue de servicios para sectores económicos relevantes en la región que puedan beneficiarse de la tecnología de secuenciación genética masiva (NGS, Next-Generation Sequencing), apoyada en el uso de la supercomputación.

Proposal and analysis of integrated PTN architecture in the mobile backhaul to improve the QoS of HetNets

David Cortés Polo, José Luis González Sánchez, Javier Carmona Murillo, Franciso J. Rodríguez Pérez.
Proposal and analysis of integrated PTN architecture in the mobile backhaul to improve the QoS of HetNets.
EURASIP Journal on Wireless Communications and Networking. April 2015. 
DOI:10.1186/s13638-015-0341-2

 

Análisis y evaluación experimental de protocolos de gestión de la movilidad basados en IPv6

Jesús Calle-Cancho, David Cortés-Polo, Javier Carmona-Murillo, José-Luis González-Sánchez, and Francisco-Javier Rodríguez-Pérez, "Análisis y evaluación experimental de protocolos de gestión de la movilidad basados en IPv6", in Proc. IADIS Ibero-American Conference on WWW/Internet 2014, pp. 35-42, October 2014. ISBN: 978-989-8704-12-2. Eds. C. Costa, L.B. Martínez, F. M. Santoro, P. Isaias. Oporto, Portugal.

Propuesta y análisis de viabilidad de un sistema automatizado de diagnóstico e investigación aplicado a la tecnología de ultra-secuenciación genética en un centro de supercomputación

Dentro de toda la gama de experimentos de secuenciación genética que la tecnología actual permite llevar a cabo, el más utilizado por los genetistas es el de resecuenciación genética. Es en sus dos últimas fases donde la bioinformática puede ser de gran ayuda, ya que se requiere la correcta orquestación de una serie de elementos software para la obtención de información genética de alto nivel, que sea útil para el diagnóstico e investigación de enfermedades cuyo origen es genético.

Con el desarrollo de este trabajo se ha llevado a cabo un estudio de viabilidad, con el objetivo de saber:

  • La tecnologíıa necesaria para que un especialista que secuencia una muestra biológica logre obtener todos los datos requeridos para su investigación o diagnóstico.
  • La organización y los requisitos necesarios a tal efecto.
  • El coste derivado del proceso.

Desde el punto de vista del procesamiento de la información:

  • Se han analizado aquellos tratamientos de secuencias genéticas que permitan un automatismo y una mejora de la eficacia en los análisis de estas, utilizando HPC (High Performance Computing). Se ha proporcionado a los especialistas el nivel de aplicabilidad requerido para su trabajo.
  • Se ha tenido en cuenta el tratamiento personalizado que debe aplicarse a las secuencias genéticas en materia de seguridad de la información.
Fuente de la publicación: 
  • Manuel Alfonso López Rourich. Propuesta y análisis de viabilidad de un sistema automatizado de diagnóstico e investigación aplicado a la tecnología de ultra-secuenciación genética en un centro de supercomputación. Trabajo Final de Máster universitario en investigación, Universidad de Extremadura. Septiembre de 2014.

PedigreeX: Gestión Automatizada de Pedigrís Humanos en Consejo Genético

El Consejo Genético es una de las actividades propias de la Genética Clínica y consiste en un proceso comunicativo para informar, educar y dar soporte a individuos y familias que tienen una enfermedad genética o el riesgo de tenerla. El Consejo Genético les brinda a los pacientes información acerca de su enfermedad y les ayuda a tomar decisiones informadas. Un aspecto fundamental en dicho Consejo Genético es la generación y análisis del Pedigrí del paciente afecto, pero la carencia de una herramienta automatizada para ello complica la labor del especialista. Tras identificar las necesidades de los propios genetistas de nuestra región se han analizado diferentes herramientas, ya desarrolladas, para trabajar con Pedigrís tanto de carácter privativo como libre (Cyrillic, Progeny Clinical, GRAMPS, Madeline 2.0 PDE, GenoPro, PED, PELICAN, etc.), y ninguna de ellas integra totalmente las necesidades de los especialistas.

Para solventar esta carencia y mejorar la eficiencia en su trabajo diario de Consejo Genético, se ha desarrollado una herramienta de software libre y de escritorio, la cual:

  • Da soporte para la elaboración de los diagramas de Pedigrí de los pacientes, de manera sencilla, siendo lo más fiel posible a la notación estándar para su representación (PSWG, Pedigree Standardization Work Group) y permitiendo el estudio de varias patologías en un mismo diagrama.
  • Permite su almacenamiento y gestión, dentro del marco legal de la Ley Orgánica 15/1999, de 13 de diciembre, de protección de datos de carácter personal (LOPD), debido a los datos clínicos que se van a tratar.
  • Se ha estudiado la posibilidad de incluir algunos aspectos de análisis de Pedigrí, como el cálculo de probabilidades de que se desarrollen patologías.
Fuente de la publicación: 
  • Noelia Alonso Sánchez. PedigreeX: Gestión Automatizada de Pedigrís Humanos en Consejo Genético. Trabajo Final de Máster en Ingeniería Informática, Universidad de Extremadura. Septiembre de 2014.

Estudio y evaluación de los mecanismos de gestión de la movilidad en redes de próxima generación

With the continuous development of mobile communications and Internet technology, one of the major challenges is to achieve e_cient mobility management in wireless networks.IP mobility management is a key function that allows mobile nodes to continue their communications even when their point of attachment to the IP network changes. Internet protocols do not support mobility and wireless networking does not provide reliable connections to mobile users for real-time communications.

For this reason, the Internet Engineering Task Force (IETF) developed various protocols for IP mobility management such as Mobile IPv6 (MIPv6) and Proxy Mobile IPv6 (PMIPv6). These protocols employ a centralized mobility management scheme where all intelligence is concetrated in one end-point system, rather than being distributed through the internet. However, centralized mobility solutions are prone to several problems and limitations: longer (sub-optimal) routing paths, scalability problems, signaling overhead,.. This motivates Distributed Mobility Management (DMM) whose purpose is to overcome the limitations of the traditional centralized mobility management.

We focus on DMM approach that is currently being considered by the IETF: PMIPv6 based DMM. The possibility of testing scenarios for these latest technologies is essential to analyze and implement proposals to optimize and verify the results of researches.

An analysis of distributed mobility management has been carried out with this project: designing and con_guring testbeds, con_guring protocols and devices, analyzing critical process (handover) and analyzing exchange messages.

Moreover, a proposal has been developed for improving tunneling management in Distributed Mobility Management called TE-DMM (Tunneling Extension to Distributed Mobility Management), based in the improvement of control plane (signaling). In conclusion, TE-DMM will conduct an e_cient management of control plane.

Fuente de la publicación: 
  • Jesús Calle Cancho. Estudio y evaluación de los mecanismos de gestión de la movilidad en redes de próxima generación. Trabajo Final de Máster en Ingeniería Informática, Universidad de Extremadura. Septiembre de 2014.

Green Code

Green Code es un subproyecto de Cenital, cuyo objetivo principal persigue un desarrollo de código fuente eficiente, partiendo de la propia eficiencia energética de los dispositivos tecnológicos sobre los que se ejecuta dicho código.

Dicha eficiencia debe ser un importante factor a tener en cuenta durante el despliegue de cualquier sistema. La supercomputación de altas prestaciones es un buen ejemplo de ello, debido al elevado consumo energético que conlleva.

Estirpex

Estirpex es un subproyecto de Cenital, cuyo objetivo principal persigue la creación de una plataforma online que permita el acceso a un repositorio piloto de datos históricos y clínicos de ciudadanos de Extremadura y profundizar en el estudio de enfermedades hereditarias a los profesionales del ámbito sanitario, a través de la obtención y análisis de variaciones en la secuencia genética del exoma de las personas representadas, obtenida mediante tecnologías NGS (Next-Generation Sequencing).

TaxonomTIC: Taxonomía del sector TIC en Extremadura

TaxonomTIC es un subproyecto de Cenital, cuyo objetivo principal consiste en identificar qué son las Tecnologías de la Información y la Comunicación (TIC), los elementos que las componen, describirlos y clasificarlos, para poder estudiar su impacto en Extremadura y generar una fuente de información adicional, que permita conocer qué profesionales, empresas u organismos se encuentran relacionados con este sector y cuáles se apoyan en dichas entidades para ofrecer servicios TIC.

Optimización de la red de acceso conmutada para provisión de QoS a dispositivos móviles mediante programación lineal

La gestión del movimiento y la calidad de servicio (QoS) son dos de los puntos claves en el desarrollo tanto presente como futuro de las redes inalámbricas. Estas tareas no sólo involucran al dominio de la red inalámbrica sino que la red de acceso que interconecta los nodos móviles con Internet también tiene capacidad para mejorar las comunicaciones. Este campo de investigación es conocido como Convergencia Fija-Móvil (FMC). El objetivo de esta convergencia es la integración y la creación de una infraestructura unificada de las redes cableadas e inalámbricas. En esta infraestructura convergente, los usuarios pueden moverse y saltar de una red a otra sin interrupción. En este Trabajo Final de Máster, se ha presentado un estudio de los avances recientes y campos de investigación abiertos en los protocolos de movilidad en conjunción con redes de acceso basadas en MPLS (Multi-Protocol Label Switching), los cuales se plantean ser integrados en una única arquitectura como infraestructura convergente. También se describe una nueva aproximación para optimizar los recursos de la red de acceso. Este algoritmo de optimización permite organizar los nodos móviles que van a permanecer estáticos durante largos periodos de tiempo y planificar el resto de la red de acceso para atender las peticiones del resto de nodos móviles que se están moviendo. Para ello se han usado trazas de movimientos de usuarios reales analizando un periodo de diez horas.

Fuente de la publicación: 
  • David Miguel Cortés Polo. Optimización de la red de acceso conmutada para provisión de QoS a dispositivos móviles mediante programación lineal. Trabajo Final de Máster Universitario en Investigación, Universidad de Extremadura. Noviembre de 2014.

Propuesta y análisis de viabilidad de un servicio asistencial para la disposición de ultra-secuenciación genética en un centro de supercomputación

Este trabajo surge del proyecto de la Fundación COMPUTAEX “Ultrasecuenciación genética mediante técnicas de supercomputación con LUSITANIA”, en donde se procesan secuencias genéticas procedentes de pacientes de la región para estudiar enfermedades hereditarias y desarrollar tratamientos médicos personalizados.

La motivación para el desarrollo del Trabajo vino dada principalmente por la capacidad de aportar valor (en forma de servicios) a ciertos sectores de la región de Extremadura, gracias al desarrollo de las tecnologías de secuenciación de siguiente generación (NGS), y con el apoyo de infraestructuras de supercomputación dadas por el supercomputador LUSITANIA.

Gracias a ello, se consiguió la capacidad de poder llevar a cabo un flujo de trabajo general que permitiera la aportación de valor a los usuarios de los servicios propuestos, por el uso de los experimentos que un secuenciador de esas características puede realizar. También se realizó un análisis de viabilidad para comprobar la posibilidad de implantar los servicios propuestos para la región.

Fuente de la publicación: 
  • Manuel Alfonso López Rourich. Propuesta y análisis de viabilidad de un servicio asistencial para la disposición de ultra-secuenciación genética en un centro de supercomputación. Trabajo Final de Máster Universitario en Investigación, Universidad de Extremadura. Noviembre de 2014

Testbed para el análisis del impacto de la movilidad en redes de acceso

Javier Carmona-Murillo, David Cortés-Polo, Pedro Rodríguez-Cubero, Francisco-Javier Rodríguez-Pérez, José-Luis González-Sánchez. Testbed para el análisis del impacto de la movilidad en redes de acceso. Actas de las Jornadas de Ingeniería Telemática 2013 (JITEL 2013), pp. 357-363. Granada, 28-30 de Octubre de 2013. ISBN-10: 84-616-5597-4. ISBN-13: 978-84-616-5597-7.

Performance and Energy Aware Scheduling Simulator for High-Performance Computing

César Gómez-Martín, Miguel A. Vega-Rodríguez, José-Luis González-Sánchez, Javier Corral-García y David Cortés-Polo. Performance and Energy Aware Scheduling Simulator for High-Performance Computing. 7th IBERGRID 2013, Conference Proceedings. Madrid, España. 19-20 de septiembre 2013. ISBN: 978-84-9048-110-3. pp 17-29.

Aplicabilidad de la Reutilización de Código a la Implementación de Soluciones en Entornos HPC

Javier Corral-García, José-Luis González-Sánchez, César Gómez-Martín y David Cortés-Polo. Aplicabilidad de la Reutilización de Código a la Implementación de Soluciones en Entornos HPC. Sistemas y Tecnologías de la Información, Actas de la 8ª Conferencia Ibérica de Sistemas y Tecnologías de la Información, Vol. II. CISTI 2013. Lisboa, Portugal. 19-22 junio 2013. ISBN: 978-989-98434-0-0. pp 359-362.

Development of Scientific Applications with High-Performance Computing through a Component-Based and Aspect-Oriented Methodology

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez and David Cortés-Polo. Development of Scientific Applications with High-Performance Computing through a Component-Based and Aspect-Oriented Methodology. International Journal of Advanced Computer Science, Vol. 3, No. 8, Pp. 400-408, Aug., 2013.

Enhancing PTN to Improve the QoS Provided by the IP Mobility Management

David Cortés-Polo, José-Luis González-Sánchez, Javier Carmona-Murillo, Fco. Javier Rodríguez-Pérez, Javier Corral-García. Enhancing PTN to Improve the QoS Provided by the IP Mobility Management. 2013 World Conference on Information Systems and Technologies (WorldCIST'13). Algarve, Portugal, Marzo 27-30, 2013. ISBN: 978-3-642-36980-3.

Metodología y Framework para el Desarrollo de Aplicaciones Científicas en Entornos HPC

Se trata de un proyecto ambicioso de complejidad muy notable, con una propuesta trabajada desde un marco teórico y publicada en diversos artículos en congresos de ámbito internacional. Dicha propuesta pretende cubrir las necesidades detectadas y aportar nuevas soluciones sobre los desafíos abiertos en la computación de alto rendimiento, mediante la creación de una metodología y un framework basados en componentes y orientados a aspectos, para el desarrollo de aplicaciones científicas en entornos de computación de alto rendimiento, HPC (High-Performance Computing). El objetivo es permitir a investigadores y usuarios generar sus programas de manera más eficiente, con mayor confianza en su funcionalidad y alcanzando destacables reducciones de tiempo, esfuero y coste, mediante la reutilización de componentes con códigos paralelos ya desarrollados y probados previamente.

Numerosas investigaciones de diversa índole se enfrentan continuamente a desafíos realmente críticos que requieren un especial protagonismo por parte de la computación de alto rendimiento. Actualmente, la paralelización de sus códigos suele ser el primer problema que afrontan los usuarios a la hora de compenzar a uitlizar HPC. En algunos casos, la propia tarea de crear los códigos secuenciales ya es complicada para expertos de determinadas ramas de la ciencia que poco o nada tienen que ver con la programación informática. Cuando además estos usuarios se ven obligados a hacer uso de la potencia que ofrece la computación de alto rendimiento, la curva de aprendizaje se endurece, aumentando las dificultades para conseguir dar solución a los problemas planteados. Uno de los retos más importantes a los que se enfrentan la creación de aplicaciones científicas y el desarrollo en HPC es, precisamente, la carencia de entornos de programación que permitan generar código de forma eficiente.

La experiencia ha demostrado que sería muy útil para investigadores y usuarios de computación de alto rendimiento, seguir una metodología concreta y un framework que facilitasen el desarrollo de sus códigos y aplicaciones. Sin embargo, existe una patente falta de enfoques que presenten metodologías específicas o entornos de trabajo óptimos, obligándoles a afrontar los desafíos que supone la utilización de estos computadores. En un amplio número de casos, estos usuarios no tienen la formación previa y las habilidades necesarias para hacerlo o únicamente desean compilar sus códigos y ejecutarlos lo antes posbile. En ocasiones, esto acaba siendo contraproducente en términos de eficiencia, dado que acaban teniendo que esperar más tiempo para obtener el resultado final, debido a la elección de un modelo incorrecto de programación o incluso a una arquitectura software errónea, por no hablar de errores en la propia paralelización de códigos inicialmente secuenciales.

Este trabajo de investigación fue realizado por Javier Corral García y dirigido por José Luis González Sánchez para la obtención del Diploma de Estudios Avanzados en la Universidad de Extremadura.

Fuente de la publicación: 
  • Javier Corral García. Metodología y Framework para el Desarrollo de Aplicaciones Científicas en Entornos HPC. Diploma de Estudios Avanzados, Universidad de Extremadura. Diciembre de 2012.

Development of Pattern-Based Scientific Applications for High-Performance Computing

Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez y David Cortés-Polo. "Development of Pattern-Based Scientific Applications for High-Performance Computing". Proceedings of 6th Iberian Grid Infrastructure Conference, IBERGRID '12. 6th Iberian Grid Infrastructure Conference, Lisboa, Portugal. 7-9 de Noviembre de 2012. ISBN: 978-989-98265-0-2. pp 147-158.

Sistema de vigilancia tecnológica para un centro de supercomputación

La investigación, el desarrollo tecnológico y la innovación son factores críticos en las organizaciones a la hora de determinar su crecimiento económico, nivel de bienestar y competitividad internacional. La normalización y certificación de estas actividades aportan calidad a los procesos productivos, generando mayor confianza en los clientes y mejores productos y servicios. En este trabajo fin de máster se presenta una pequeña introducción enfocada a comprender qué es un sistema de vigilancia tecnológica, cómo debe implementarse e implantarse en una organización para que sea eficaz y los distintos procesos que un sistema de vigilancia tecnológica debe incluir.

También se analizan las necesidades de la Fundación COMPUTAEX para diseñar e implantar un sistema de vigilancia tecnológica que permita mejorar sus capacidades de innovación y competitividad. Este estudio finalizará con el desarrollo de una primera versión funcional de la herramienta tecnológica sobre la que se apoyarán los procesos de vigilancia tecnológica de la Fundación y su implantación en la infraestructura de CénitS.

Fuente de la publicación: 
  • Javier Lázaro Jareño. Sistema de vigilancia tecnológica para un centro de supercomputación. Trabajo Final de Máster en Dirección TIC, Universidad de Extremadura. Noviembre de 2012.

Implementación del modelo cloud computing en un centro de supercomputación

El cloud computing se ha convertido en uno de los principales ejes de la investigación y la innovación en el sector de las TIC en los últimos años; el impacto generado por este modelo de servicio es comparable únicamente a la revolución generada por la llegada de internet durante los años 90. En CénitS surge la necesidad de investigar este nuevo paradigma, analizar el modelo de negocio y valorar la posibilidad de incorporarlo dentro de su catálogo de servicios.

En este trabajo fin de máster realizado por Jaime Rivero Ramos y codirigido por José Luis González Sánchez se analiza el estado actual del cloud computing y su influencia en el ámbito estratégico de la economía, estableciendo las motivaciones por las que una entidad pública cualquiera (y en particular para la Fundación COMPUTAEX) valora dar el salto hacia la oferta de este servicio en la modalidad de IaaS (Infraestructure as a Service).

Para ello, se desarrolla un informe que comprende la visión empresarial en términos estratégicos con la metodología seguida para la inserción de este nuevo modelo de negocio en la entidad. El enfoque genérico permite aplicar los resultados a cualquier empresa, abordando cómo y por qué comenzar a ofrecer servicios de cloud computing en el contexto socio-económico y político actual. El estudio también analiza diversas soluciones desde el punto de vista técnico (análisis de las posibles herramientas, modo de implantación y puesta en producción) para proporcionar servicios en la infraestructura de CénitS.

Por último, se incluye un estudio del funcionamiento de CénitS bajo el nuevo modelo de trabajo, detallando el impacto económico, operacional y las nuevas oportunidades de negocio para la Fundación COMPUTAEX.

Fuente de la publicación: 
  • Jaime Rivero Ramos. Implementación del modelo cloud computing en un centro de supercomputación. Trabajo Final de Máster en Dirección TIC, Universidad de Extremadura.

Methodology and Framework for the Development of Scientific Applications with High-Performance Computing through Web Services

Javier Corral-García, David Cortés-Polo, César Gómez-Martín y J.L. González-Sánchez. "Methodology and Framework for the Development of Scientific Applications with High-Performance Computing through Web Services". EATIS 2012, 6th Euro American Conference on Telematics and Information Systems. Valencia, España. 23-25 Mayo 2012. ISBN: 978-1-4503-1012-3. pp 173-180. DOI: 10.1145/2261605.2261631

Performance Study of Hyper-Threading Technology on the LUSITANIA Supercomputer

César Gómez-Martín, José-Luis González-Sánchez, Javier Corral-García, Ángel Bejarano-Borrega, Javier Lázaro-Jareño: "Performance Study of Hyper-Threading Technology on the LUSITANIA Supercomputer". Ibergrid 2010. ISBN 978-84-9745-549-7. 12 páginas. Braga, Portugal. Mayo de 2010. DOI: 10.4272/978-84-9745-549-7.ch5

La supercomputación como herramienta para lograr la excelencia en la Investigación y en la Innovación Tecnológica

César Gómez-Martín, Javier Corral-García, José Luis González-Sánchez, Ángel Bejarano-Borrega, Javier Lázaro-Jareño: "La Supercomputación como Herramienta para Lograr la Excelencia en la Investigación y en la Innovación Tecnológica". I Jornadas de Jóvenes Investigadores. Xtrelan'10. ISBN 978-84-693-1707-5. Cáceres. Abril de 2010.