DI - ATC - Artículos en Congresos Nacionales

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 9 of 9
  • Publication
    Propuesta arquitectónica para la ejecución de tareas en Apache Spark para entornos heterogéneos
    (Universidad de Salamanca, 2016-09-16) Serrano López, Estefania; García Blas, Francisco Javier; Carretero Pérez, Jesús; Abella García, Mónica; Ministerio de Economía y Competitividad (España)
    Las desventajas presentes en las plataformas de computación actuales y la fácil migración a la computación en la nube, han logrado que cada vez más aplicaciones científicas se adapten a los distintos frameworks de computación distribuida basadas en flujo de tareas. Sin embargo, muchas de ellas ya han sido optimizadas para su ejecución en aceleradores tales como GPUs. En este trabajo se presenta una arquitectura que facilita la ejecuión de aplicaciones tradicionalmente basadas en entornos HPC al nuevo paradigma de computación Big Data. Además, se demuestra cómo gracias a una mayor capacidad de memoria, el reparto automático de tareas y a la mayor potencia de cálculo de los sistemas heterogéneos se puede converger a un nuevo modelo de ejecución altamente distribuido. En ese trabajo se presenta un estudio de viabilidad de esta propueta mediante la utilización de GPUs dentro de la infraestructura de cómputo Spark. Esta arquitectura será evaluada a través de una aplicación de tratamiento de imagen médica. Los resultados demuestran que aunque nuestra arquitectura sobre un nodo no produce resultados absolutos mejores que la aplicación original, según se aumenta el número de GPUs y por lo tanto la ocupación de estas influye más la aplicación basada en Spark se acerca al rendimiento del simulador original. Finalmente, realizamos un estudio de la ocupación de las GPUs empleadas para las distintas políticas propuestas, demostrando que al tener en cuenta las características dinámicas de la GPUs (número de tareas en ejecución) podemos tener una mayor ganancia de rendimiento.
  • Publication
    Migración portable y de altas prestaciones de aplicaciones Matlab a C++: deconvolución esférica de datos de resonancia magnética por difusión
    (Universidad de Salamanca, 2016-09-14) García Blas, Francisco Javier; García Sánchez, José Daniel; Dolz Zaragoza, Manuel Francisco; Carretero Pérez, Jesús; Alemán Gómez, Yasser; Canales Rodríguez, Erick Jorge; European Commission; Ministerio de Economía y Competitividad (España)
    En muchos de los campos de la investi gación científica, se ba establecido Matlab como he rramienta de facto para el diseño de aplicaciones. Esta aproximación o&ece mucbaa ventajas como el rápido despliegue de prototipos, alto rendimiento en álge Lrta liu..ml, o:1uL1·o:1 uLrvb. Siu ,,u.uL~"~ hu. ~vli~1,;ivuo:1b desarrolladas son altamente dependientes del motor de ejecución de Matlab, limitando su despliegue en multitud de plataformas de altas prestaciones. En este trabajo presentamos un caso práctico de migración de una aplicación inicialmente basada en Matlab a una aplicación nativa en lenguaje e++. Pa ra ello se presentará la metodología empleada para la migración y las herramientas que facilitan esta tarea. La evaluación llevada a cabo demuestta que la solución implementada ofrece un buen rendimiento sobre dis tintas plataformas y sistemas altamente heterogéneo
  • Publication
    Método de reconstrucción tomográfica con información a priori obtenida con aprendizaje profundo
    (Sociedad Española de Ingenieria Biomedica, 2020) Piol, A.; Del Cerro, C.; García Blas, Francisco Javier; Desco Menéndez, Manuel; Abella García, Mónica; Ministerio de Economía y Competitividad (España); Universidad Carlos III de Madrid; Comunidad de Madrid
    En sistemas de tomografía computarizada tradicionales, los datos se adquieren girando fuente y detector alrededor de la muestra completando un rango angular de 360 grados y obteniendo, generalmente, más de 360 proyecciones. Sin embargo, existen situaciones donde solo es posible obtener un número limitado de proyecciones, como en el caso del uso de sistemas de arco en C en un entorno intraoperatorio. Esta limitación de datos resulta en artefactos específicos en la reconstrucción y, consecuentemente, en pérdida de detalles importantes para el diagnóstico clínico. Una solución para compensar la falta de datos es utilizar información a priori en algoritmos iterativos. El algoritmo SCoLD permite la reconstrucción del volumen con un número limitado de proyecciones, incorporando como información a priori el soporte de la muestra, identificado con una máscara binaria. En este trabajo se propone una metodología de reconstrucción de datos incompletos basado en la combinación de un algoritmo de reconstrucción que incorpora el soporte de la muestra como información a priori con un paso de obtención de este soporte usando metodología de aprendizaje profundo.
  • Publication
    Método de calibración geométrica para tomosíntesis de tórax
    (Sociedad Española de Ingeniería Biomédica, 2020) Galán González, A.; Del Valle Hidalgo, A.; García Blas, Francisco Javier; Desco Menéndez, Manuel; Abella García, Mónica; Ministerio de Economía y Competitividad (España); Comunidad de Madrid; Universidad Carlos III de Madrid
    La tomosíntesis de tórax permite un diagnóstico más preciso de las alteraciones de las estructuras torácicas que la radiografía, manteniendo una dosis de radiación inferior a la involucrada en Tomografía Axial Computerizada (TAC). Al igual que en TAC, la calibración geométrica del sistema es fundamental en tomosíntesis para evitar artefactos en la imagen reconstruida. Sin embargo, la literatura sobre métodos de calibración para tomosíntesis es mucho menor que para TAC. Este trabajo propone un método de calibración geométrica para tomosíntesis a partir de la adaptación de un método previamente desarrollado para TAC. La validación en simulación de un estudio de tórax muestra que el método es capaz de reducir los artefactos de desalineamiento en la imagen reconstruida.
  • Publication
    Efecto de los parámetros geométricos de adquisición en tomosíntesis digital lineal
    (Sociedad Española de Ingeniería Biomédica, 2020) Del Valle Hidalgo, A.; Galán González, A.; García Blas, Francisco Javier; Desco Menéndez, Manuel; Abella García, Mónica; Ministerio de Economía y Competitividad (España); Universidad Carlos III de Madrid; Comunidad de Madrid
    La tomosíntesis digital ofrece una alternativa a la tomografía computarizada (TAC) y a la radiografía convencional para el diagnóstico clínico, sobre todo frente al reciente brote de COVID-19. Su principal ventaja es que permite obtener información tomográfica manteniendo una dosis de radiación inferior al TAC. Su resolución espacial es alta en los cortes coronales, pero se ve limitada a lo largo del eje anteroposterior (grosor de corte), con gran dependencia de los parámetros geométricos de adquisición. Este trabajo investiga la influencia del ángulo de barrido, del paso angular y del plano focal en la resolución espacial del volumen reconstruido. Para ello, se simulan proyecciones de tomosíntesis de un maniquí de tórax con tres nódulos y se reconstruyen mediante el algoritmo SART. Los resultados muestran que la resolución espacial en el corte coronal es independiente de estos parámetros mientras que la resolución en profundidad aumenta proporcionalmente con el ángulo de barrido y cuando el plano focal es posterior al plano de interés.
  • Publication
    Herramienta de pegado de múltiples camas para tomografía computarizada en 3D mediante dispositivos GPU
    (Sociedad Española De Ingenieria Biomedica, 2020-11-25) García Blas, Francisco Javier; Brox Ortega, Pablo; Carretero Pérez, Jesús; Desco Menéndez, Manuel; Abella García, Mónica; Banco Santander; Comunidad de Madrid; European Commission; Universidad Carlos III de Madrid
    En sistemas de tomografía axial computarizada (TAC) es común hacer varias adquisiciones tomográficas consecutivas para distintas posiciones de la cama, que posteriormente se combinan para ampliar el campo de visión en la dirección longitudinal. Para esta combinación es necesaria la calibración geométrica del movimiento de la cama para evitar dobles bordes en la zona de pegado. Esta calibración se realiza de forma periódica usando un maniquí específico. Este trabajo presenta una herramienta novedosa de pegado de cama automático para TAC basada en correlación. Nuestra propuesta explota el paralelismo masivo que ofrecen las GPUs y cuenta con un modelo de memoria optimizado que permite pegar grandes volúmenes en tiempo casi real. La evaluación en estudios de roedor demuestra, no solo que la implementación ofrecida es capaz de pegar los estudios tomográficos en un tiempo reducido, sino también que hace un uso eficiente de los recursos de memoria disponibles.
  • Publication
    Modelado estocástico de las operaciones de entrada/salida sobre un disco
    (Pablo Ibáñez Marín, 2007-09) Prada Camacho, Laura; García Sánchez, José Daniel; Núñez Covarrubias, Alberto; Fernández Muñoz, Javier; Carretero Pérez, Jesús; Flores Díaz, Ramón Jesús
    Una de las técnicas más habituales de evaluación del rendimiento de los subsistemas de entrada/salida de un computador es la utilización de modelos de simulación detallados que tienen en cuenta características específicas de los dispositivos de almacenamiento como la geometría del disco, la división en zonas y los algoritmos utilizados por las políticas de la memoria caché del disco. No obstante, dichos modelos requieren una mayor carga computacional y además están basados en discos que difieren en sus características y prestaciones de los discos más actuales. Otra alternativa es el modelado del dispositivo de almacenamiento, incluyendo su caché, como un proceso estocástico. Esto permite la generación de los tiempos requeridos por las operaciones realizadas sobre el dispositivo con una menor carga computacional y con un alto nivel de fidelidad. De esta manera se puede alcanzar una mayor escalabilidad en la evaluación del rendimiento de subsistemas de entrada/salida mediante simulación. En este trabajo se presenta una evaluación y modelado de un disco de tamaño moderado (20 GB). Los resultados obtenidos demuestran que los tiempos de acceso al disco evaluado constituyen un proceso estocástico estacionario y que este hecho es independiente de la activación o no de la caché de disco. Asi mismo los resultados sugieren que, en ausencia de caché, los tiempos de acceso siguen una distribución normal. En cambio, en presencia de caché, el tiempo de acceso se puede modelar como la composición de varias funciones de distribución, debido al efecto de la propia caché. En ambos casos nuestro modelo se ajusta a los datos experimentales con un error cuadrático medio menor al 1%.
  • Publication
    Incremento de prestaciones en el acceso en Grid de datos
    (Paraninfo, 2005-09) Pérez Menor, José María; García Carballeira, Félix; Carretero Pérez, Jesús; García Sánchez, José Daniel; Calderón Mateos, Alejandro
    El modelo de computación Grid ha evolucionado en los últimos años para proporcionar un entorno de computación de altas prestaciones en redes de área amplia. Sin embargo, uno de los mayores problemas se encuentra en las aplicaciones que hacen uso intensivo y masivo de datos. Como solución a los problemas de estas aplicaciones se ha utilizado la replicación. Sin embargo, la replicación clásica adolece de ciertos problemas como la adaptabilidad y la alta latencia del nuevo entorno. Por ello se propone un nuevo algoritmo de replicación y organización de datos que proporciona un acceso de altas prestaciones en un Data Grid.
  • Publication
    Optimización de carga de datos en un banco de pruebas de aviónica
    (Universidad Carlos III de Madrid, 2003-09) García Sánchez, José Daniel; Carretero Pérez, Jesús
    Este artículo presenta las técnicas de optimización utilizadas para acelerar la carga de definiciones de señales de un banco de pruebas de aviónica. La carga de datos en formato XML puede presentar problemas de rendimiento cuando se trata de grandes volumenes de datos. Bajo esas condiciones, es necesario buscar alternativas que permitan cargar los datos de forma más eficiente, sin imponer restricciones a los generadores de los datos utilizados como entrada. El artículo analiza posibles optimizaciones y valora las ventajas e inconvenientes de cada solución.