Publication:
Propuesta arquitectónica para la ejecución de tareas en Apache Spark para entornos heterogéneos

dc.affiliation.dptoUC3M. Departamento de Informáticaes
dc.affiliation.grupoinvUC3M. Grupo de Investigación: Arquitectura de Computadores, Comunicaciones y Sistemases
dc.contributor.authorSerrano López, Estefania
dc.contributor.authorGarcía Blas, Francisco Javier
dc.contributor.authorCarretero Pérez, Jesús
dc.contributor.authorAbella García, Mónica
dc.contributor.funderMinisterio de Economía y Competitividad (España)es
dc.date.accessioned2022-01-18T09:30:48Z
dc.date.available2022-01-18T09:30:48Z
dc.date.issued2016-09-16
dc.description.abstractLas desventajas presentes en las plataformas de computación actuales y la fácil migración a la computación en la nube, han logrado que cada vez más aplicaciones científicas se adapten a los distintos frameworks de computación distribuida basadas en flujo de tareas. Sin embargo, muchas de ellas ya han sido optimizadas para su ejecución en aceleradores tales como GPUs. En este trabajo se presenta una arquitectura que facilita la ejecuión de aplicaciones tradicionalmente basadas en entornos HPC al nuevo paradigma de computación Big Data. Además, se demuestra cómo gracias a una mayor capacidad de memoria, el reparto automático de tareas y a la mayor potencia de cálculo de los sistemas heterogéneos se puede converger a un nuevo modelo de ejecución altamente distribuido. En ese trabajo se presenta un estudio de viabilidad de esta propueta mediante la utilización de GPUs dentro de la infraestructura de cómputo Spark. Esta arquitectura será evaluada a través de una aplicación de tratamiento de imagen médica. Los resultados demuestran que aunque nuestra arquitectura sobre un nodo no produce resultados absolutos mejores que la aplicación original, según se aumenta el número de GPUs y por lo tanto la ocupación de estas influye más la aplicación basada en Spark se acerca al rendimiento del simulador original. Finalmente, realizamos un estudio de la ocupación de las GPUs empleadas para las distintas políticas propuestas, demostrando que al tener en cuenta las características dinámicas de la GPUs (número de tareas en ejecución) podemos tener una mayor ganancia de rendimiento.es
dc.description.sponsorshipEste trabajo ha sido parcialmente subvencionado por el Ministerio de Economia y Competitividad, bajo el proyecto TIN2013-41350-P, Scalable Data Management Techniques for High-End Computing Systems.es
dc.identifier.bibliographicCitationSerrano, E., García Blás, J., Carretero, J., Abella, M. (2'016). Propuesta arquitectónica para la ejecución de tareas en Apache Spark para entornos heterogéneos. En Actas jornadas SARTECO 2016 (299-304). Universidad de Salamancaes
dc.identifier.isbn978-84-9012-626-4
dc.identifier.publicationfirstpage299
dc.identifier.publicationlastpage304
dc.identifier.publicationtitleActas Jornadas SARTECO 2016es
dc.identifier.urihttps://hdl.handle.net/10016/33897
dc.identifier.uxxiCC/0000024435
dc.language.isospa
dc.publisherUniversidad de Salamancaes
dc.relation.eventdate2016-09-13
dc.relation.eventplaceSALAMANCAes
dc.relation.eventtitleCEDI 2016: V CONGRESO ESPAÑOL DE INFORMÁTICA Jornadas Sarteco 2016es
dc.relation.projectIDGobierno de España. TIN2013-41350-Pes
dc.rights© Ediciones Universidad de Salamanca, 2016es
dc.rights.accessRightsopen accessen
dc.subject.ecienciaInformáticaes
dc.subject.othersparken
dc.subject.otherimagen médicaes
dc.subject.otherpyCUDAen
dc.subject.otherGPUen
dc.titlePropuesta arquitectónica para la ejecución de tareas en Apache Spark para entornos heterogéneoses
dc.typeconference output*
dc.type.hasVersionAM*
dspace.entity.typePublication
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
propuesta_SARTECO_2016_ps.pdf
Size:
1.79 MB
Format:
Adobe Portable Document Format
Description: