RT Dissertation/Thesis T1 Particle tracking and identification on multi- and many-core hardware platforms A1 Fernández Declara, Plácido AB Particle track reconstruction in high-energy physics is used for purposesthat include simulation, particle analysis, and particle collisionfiltering and recording. The LHCb experiment at CERN is undergoingan upgrade where improvements are being applied to the detectors,hardware and software. One of the main changes of this upgradeincludes the removal of the "hardware filter" which used custom electronicsto filter particle collisions, and its substitute: the "softwarefilter". This new filter is composed of commodity hardware whichmust be able to process a data rate of 40 Tb per second in real-time.Different architectures are being considered to achieve this goal, andthe software used to compute it must be optimized and improvedto achieve the target data throughput. This software filter is usedto reconstruct particle collisions, also known as events, including thetrajectories of the resulting particles, which later are analyzed andused to help explain problems like the matter-antimatter asymmetry.This thesis explores different opportunities with multi and manycorearchitectures, to improve the throughput processing of particlecollisions, and the maintainability and improvement of the sourcecode used for it.The Kalman filter algorithm is widely used in high-energy physicsfor particle reconstruction, and the Intel Xeon Phi KNL processor offersa many-core x86 architecture that is well suited for parallel workloads.Performance and maintainability improvements are discussed, whereoptimization are targeted towards the Intel Xeon Phi processor.GPU architectures are a good fit for high-energy physics workloads,where its highly parallel architecture can benefit the throughput processingof it. A GPU framework for event filtering is discussed, inparticular the optimizations and changes implemented to a trackingalgorithm to deliver high-throughput.Finally vectorization opportunities for CPUs are explored by usingdata-oriented algorithms and constructs that benefit the vector unitsfound in x86 processors. A SPMD compiler that resembles programmingfor GPUs is used to improve the readability and performance ofthese algorithms. AB La reconstrucción de trayectorias en física de partículas se usa condistintos fines entre los que se incluyen la simulación, el análisis y elfiltrado y recogida de las colisiones entre protones. El experimentoLHCb del CERN se encuentra en pleno proceso de actualizaciónen el que cambios y mejoras serán aplicadas a los detectores, losprocesadores y el software. Uno de los principales cambios incluyela eliminación del "filtro hardware" basado en circuitos integradosespecíficos para estas aplicaciones, por un "filtro software". Este nuevofiltro está compuesto por procesadores de distintas arquitecturas quedeben ser capaces de procesar un ratio de datos de 40 Tb por segundo,en tiempo real. Distintas arquitecturas están siendo consideradas paraalcanzar este objetivo, y el software utilizado para procesarlo debeser optimizado y mejorado para conseguir alacanzar el objetivo derendimiento de procesamiento de datos. Este filtro basado en softwarees usado para reconstruir las colisiones entre partículas, tambiénconocidas como eventos, lo que incluye las trayectorias que se producentras la colisión entre protones. Estas son procesadas y analizadasposteriormente, lo que ayuda a entender y explicar problemas comola asimetría entre materia y antimateria.En esta tesis se exploran las potenciales oportunidades que ofrecenlas arquitecturas con múltiples núcleos de procesamiento para mejorarel rendimiento al procesar las colisiones entre partículas y el mantenimientoy mejora del código fuente usado para ello. El algoritmo filtrode Kalman es ampliamente utilizado en física de partículas para la reconstrucciónde partículas, y el procesador Intel Xeon Phi KNL ofreceuna arquitectura x86 con múltiples núcleos que está bien adaptada acargas de trabajo paralelas.Las arquitecturas GPU se adaptan bien a los problemas encontradosen física de partículas, donde su arquitectura masivamente paralelapuede beneficiar el rendimiento de procesado. En esta tesis se discuteun framework software basado en GPUs para filtrado de eventos,en particular se discuten las optimizaciones y cambios implementadospara un algoritmo de reconstrucción para conseguir un altorendimiento.Finalmente se exploran las oportunidades que presenta la vectorizaciónen CPUs utilizando algoritmos orientados a datos y estructurasque mejoran las unidades de vectorización en los procesadores x86.Un compilador de modelo SPMD que utiliza un modelo similar al utilizadocon GPUs, se utiliza para mejorar la legibilidad y rendimientode los algoritmos. YR 2020 FD 2020-09 LK https://hdl.handle.net/10016/31797 UL https://hdl.handle.net/10016/31797 LA eng NO Mención Internacional en el título de doctor NO Thanks to the Spanish MINISTERIO DE ECONOMÍA Y COMPETITIVIDAD though project grant TIN2016-79637-P TOWARDS UNIFICATION OF HPC AND BIG DATA PARADIGMS, the EU Project ICT644235 "REPHRASE: REfactoring Parallel Heterogeneous Resource-Aware Applications", Spanish "Ministerio de Economía y Competitividad"under the project grant TIN2016-79637-P "Towards Unificationof HPC and Big Data Paradigms", and Madrid Regional Government,CABAHLA-CM (ConvergenciA Big dAta-Hpc: de Los sensores a lasAplicaciones) grant number S2018/TCS-4423. DS e-Archivo RD 1 sept. 2024