Use este identificador para citar ou linkar para este item: https://repositorio.unipampa.edu.br/jspui/handle/riu/1609
Tipo: Trabalho de Conclusão de Curso
Título: Análise de desempenho de aplicações paralelas em arquiteturas multi-core e many-core
Autor(es): Serpa, Matheus da Silva
Primeiro Orientador: Schepke, Claudio
Resumo: Simulações numéricas auxiliam no avanço da Ciência e exigem cada vez mais recursos computacionais para sua previsão. Quanto maior a resolução de um modelo, mais preciso, exato e custoso serão suas previsões. Os supercomputadores atuais são sistemas heterogêneos compostos por arquiteturas multi-core e many-core. Com isso, pesquisadores podem utilizar ambos processadores e aceleradores para simulação de problemas com resoluções maiores. Todavia, desenvolver aplicações para esses sistemas é um desafio devido a complexidade da programação. Nesse contexto, esse trabalho analisou o desempenho de aplicações paralelas em sistemas heterogêneos, executando-as em processadores com Open Multi-Processing (OpenMP) e em aceleradores com Computed Unifed Device Architecture (CUDA). Para isso, desenvolvemos sete aplicações científicas em ambas bibliotecas. Nossos experimentos mostram que para aplicações com pouca demanda de comunicação, Graphics Processing Units (GPUs) tem desempenho até 8 vezes maior que Central Processing Units (CPUs) executando com 32 threads.
Abstract: Numerical simulations assists science advances and require ever more computing resources to their prediction. Higher resolution models will be more accurate and computationally expensive. Current supercomputers are formed by heterogeneous architectures that are divided in multi-core and many-core. Thus, developers can use both processors and accelerators for higher resolution simulations. However, developing applications for these systems is a challenge due hard programming. In this context, this study analyzed the performance of parallel applications on heterogeneous systems, by running them in processors with OpenMP and GPUs with CUDA. Therefore, seven scientific applications are developed in both libraries. Our experiments show that applications with low communication demand has better performance in GPUs, 8 times in comparasion with CPUs running 32 threads.
Palavras-chave: Computer science
Parallel architectures
High performance computing
Editor: Universidade Federal do Pampa
Tipo de Acesso: Attribution-NonCommercial-NoDerivs 3.0 Brazil
Licença: http://creativecommons.org/licenses/by-nc-nd/3.0/br/
URI: http://dspace.unipampa.edu.br/jspui/handle/riu/1609
Data do documento: 30-Nov-2015
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Análise de desempenho de aplicações paralelas em arquiteturas multi-core e many-core.pdf1.06 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons