Please use this identifier to cite or link to this item: http://dspace.unipampa.edu.br:8080/jspui/handle/riu/3694
metadata.dc.type: Trabalho de Conclusão de Curso
Title: Investigando paradigmas de programação paralela sobre o MPSoC HeMPS
metadata.dc.creator: Lopes, Geaninne Marchezan do Nascimento
metadata.dc.contributor.advisor1: Mello, Aline Vieira de
metadata.dc.description.resumo: Um Sistema Multiprocessado no Chip MPSoC é um sistema composto por vários elementos de processamento (PEs). Trata-se de uma tecnologia que permite a execução de múltiplas tarefas em paralelo, tal como computadores multicore. Entretanto, diferentemente desses computadores com poucos núcleos, um MPSoC tende a possuir centenas de PEs. Geralmente a comunicação entre os PEs de um MPSoC é implementada via mensagens, as quais são transmitidas através dos canais de uma Rede Intra-Chip (NoC). Devido a semelhança estrutural, acredita-se que os mesmos modelos empregados na programação de máquinas paralelas (clusters e Unidades de Processamento Gráfico (GPUs)) podem ser empregados em MPSoCs. Dentre eles, pode-se citar: Mestre-Escravo; Pipeline; Fases Paralelas; e Divisão e Conquista. Neste contexto, o presente trabalho tem como proposta investigar o emprego de paradigmas de programação paralela no desenvolvimento de aplicações para MPSoCs. Para este propósito, foram implementadas aplicações Multiplicação de Matrizes, Manipulação de Imagens e Padrão de Criptografia Avançada (AES) nos paradigmas Mestre-Escravo, Pipeline e Divisão e Conquista. Adicionalmente, foi proposta uma ferramenta, denominada HeMPS Parallel Programming, com o objetivo de auxiliar o programador na paralelização das aplicações. Dois critérios foram considerados para a comparação entre os paradigmas: tempo de execução e consumo de energia dos processadores. Os resultados obtidos permitiram concluir que Pipeline foi o paradigma que apresentou melhor desempenho e menor consumo de energia para a aplicação Manipulação de Imagens. No entanto, seus resultados foram piores do que os obtidos pela versão sequencial. Assim, não justificando a adoção de paralelismo para o tamanho de imagens simuladas. Já o paradigma Mestre-Escravo apresentou melhor desempenho e menor consumo de energia para as aplicações Multiplicação de matrizes e AES para os tamanhos de entrada simulados. No entanto, o paradigma Divisão e Conquista tende a ter melhores resultados de tempo de execução para as aplicações Multiplicação de matrizes e AES quando o tamanho da entrada aumentar.
Abstract: A Multiprocessor System on the Chip MPSoC is a system composed of several processing elements PEs. It is a technology that allows the execution of multiple tasks in parallel, such as multicore computers. However, unlike those computers with few cores, a MPSoC tends to have hundreds of PEs. Generally the communication between the PEs of na MPSoC is implemented via messages, which are transmitted through the channels of na Intra-Chip Network (NoC). Due to the structural similarity, it is believed that the same models used in the programming of parallel machines (clusters and Graphics Processing Units (GPUs)) can be used in MPSoCs. Among them, we can mention: Master-Slave; Pipeline; Parallel Phases; and Divide and Conquer. In this context, the present work aims to investigate the use of parallel programming paradigms in the development of applications for MPSoCs. For this purpose, Matrix Multiplication, AES, and Image Manipulation applications were implemented in the Master-Slave, Pipeline and Divide and Conquer paradigms. In addition, a tool, called HeMPS Parallel Programming, was proposed with the objective of assisting the programmer in the parallelization of applications. Two criteria were considered for the comparison between the paradigms: execution time and consumption of energized processors. The results obtained allowed to conclude that Pipeline was the paradigm that presented better performance and lower power consumption for the Image Manipulation application. However, their results were worse than those obtained by the sequential version. Thus, not justifying the adoption of parallelism for the size of simulated images. Already the Master-Slave paradigm presented better performance and lower energy consumption for the Matrix Multiplication and AES applications for the simulated input domains. However, the Divide and Conquer paradigm tends to have better run-time results for Matrix Multiplication and AES applications when the input size increases.
Keywords: Ciência da computação
MPSoC
Programação paralela
Computer science
Parallel programming
metadata.dc.subject.cnpq: CNPQ::CIENCIAS EXATAS E DA TERRA
metadata.dc.language: por
metadata.dc.publisher.country: Brasil
Publisher: Universidade Federal do Pampa
metadata.dc.publisher.initials: UNIPAMPA
metadata.dc.publisher.department: Campus Alegrete
Citation: LOPES, Geaninne Marchezan do Nascimento. Investigando paradigmas de programação paralela sobre o MPSoC HeMPS. Orientador: Aline Vieira de Mello. 85 p. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) – Universidade Federal do Pampa, Campus Alegrete, Alegrete, 2018.
metadata.dc.rights: Acesso Aberto
URI: http://dspace.unipampa.edu.br:8080/jspui/handle/riu/3694
Issue Date: 5-Dec-2018
Appears in Collections:Ciência da Computação

Files in This Item:
File Description SizeFormat 
Geaninne Marchezan do Nascimento Lopes - 2018.pdf3,28 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.