2015 IEEE 39th Annual Computer Software and Applications Conference 2015
DOI: 10.1109/compsac.2015.119
|View full text |Cite
|
Sign up to set email alerts
|

The Influence of Parallel Programming Interfaces on Multicore Embedded Systems

Abstract: Thread-Level Parallelism (TLP) exploitation for embedded systems has been a challenge for software developers: while it is necessary to take advantage of the availability of multiple cores, it is also mandatory to consume less energy. To speed up the development process and make it as transparent as possible, software designers use Parallel Programming Interfaces (PPIs). However, as will be shown in this paper, each PPI implements different ways to exchange data using shared memory regions, influencing perform… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
4
1

Citation Types

0
2
0
1

Year Published

2019
2019
2024
2024

Publication Types

Select...
2
2
1

Relationship

0
5

Authors

Journals

citations
Cited by 5 publications
(5 citation statements)
references
References 25 publications
(23 reference statements)
0
2
0
1
Order By: Relevance
“…Lorenzon et al used the number of data exchange operations as a criterion for classification. In the target PPI, these operations represent barriers, locks/unlocks, and threads/processes creation or termination.…”
Section: Pampar Pseudo‐applicationsmentioning
confidence: 99%
See 1 more Smart Citation
“…Lorenzon et al used the number of data exchange operations as a criterion for classification. In the target PPI, these operations represent barriers, locks/unlocks, and threads/processes creation or termination.…”
Section: Pampar Pseudo‐applicationsmentioning
confidence: 99%
“…To fill this gap, this work proposes PAMPAR, a new benchmark using a set of 11 pseudo‐applications developed with the purpose of evaluating the performance and energy consumption in multicore architectures. These pseudo‐applications were developed and classified according to different criteria in previous studies . These studies have shown that these pseudo‐applications have characteristics that are distinct enough to be representatives in different scenarios.…”
Section: Introductionmentioning
confidence: 99%
“…Neste sentido, ao executar aplicac ¸ões paralelas em arquiteturas multicore, o número de threads utilizadas pela aplicac ¸ão tem um importante impacto no desempenho e consumo de energia do sistema como um todo. Estudos [Gonzalez and Horowitz 1996, Lorenzon et al 2015, Lorenzon et al 2017, Lorenzon et al 2018] têm mostrado que muitas aplicac ¸ões paralelas não escalam com o número de núcleos disponíveis na arquitetura, o que significa que o melhor resultado de desempenho e consumo de energia é obtido com um número de threads menor do que o número de núcleos na arquitetura. Diversas são as razões para esta falta de escalabilidade, como por exemplo, sincronizac ¸ão de dados, acessos concorrentes à memória compartilhada e saturac ¸ão do barramento de comunicac ¸ão entre processador e memória [Suleman et al 2008].…”
Section: Introduc ¸ãOunclassified
“…Embora diferentes trabalhos tenham mostrado o impacto do grau de paralelismo de uma aplicac ¸ão no consumo de energia e no desempenho [Lorenzon et al 2015], não há conhecimento de trabalhos que exploram o paralelismo para reduzir a pegada de carbono em sistemas de alto desempenho. Portanto, o objetivo desse trabalho, e consequentemente da dissertac ¸ão de mestrado, consiste em analisar a emissão de carbono de aplicac ¸ões paralelas com diferentes níveis de explorac ¸ão de paralelismo em arquiteturas multicore.…”
Section: Introduc ¸ãOunclassified
“…A maneira padrão de executar aplicações paralelas em sistemas multicoreé definir o grau de paralelismo igual ao número de núcleos disponíveis na arquitetura alvo. Muito embora esta estratégia seja capaz de proporcionar ganhos de desempenho na grande maioria dos casos, executar todas as aplicações com o número máximo de threads nem sempre entregará o melhor custo-benefício entre o consumo de energia e tempo de execução, representado pelo energy-delay product (EDP) [Gonzalez and Horowitz 1996, Lorenzon et al 2015]. Esta falta de escalabilidade está relacionada a diferentes fatores de hardware e software, como por exemplo: saturação de unidades funcionais e barramento de comunicação; sincronização de dados; e acessos concorrentesà memória compartilhada [Raasch and Reinhardt 2003, Suleman et al 2008.…”
Section: Introductionunclassified