Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Hybrid parallelization of the total FETI solver

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F61989100%3A27740%2F17%3A10237530" target="_blank" >RIV/61989100:27740/17:10237530 - isvavai.cz</a>

  • Výsledek na webu

    <a href="https://ac.els-cdn.com/S0965997816300783/1-s2.0-S0965997816300783-main.pdf?_tid=a0cc660a-0fdd-11e8-a357-00000aab0f27&acdnat=1518430700_692c897fb3d4a6582621520bd956577a" target="_blank" >https://ac.els-cdn.com/S0965997816300783/1-s2.0-S0965997816300783-main.pdf?_tid=a0cc660a-0fdd-11e8-a357-00000aab0f27&acdnat=1518430700_692c897fb3d4a6582621520bd956577a</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.1016/j.advengsoft.2016.04.004" target="_blank" >10.1016/j.advengsoft.2016.04.004</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Hybrid parallelization of the total FETI solver

  • Popis výsledku v původním jazyce

    This paper describes our new hybrid parallelization of the Finite Element Tearing and Interconnecting (FETI) method for the multi-socket and multi-core computer cluster. This is an essential step in our development of the Hybrid FETI solver were small number of neighboring subdomains is aggregated into clusters and each cluster is processed by a single compute node. In our previous work we have implemented FETI solver using MPI parallelization into our ESPRESO solver. The proposed hybrid implementation provides better utilization of resources of modern HPC machines using advanced shared memory runtime systems such as Cilk++ runtime. Cilk++ is an alternative to OpenMP which is used by ESPRESO for shared memory parallelization. We have compared the performance of the hybrid parallelization to MPI-only parallelization. The results show that we have reduced both solver runtime and memory utilization. This allows a solver to use a larger number of smaller sub-domains and in order to solve larger problems using a limited number of compute nodes. This feature is essential for users with smaller computer clusters. In addition, we have evaluated this approach with large-scale benchmarks of size up to 1.3 billion of unknowns to show that the hybrid parallelization also reduces runtime of the FETI solver for these types of problems.

  • Název v anglickém jazyce

    Hybrid parallelization of the total FETI solver

  • Popis výsledku anglicky

    This paper describes our new hybrid parallelization of the Finite Element Tearing and Interconnecting (FETI) method for the multi-socket and multi-core computer cluster. This is an essential step in our development of the Hybrid FETI solver were small number of neighboring subdomains is aggregated into clusters and each cluster is processed by a single compute node. In our previous work we have implemented FETI solver using MPI parallelization into our ESPRESO solver. The proposed hybrid implementation provides better utilization of resources of modern HPC machines using advanced shared memory runtime systems such as Cilk++ runtime. Cilk++ is an alternative to OpenMP which is used by ESPRESO for shared memory parallelization. We have compared the performance of the hybrid parallelization to MPI-only parallelization. The results show that we have reduced both solver runtime and memory utilization. This allows a solver to use a larger number of smaller sub-domains and in order to solve larger problems using a limited number of compute nodes. This feature is essential for users with smaller computer clusters. In addition, we have evaluated this approach with large-scale benchmarks of size up to 1.3 billion of unknowns to show that the hybrid parallelization also reduces runtime of the FETI solver for these types of problems.

Klasifikace

  • Druh

    J<sub>imp</sub> - Článek v periodiku v databázi Web of Science

  • CEP obor

  • OECD FORD obor

    10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)

Návaznosti výsledku

  • Projekt

    Výsledek vznikl pri realizaci vícero projektů. Více informací v záložce Projekty.

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)

Ostatní

  • Rok uplatnění

    2017

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název periodika

    Advances in Engineering Software

  • ISSN

    0965-9978

  • e-ISSN

  • Svazek periodika

    103

  • Číslo periodika v rámci svazku

    leden, 2017

  • Stát vydavatele periodika

    US - Spojené státy americké

  • Počet stran výsledku

    9

  • Strana od-do

    29-37

  • Kód UT WoS článku

    000390966700005

  • EID výsledku v databázi Scopus

    2-s2.0-84975679539