PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

The efficiency of parallel OpenMP loop code produced by the hyperplane method

Autorzy
Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Efektywność kodu pętli automatycznie zrównoleglonego metodą hiperpłaszczyzn
Języki publikacji
EN
Abstrakty
EN
The efficiency of loops parallelized by the hyperplane method is considered in the paper. The improvement of the parallel loop code efficiency was explored across improvement the locality of calculations. The main goal of presented research is disclosing whether is it possibly and what is the area of the hyperplane method parallelize loops, and how the improvement of data locality influences the improvement of the parallel loop code efficiency.
PL
W artykule przedstawiono wyniki badań efektywności kodu pętli zrównoleglonego metodą hiperpłaszczyzn w odniesieniu do kodu pętli zrównoleglonego innymi metodami, z uwzględnieniem efektywności wynikającej z użycia różnych kompilatorów. Dodatkowo przeprowadzono badania poprawy efektywności zrównoleglenia poprzez zwiększenie lokalności obliczeń. Celem przeprowadzonych badań było określenie czy i w jakim obszarze kod zrównoleglony metodą hiperpłaszczyzn może być efektywny i w jakim stopniu zwiększenie lokalności obliczeń wpływa na poprawę efektywności kodu.
Wydawca
Rocznik
Strony
811--814
Opis fizyczny
Bibliogr. 20 poz., rys., wzory, wykr.
Twórcy
autor
Bibliografia
  • [1] Allen R., Kennedy K.: Optimizing Compilers for Modern Architectures, Morgan Kaufmann, 2001.
  • [2] Bacon D., Graham S., Sharp O.: Compiler transformations for high-performance computing. Computing Surveys, 26(4) : 345-420, December 1994.
  • [3] Banerjee U.: Loop Transformations for Restructuring Compilers. Kluwer Academic, 1993.
  • [4] Beletskyy V., Poliwoda M.: Parallelizing perfectly nested loops with non-uniform dependences. In Proceedings of the Advanced computer systems, pages 83-98, October 2002.
  • [5] Cameron H., Tracey H.: Parallel and Distributed Programming Using C++. Prentice Hall Professional, 2003, 720 pp.
  • [6] Darte A., Robert Y., Vivien F.: Scheduling and Automatic Parallelization. Birkhäuser Boston, 2000.
  • [7] Lamport L.: The Parallel Execution of DO Loops. Communications of the ACM, Vol. 17, No 2, Feb. 1974, pp. 83-93.
  • [8] Schrijver. Theory of Linear and Integer Programming. Wiley, Chichester, 1986.
  • [9] Watkins D., Hammond M., Abrams B.: Programming in the .NET Environment. Addison-Wesley, 2003.
  • [10] Wolfe M.: High Performance Compilers for Parallel Computing. Addison-Wesley Publishing Company, 1995.
  • [11] Wolf M. E., Lam M. S.: A data locality optimizing algorithm. In Proc. ACM SIGPLAN 91 Conference on Programming Language Design and Implementation, pages 30–44, June 1991.
  • [12] Zima H., Chapman B.: Supercompilers for Parallel and Vector Computers. ACM Press, 1990.
  • [13] http://www.openmp.org/drupal/.
  • [14] Bielecki W., Poliwoda M.: Hyperplane method for loops parallelization in the .Net environment, Advanced Computer Systems - mat. konf., Szczecin, 2006.
  • [15] Wolfe M.: High Performance Compilers for Parallel Computing, Addison Wesley, 1996.
  • [16] Griebl M.: Automatic Parallelization of Loop Programs for Distributed Memory Architectures, Habilitation, Universitat Passau, 2004.
  • [17] Omni OpenMP Compiler Project; http://phase.hpcc.jp/Omni/.
  • [18] OMPi OpenMP C Compiler; http://www.cs.uoi.gr/~ompi/.
  • [19] Intel ® C++ Compiler for Windows* - Evaluation; http://www.intel.com/ cd/software/products.
  • [20] Microsoft Visual Studio 2005; http://www.microsoft.com.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-BSW4-0071-0006
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.