PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!
  • Sesja wygasła!
  • Sesja wygasła!
Tytuł artykułu

Automatyczne zrównoleglenie pętli, efektywność zrównoleglonego kodu

Autorzy
Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
Automatically loops parallelized, efficiency of parallelized code
Języki publikacji
PL
Abstrakty
PL
Artykuł przedstawia wyniki badań efektywności kodu pętli zrównoleglonego metodą hiperpłaszczyzn w odniesieniu do kodu pętli zrównoleglonego innymi metodami. Celem przeprowadzonych badań było określenie efektywności kodu zrównoleglonego różnymi metodami oraz obszaru, w jakim zrównoleglony kod efektywnie wykorzystuje zasoby systemu wieloprocesorowego z uwzględnieniem procesorów wielordzeniowych.
EN
The results of loops code efficiency parallelized by hyperplanes method compared with loops code efficiency parallelized with other methods are presented in this paper. The main goal is to determinate when the loops parallelized by different methods are efficient and the multiprocessor system or multi core processors are utilized effectively.
Wydawca
Rocznik
Strony
575--578
Opis fizyczny
Bibliogr. 18 poz., rys., wzory
Twórcy
autor
Bibliografia
  • [1] Allen, R, Kennedy, K.: Optimizing Compilers for Modern Architectures, Morgan Kaufmann, 2001.
  • [2] D. Bacon, S. Graham, and O. Sharp. Compiler transformations for high-performance computing. Computing Surveys, 26(4):345-420, December 1994.
  • [3] U. Banerjee. Loop Transformations for Restructuring Compilers. Kluwer Academic, 1993.
  • [4] V. Beletskyy, M. Poliwoda. Parallelizing perfectly nested loops with non-uniform dependences. In Proceedings of the Advanced computer systems, pages 83-98, October 2002.
  • [5] H. Cameron , H. Tracey. Parallel and Distributed Programming Using C++. Prentice Hall Professional , 2003, 720 pp
  • [6] Darte, A., Robert, Y., Vivien, F.: Scheduling and Automatic Parallelization. Birkhäuser Boston, 2000.
  • [7] L. Lamport. The Parallel Execution of DO Loops. Communications of the ACM, Vol. 17, No.2, Feb. 1974, pp. 83-93.
  • [8] Schrijver. Theory of Linear and Integer Programming. Wiley, Chichester, 1986.
  • [9] D. Watkins, M. Hammond, B. Abrams, Programming in the .NET Environment. Addison-Wesley, 2003.
  • [10] M. Wolfe. High Performance Compilers for Parallel Computing. Addison-Wesley Publishing Company,1995.
  • [11] M. E. Wolf and M. S. Lam. A data locality optimizing algorithm. In Proc. ACM SIGPLAN 91 Conference on Programming Language Design and Implementation, pages 30–44, June 1991.
  • [12] H. Zima and B. Chapman. Supercompilers for Parallel and Vector Computers. ACM Press, 1990.
  • [13] http://www.openmp.org/drupal/
  • [14] W. Bielecki, M. Poliwoda Hyperplane method for loops parallelization in the .Net environment, Advanced Computer Systems - materiały konferencyjne, Szczecin, 2006
  • [15] Omni OpenMP Compiler Project; http://phase.hpcc.jp/Omni/
  • [16] OMPi OpenMP C Compiler; http://www.cs.uoi.gr/~ompi/
  • [17] Intel ® C++ Compiler for Windows* - Evaluation; http://www.intel.com/ cd/software/products
  • [18] Microsoft Visual Studio 2005; http://www.microsoft.com
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-BSW4-0054-0038
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.