Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  pętle programowe
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W artykule autorzy przedstawiają modele szacowania czasów wykonywania się pętli programowych zgodnych z modelem FAN nieposiadającym zależności lub posiadającym zależności, ale tylko w ciele pętli, które wykonywane mogą być przez centralne jednostki obliczeniowe CPU jak i multiprocesory strumieniowe zwane rdzeniami kart graficznych GPU. Zaprezentowane w niniejszym artykule modele szacowania czasów wykonywania tych pętli pozwolą na określanie tego, czy obliczenia w zastanym środowisku obliczeniowym warto wykonywać z użyciem posiadanego procesora CPU czy korzystniejsze będzie wykorzystanie do obliczeń posiadanej, często nowoczesnej, karty graficznej z wydajną jednostką GPU i bardzo szybką pamięcią stosowaną we współczesnych kartach graficznych. Wraz z zaprezentowanymi modelami przedstawiono także testy potwierdzające poprawność opracowanych modeli szacowania czasu. Celem powstania tych modeli jest dostarczenie metod przyspieszania działania aplikacji realizujących różne zadania, w tym zadania transportowe, takie jak przyspieszone przeszukiwanie rozwiązań, przeszukiwanie ścieżek w grafach, czy przyspieszanie algorytmów przetwarzania obrazów w systemach wizyjnych pojazdów autonomicznych i semiautonomicznych, przy czym modele te pozwalają na zbudowanie systemu automatycznego rozdzielania zadań pomiędzy CPU i GPU przy zmienności zasobów obliczeniowych.
EN
The authors present models for estimating the time of execution of program loops compliant with the FAN model with no data dependencies or with data dependencies only within the body programming loop, which can be executed either by CPUs or by stream multiprocessors referred to as GPU cores. The models presented will make it possible to determine whether it would be more efficient to execute computation in the existing environment using the CPU (Central Processing Unit) or a state-of-the-art graphics card with a high-performance GPU (Graphics Processing Unit) and super-fast memory, often implemented in modern graphics cards. Validity checks confirming the developed time estimation model for GPU are presented. The purpose of these models is to provide methods for accelerating the performance of applications performing various tasks, including transport tasks, such as accelerated solution searching, searching paths in graphs, or accelerating image processing algorithms in vision systems of autonomous and semiautonomous vehicles, where these models allow to build an automatic task distribution system between the CPU and the GPU with the variability of computing resources.
EN
Models for estimating execution times of parallel program loops are discussed. The significance of parameters used for such estimation is analyzed. The significance analysis permits to determine the validity of parameters selected for estimation and to identify low significance parameters that may be eliminated.
PL
W artykule przedstawiono modele szacowania czasów wykonywania się pętli programowych w formie zrównoleglonej oraz przedstawiono analizę istotności parametrów stosowanych do tego szacowania. Analiza istotności pozwala określić trafność doboru poszczególnych parametrów oraz wskazać parametry o niskiej istotności, które można byłoby zredukować.
EN
In this article, the authors proposed a model for estimating the execution time of the loop program, which time allow to reduce the time needed for application profiling and verify whether a given code fragment will be executed at faster time on multi-core machine or in a distributed system and how much it will improve. The same estimation is based on the source code and does not require compilation. Additionally, the model of the estimating the time has been extended by the estimating the communication time which is important for communication in distributed navigational systems, where transmission is performing in a limited connection.
PL
W niniejszym artykule zaproponowano model szacowania czasu wkopania pętli programowej, który pozwala na skrócenie czasu potrzebnego na profilowanie aplikacji i zweryfikowanie czy dany fragment kodu zostanie wykonany w sposób przyspieszony na maszynie wielordzeniowej czy w systemie rozproszonym i jakiego stopnia będzie to przyspieszenie. Samo szacowanie odbywa się na podstawie kodu źródłowego programu i nie wymaga jego kompilacji. Dodatkowo model szacowania czasu został rozbudowany o szacowanie czasu komunikacji co jest ważne w przypadku komunikacji w rozproszonych systemach nawigacyjnych, gdzie transmisja odbywa się w sposób ograniczony co do łącz.
PL
W artykule zaprezentowano wpływ redukcji zależności na możliwość obliczenia tranzytywnego domknięcia grafu zależności. Redukcje zależności wykonano przy pomocy znanych technik (redukcja zmiennych skalarnych i indukcyjnych, przekoszenie pętli, podział i łączenie pętli, rozszerzenie zmiennych skalarnych). Przedstawiono problemy związane z obliczeniem tranzytywnego domknięcia grafu zależności. Dla zbioru pętli testowych z benchmarku NAS przedstawiono wyniki statystyczne z przeprowadzonych badań. Dla wybranej pętli zaprezentowano wykorzystanie metod redukcji zależności, ich wpływ na liczbę relacji zależności oraz na możliwość obliczenia tranzytywnego domknięcia grafu zależności.
EN
The paper presents the impact of reducing dependence on possibility of calculating the transitive closure. The reductions were made according to the well known techniques (scalar reduction, induction variable elimination, loop skewing, loop splitting, loop fissioning, scalar expansion). The publication presents the background associated with data dependencies. In addition, reduction techniques (with simple examples) used in the experiments are presented. The problems associated with the transitive closure calculation are discussed. There are given the statistic results of experimental studies on a set of benchmark loop. For a chosen loop from NAS Parallel Benchmark the effectiveness of each reduction technique is shown. The impact of reduction on the transitive closure calculation is described for a selected example, where the impact of each reduction technique on the number or dependency relations is presented in detail. In the last section the experimental observations are summarized and the importance of reducing dependence is explained.
EN
Increasing data locality in a program is a necessary factor to decrease its execution time. A possibility of using a method of quantifying data locality to a new method of extracting parallel threads is introduced. It can be used to the agglomeration of extracted synchronization-free threads to adopt a parallel program to a target architecture of a parallel computer under various loop schedule options (space-time mapping) and the influence of well known techniques to improve, data locality. An analysis of data locality for two loops is presented. Experimental results are discussed. Conclusion and future research are outlined.
PL
W artykule przeanalizowano strategię sprzętowej ralizacji pętli podczas transformacji kodu źródłowego w ANSI C z dyrektywami standardu OpenMP do opisu sprzętu w języku SystemC. Ze względu na znaczny wpływ opisywanych strategii na wydajność i ilość zasobów potrzebnych do implementacji sprzętowej, opisano możliwe podejścia oraz podano algorytmy i wyniki badań eksperymentalnych opisujących to zagadnienie.
EN
In this paper, we study a loop synthesis strategy used in a transformation of an ANSI C code with OpenMP directives into a code in SystemC hardware description language. Due to the large influence of such strategies on the performance and the amount of resources required by the synthesized code, different approaches are analyzed and algorithms with examples illustrating these issues are provided.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.