Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  programowanie równoległe
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
|
|
tom Vol. 12
149-168
EN
In this paper a two-dimensional conjugated heat transfer both by radiation and conduction in the thermal lightweight insulation layer was investigated. It was assumed that the radiation might be emitted, absorbed and isotropically scattered inside the gray medium. Its walls were opaque, absorbing, emitting and reflecting diffusively. The Alternating Direction Implicit Method and the Finite Volume Method were used for solution of heat conduction equation and radiative transfer equation, respectively. At first the problem was solved sequentially and then by applying the Domain Decomposition Method. Parallel calculations were carried out for two and four sub-domains. Influence of different factors on differences between the results obtained from the parallel computing and from the sequential calculations, on parallel computing efficiency as well as on number of iterations required for heat conduction equation to be effectively solved were studied in this paper.
2
Content available An automatic parallel OpenMP code generation
75%
|
|
tom R. 55, nr 10
803-806
EN
This paper presents a problem of generating an efficient parallel code from an existing sequential code in an automatic way. The main part of this paper is dedicated to the description of the automatic parallel code generation process. Not only an idea of building an automatic code generation tool is provided, but also a theoretical basis which allows us to understand the optimization problem of parallel code. In the theoretical part of the article the solution has been proposed for measuring the quality of code executed by determining the parameters of speedup and efficiency. Also information about known problems associated with parallel processing and speed of code were provided. Discusses, inter alia, impact on the effectiveness and performance of the barrier synchronization. Also a problem with scheduling in the performance of the CPU load of parallel threads is presented. An example of code generated by a tool under development is explained. Some results of experiments are provided to present code quality measurements. The results come from the first iteration of the program, which does not attempt to optimize the generated code in terms of improved locality. Iteration does not include the attempt to generate code that would contain less of a barrier synchronization. These features are under the implementation phase.
PL
W artykule przedstawiony został problem dotyczący stworzenia automatycznego narzędzia generującego kod w standardzie OpenMP, który byłby efektywnie wykonywany pod danym środowiskiem uruchomieniowym. Artykuł przedstawia podstawy teoretyczne związane ze sposobem pomiaru jakości wygenerowanego kodu, jak również przedstawia model narzędzia wykonującego automatyczną generację wydajnego kodu w standardzie OpenMP. W części teoretycznej zaproponowane zostało rozwiązanie problemu pomiaru jakości wykonywanego kodu za pomocą określenia parametrów przyspieszenia i efektywności. Opisany został sposób, w jaki można uzyskać dokładne wartości tych parametrów podczas wykonywania aplikacji równoległych. Zawarto również informacje na temat znanych problemów związanych z przetwarzaniem równoległym i szybkością działania kodu. Omówiono między innymi wpływ synchronizacji barierowej na efektywność wykonywanych programów. Przedstawiono także problem równomiernego obciążenia procesorów podczas wykonywania wątków programu równoległego. Oprócz architektury narzędzia, zaprezentowane zostały wyniki badań uzyskane z częściowo zaimplementowanej już aplikacji. Wyniki pochodzą z pierwszej iteracji działania programu, która nie podejmuje próby optymalizacji wygenerowanego kodu pod względem zwiększenia lokalności. Iteracja ta nie zawiera również próby wygenerowania kodu, który zawierał by mniej synchronizacji barierowych. Powyższe funkcjonalności są w fazie implementacji.
|
|
tom Vol. 6
62--67
PL
Dzisiejsze procesory w komputerach osobistych i urządzeniach mobilnych umożliwiają coraz bardziej efektywne zrównoleglanie działań w celu szybszego uzyskania wyników. Twórcy oprogramowania mają wiele różnych możliwości zaimplementowania współbieżności, jednak zazwyczaj trzymają się jednej, najbardziej znanej sobie techniki. Warto prześledzić działanie każdej z nich, aby odkryć, kiedy można ją wykorzystać w sposób efektywny, a kiedy lepiej poszukać alternatywy. W poniższym artykule zostały przedstawione sposoby równoległej implementacji obliczeń matematycznych z wykorzystaniem wątków, zadań, puli wątków, puli zadań oraz równoległej pętli for z klasy Parallel. Wszystkie zostały napisane w języku C# na silniku Windows Presentation Foundation platformy .NET. Zaimplementowane obliczenia matematyczne to obliczenie liczby Pi z pomocą wzoru Leibniza.
EN
Nowadays processors working in personal computers and mobile devices allow for more and more effective parallel computing. Developers have at their disposal many different methods of implementing concurrency, but usually use the one, that they now best. It is beneficial to know, when a particular technique is good and when it is better to find an alternative. This paper presents different ways of implementing parallel mathematical calculations using threads, tasks, thread pool, task pool and parallel for loop. Each method was used in a C# application running on Windows Presentation Foundation engine on .NET platform. Implemented operation is calculation value of Pi using Leibnitz’s formula.
PL
W artykule przedstawiono wyniki prac, których celem było zbadanie możliwości implementacji algorytmu wyznaczania punktów charakterystycznych za pomocą metody SURF na platformie CUDA oraz porównanie czasów obliczeń sekwencyjnej i równoległej implementacji tego algorytmu.
EN
This article presents results of our work concerned possibility of implementation of algorithm for assigning key points using SURF algorithm and CUDA technology. The work also compares time of execution of these applications.
|
|
tom nr 1 (18)
139-146
EN
Article presents a new approach to embedded systems design using C/C++ languages with OpenMP directives. Motivations of using the OpenMP standard for hardware/software codesign are presented. A proposed approach of the chip design is described and compared with a classie approach. It is differ from a classie hardware design because it allows us to describe both hardware and software using only one language. OpenMP parallel constructs are presented that can be translated into concurrent hardware modules.
|
|
tom T. 5
25--38
PL
W artykule przedstawiono praktyczne aspekty programowania obiektowego w języku Java w zakresie programowania równoległego, czyli techniki stosowanej w celu wykorzystywania komputerów wieloprocesorowych (lub wielordzeniowych). Przedstawiono mechanizmy, które zapewniają programistom Javy korzystanie z wielu procesorów w przejrzysty i skalowany sposób. Zaprezentowano mechanizmy wspierające techniki programowania równoległego. Przedstawiono technikę rekurencji w ramach strategii „Dziel i zwyciężaj” oraz zasady przetwarzania sekwencyjnego. Zbadano możliwości zwiększenia kodu programu Javy w zakresie technik programowania równoległego na przykładzie frameworku Fork/Join. Przedstawiono możliwości tego frameworku pod kątem zwiększenia wydajności programu Javy. Przeprowadzono pomiary czasu wykonania programu dla różnych poziomów równoległości oraz różnych progów przetwarzania sekwencyjnego. Wykazano, że odpowiednia konstrukcja kodu Javy może znacznie skrócić czas wykonywania programu Javy, co przekłada się na wydajność programu.
EN
The article presents the practical aspects of object-oriented programming language Java in the field of parallel programming, a technique used in order to use multiprocessor computers (or multi-core). Mechanisms supporting parallel programming techniques were presented. Recursion technique in the framework of the "Divide and conquer" and the principle of sequential processing were presented. We examined the possibility of increasing the Java code program in the field of parallel programming on the example framework Fork/Join. The possibilities of this framework to improve performance of a Java program were presented. The measurements of the program runtime for different levels of parallelism and different thresholds for sequential processing were conducted. It has been shown that proper design of Java code can significantly shorten the duration of the program Java, which translates to program performance.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.