The purpose of this paper is to compare execution times for developed programs for determining transformation matrices in model order reduction using the balanced realization method. Six popular methods are implemented, named the: RPR, SR, BFSR, EIG-SR, EIGBFSR and Obinata-Anderson method. Each algorithm is prepared in two versions, one for execution on the main processor (CPU), and the other one for execution on graphics processor (GPU).
This paper presents a simulation of solidification process performed on GPU. The new approach described in this paper allows to divide the process of matrix building into two parts. The first one is independent of nodal temperature values determined in successive time-steps and the second part is performed on the basis of nodal temperature values, but does not require information about finite element mesh. Such separation of two steps of the conductivity matrix building process allows efficient implementation of simulation software for modern multi- and many-core architectures. Conducted simulation shows that GPU can be successfully used for such purposes.
PL
W artykule przedstawiono symulację procesu krzepnięcia wykonaną na procesorach graficznych. Nowe podejście opisane w pracy pozwala na podział procesu budowy macierzy na dwie części. Pierwsza z nich jest niezależna od temperatur w węzłach, wyznaczanych w kolejnych krokach czasowych. Druga część jest budowana na podstawie temperatur w węzłach, ale nie wymaga informacji o siatce elementów skończonych. Taki podział pozwala na wydajną implementację aplikacji przeznaczonej dla nowoczesnych architektur wielordzeniowych. Przeprowadzone symulacje pokazały, że procesory graficzne (GPU) mogą być z powodzeniem wykorzystywane do takich celów.
This paper presents calculating abilities of current, fully programmable graphics processors that are using the Nvidia CUDA technology. The paper discusses the key aspects of how these types of circuits function and their usability in solving general numerical problems.
Dzięki upowszechnieniu się procesorów wielordzeniowych przetwarzanie danych za pomocą obliczeń równoległych staje się coraz bardziej dostępne dla szerokiego grona użytkowników. Przykładem jest opracowana przez firmę NVIDIA architektura CUDA, będąca architekturą wielordzeniowych procesorów graficznych. Procesor graficzny może być traktowany jako procesor SIMD z pamięcią wspólną. Na przykładzie operacji mnożenia macierzy zbadano wpływ zarządzania pamięcią i blokami wątków na czas obliczeń z użyciem architektury CUDA.
EN
With the propagation of a multi-core processors a parallel data processing becomes more accessible to a wide range of users. An example is CUDA architecture developed by NVIDIA, which is a multi-core GPU architecture. The GPU can be treated as a SIMD processor with shared memory. The influence of memory management and blocks of threads management on time of computation using CUDA architecture was researched on the basis of matrix multiplication.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.