Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 4

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  matrix-vector multiplication
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Fast computation of the SLTF transform
EN
The paper presents computation process of the fast SLTF transform that use matrix-vector algebra. Examples explaining the course of the calculations both analysis and synthesis transform, are also illustrated by the graph-structural models that helps to understand the algorithm principle. Additionally, an improved calculation procedure reducing redundant data redirection was proposed.
PL
W pracy przedstawiono proces obliczania szybkiej transformaty SLTF z wykorzystaniem operacji wektorowo-macierzowych. Przykłady objaśniające przebieg obliczeń zarówno transformaty prostej jak i odwrotnej zilustrowano grafami ułatwiającymi zrozumienie zasady działania algorytmu. Dodatkowo zaproponowano ulepszoną procedurę obliczeniową redukującą nadmiarowe przeadresowania danych.
EN
In this article we investigate some computational aspects of GPU-accelerated matrix-vector multiplication where matrix is sparse. Particularly, we deal with sparse matrices appearing in modelling with Markovian queuing models. The model we use for research is a Markovian queuing model of a wireless device. This model describes the device’s behavior during possible channel occupation by other devices. We study the efficiency of multiplication of a sparse matrix by a dense vector with the use of an appropriate, ready-to-use GPU-accelerated mathematical library, namely CUSP. For the CUSP library we discuss data structures and their impact on the CUDA platform for the fine-grained parallel architecture of the GPU. Our aim is to find the best format for storing a sparse matrix for GPU-computation (especially one associated with the Markovian model of a wireless device). We compare the time, the performance and the speed-up for the card NVIDIA Tesla C2050 (with ECC ON). For unstructured matrices (as our Markovian matrices), we observe speed-ups (in respect to CPU-only computations) of over 8 times.
PL
Łańcuchy Markowa są przydatnym narzędziem do modelowania systemów złożonych, takich jak systemy i sieci komputerowe. W ostatnich latach łańcuchy Markowa zostały z powodzeniem wykorzystane do oceny pracy sieci bezprzewodowych. Jednym z problemów jaki się pojawia przy wykorzystywaniu łańcuchów Markowa w modelowaniu sieci są problemy natury obliczeniowej. W artykule zajmiemy się badaniem mnożenia macierzy rzadkiej przez wektor, które jest jedną z głównych operacji podczas numerycznego rozwiązywania modeli Markowowskich. Aby, przyspieszyć czas obliczeń mnożenia macierz rzadkiej przez wektor wykorzystano funkcje z biblioteki CUSP. Biblioteka jest zbiorem funkcji wykonywanych na GPU (ang.Graphics Processing Unit) celem skrócenia czasu obliczeń. Do testowania operacji mnożenia macierzy rzadkiej przez wektor badano macierze z Markowowskiego modelu pracy sieci bezprzewodowej. Model ten opisuje zachowanie urządzenia, gdy kanał transmisyjnych może być zajęty przez inne urządzenia. Macierz przejść wspomnianego modelu jest macierzą rzadką i potrzeba specialnej struktury danych do jej przechowywania, dlatego w artykule dyskutowane są różne struktury danych dla macierzy rzadkich i ich przydatność do obliczen na kartach graficznych. W pracy porównano czas, wydajność i przyspieszenie jakie otrzymano podczas testowania biblioteki CUSP na karcie NVIDIA Tesla C2050 dla niestrukturalnych macierzy rzadkich opisujących model zajętości węzła w sieciach bezprzewodowych przy różnych formatach przechowywania macierzy rzadkich. Dla testowanych macierzy zauważono ośmiokrotne przyspieszenie obliczeń przy wykorzystaniu karty graficznej.
EN
A matrix times vector multiplication (matvec) is a cornerstone operation in iterative methods of solving large sparse systems of equations such as the conjugate gradients method (cg), the minimal residual method (minres), the generalized residual method (gmres) and exerts an influence on overall performance of those methods. An implementation of matvec is particularly demanding when one executes computations on a GPU (Graphics Processing Unit), because using this device one has to comply with certain programming rules in order to take advantage of parallel computing. In this paper, it will be shown how to modify the sparse matrix-vector multiplication based on CRS (Compressed Row Storage) to achieve about 3-5 times better performance on a low cost GPU (GeForce GTX 285, 1.48 GHz) than on a CPU (Intel Core i7, 2.67GHz).
PL
Mnożenia macierzy przez wektor jest kluczową operacją metod iteracyjnych (tj. metoda gradientów sprzężonych, MINRES, GMRES), które mają za zadanie rozwiązać duże rzadkie układy równań, gdyż wykonanie tej operacji wpływa na całościowe wykonanie w/w metod. Ponadto, chcąc zaimplementować tę operację na GPU należy przestrzegać dość restrykcyjnych zasad wynikających ze specyfiki architektury dedykowanej akceleratorom graficznym. W tej publikacji przedstawionych zostanie kilka modyfikacji operacji mnożenia macierzy rzadkiej przez wektor przy użyciu kompresji CRS (Compressed Row Storage) na GPU oraz porównane zostaną czasy wykonań uzyskane na GPU (GeForce GTX 285, 1.48 GHz) i na CPU (Intel Core i7, 2.67GHz).
EN
Strategies of rationalization of computing of constant coefficient matrix by vector multiplication are offered. The concrete example of synthesis of fast algorithm, for matrix by vector multiplication is considered. The offered example allows tracking all stages of construction of the algorithm rationalized from point of view number multiplication minimization.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.