Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  shared memory
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Three-dimensional isogeometric analysis (IGA-FEM) is a modern method for simulation. The idea is to utilize B-splines or NURBS basis functions for both computational domain descriptions and engineering computations. Refined isogeometric analysis (rIGA) employs a mixture of patches of elements with B-spline basis functions and C 0 separators between them. This enables a reduction in the computational cost of direct solvers. Both IGA and rIGA come with challenging sparse matrix structures that are expensive to generate. In this paper, we show a hybrid parallelization method using hybrid-memory parallel machines. The two-level parallelization includes the partitioning of the computational mesh into sub-domains on the first level (MPI) and loop parallelization on the second level (OpenMP). We show that the hybrid parallelization of the integration reduces the contribution of this phase significantly. We compare the multi-frontal solver and alternating direction solver, including the integration and the factorization phases.
PL
W artykule scharakteryzowano czym jest Qt. Przedstawiono przykładową implementację związaną z komunikacją międzyprocesową wykorzystującą pamięć współdzieloną w klasycznym problemie producenta i konsumenta. Takie rozwiązanie jest mile widziane przez programistów, którzy z różnych powodów piszą swoje programy stosując framework Qt w możliwie szerokim zakresie.
EN
This article illustrates what Qt is. An example of the producer-consumer problem implementation in interprocess communication based on the shared memory is presented. Such solution can simplify the process of building interprocess application for those who want to write their programs using Qt in all possible aspects.
EN
Oceanographic models utilise parallel computing techniques to increase their performance. Computer hardware constantly evolves and software should follow to better utilise modern hardware potential. The number of CPU cores with access to shared memory increases with hardware evolution. To fully utilise the possibilities new hardware presents, parallelisation techniques employed in oceanographic models, which were designed with distributed memory systems in mind, have to be revised. This research focuses on analysing the 3D-CEMBS model to assess the feasibility of using OpenMP and OpenACC technologies to increase performance. This was done through static code analysis and profiling. The findings show that the main performance problems are attributed to task decomposition that was designed with distributed memory systems in mind. To fully utilise modern shared memory systems, other task decomposition strategies need to be employed. The presented 3D-CEMBS model analysis is a first stage in wider research of oceanographic models as a specific class of parallel applications. In the long term the research will result in proposing design patterns tailored for oceanographic models that would exploit their characteristics to achieve better hardware utilisation on evolving hardware architectures.
PL
Modele oceanograficzne wykorzystują przetwarzanie równoległe dla zwiększenia wydajności. Sprzęt komputerowy ciągle ewoluuje, więc oprogramowanie powinno zmieniać się razem z nim, aby w pełni wykorzystać potencjał współczesnego sprzętu. Wraz z rozwojem sprzętu komputerowego zwiększa się liczba rdzeni procesorów, które mają dostęp do pamięci współdzielonej. Aby w pełni wykorzystać możliwości nowego sprzętu, techniki zrównoleglania wykorzystywane w modelach oceanograficznych muszą zostać zrewidowane. Modele oceanograficzne były często projektowane z myślą o systemach z pamięcią rozproszoną. Niniejsze badania skupiają się na analizie modelu 3D-CEMBS pod kątem możliwości wykorzystania technologii OpenMP i OpenACC w celu podniesienia wydajności modelu. W tym celu została przeprowadzona statyczna analiza kodu modelu oraz profilowanie. Wyniki badań pokazują, że główny problem wydajnościowy modelu jest wynikiem zastosowania dekompozycji zadań przewidzianej dla systemów z pamięcią rozproszoną. Aby w pełni wykorzystać współczesne komputery z pamięcią współdzieloną należy wprowadzić inne strategie dekompozycji zadań.
PL
Dzięki upowszechnieniu się procesorów wielordzeniowych przetwarzanie danych za pomocą obliczeń równoległych staje się coraz bardziej dostępne dla szerokiego grona użytkowników. Przykładem jest opracowana przez firmę NVIDIA architektura CUDA, będąca architekturą wielordzeniowych procesorów graficznych. Procesor graficzny może być traktowany jako procesor SIMD z pamięcią wspólną. Na przykładzie operacji mnożenia macierzy zbadano wpływ zarządzania pamięcią i blokami wątków na czas obliczeń z użyciem architektury CUDA.
EN
With the propagation of a multi-core processors a parallel data processing becomes more accessible to a wide range of users. An example is CUDA architecture developed by NVIDIA, which is a multi-core GPU architecture. The GPU can be treated as a SIMD processor with shared memory. The influence of memory management and blocks of threads management on time of computation using CUDA architecture was researched on the basis of matrix multiplication.
PL
Park Ocalałych w Łodzi jest współczesnym przykładem aranżacji zielonego pomnika pamięci dedykowanego ofiarom prześladowań okresu hitlerowskiej okupacji - poległym w Litzmannstadt Getto Żydom, których poprzednie pokolenia były szczególnie aktywne w budowaniu potęgi kulturowo-industrialno-wlókienniczej Łodzi w XIX stuleciu, i Polakom, którzy narażając własne życie i swych najbliższych pomagali Żydom przetrwać wojnę. Park został otwarty w 60. rocznicę zagłady łódzkiego getta w 2004 r., na terenie graniczącym z jego obszarem (w dolinie rzeki Łódki). Jego realizacja jest kontynuowana. Park Ocalałych, przywołujący ducha wojennej przeszłości, odczytywany jest jako genius loci wspólnej pamięci o tragicznych losach mieszkańców Lodzi, zapisanej językiem symboli służących głębokiej refleksji.
EN
The Survivors. Park in Łódź is a contemporary example of a natural monument dedicated to the victims of Nazi occupation - the Jews who died in Litzmannstadt Ghetto and whose predecessors were particularly active in creating the cultural, industrial and textile power of Łódź in the 19th century, as well as to the Poles who helped the Jews to survive the war, risking their own lives and the lives of their families. The Park was opened on the 60th anniversary of the liquidation of the Łódź ghetto, in 2004. It covers the area adjacent to the former area of the Ghetto (in the Łódka River valley). It is still under construction. The Survivors' Park revoking the timeless spirit of the war past, perceived as the genius loci of the shared memory of Łódź inhabitants. tragic lot, written in a language of thought provoking symbols.
EN
The aim of this paper is to present an implementation and simulation of parallel 4x4 transform on bit-serial shared memory architecture for H.264/AVC. Compared with the existing parallel implementations, the proposed architecture reduces interconnection resources of physical elements of FPGA device. The results of simulation show that the transform can be realized in real–time on bitserial arithmetic. The paper concludes with a summary.
PL
Praca zawiera opis implementacji oraz symulacji równoległego przekształcenia 4x4 stosowanego w H.264/AVC, bazując na bitowo-szeregowej architekturze o współdzielonej pamięci. W porównaniu z istniejącymi rozwiązaniami implementacji równoległej, proponowana architektura obliczeniowa redukuje liczbę linii połączeń wewnętrznych fizycznego układu FPGA. Zawiera ona również wyniki symulacji, pokazujące możliwość wykonywania przekształcenia w czasie rzeczywistym, przy zastosowaniu arytmetyki szeregowej.
7
Content available remote An Ultrahigh Performance MPI Implementation on SGI® ccNUMA Altix® Systems
EN
The SGI® Message Passing Toolkit (MPT) software has implemented algorithms that provide extremely high-performance message passing on SGI Altix systems based on the SGI NUMAlink™ interconnect technology. Using Linux® OS infrastructure and SGI XPMEM cross-host memory-mapping software, SGI MPI delivers extremely high MPI performance on shared-memory single host/SMP Altix systems as well as multihost superclusters. This paper outlines the Altix hardware features, OS features, and library software algorithms that have been developed to provide the low-latency and high-bandwidth capabilities. We present high-performance features like direct copy send/receive, collectives, and the ultralow-latency SHMEM™ data transfer library. We include MPI benchmark results, including an MPI ping pong latency that ranges from 1.2 to 2.3 microseconds on a 512-CPU Altix system with 1.5 GHz Intel® Itanium® 2 Processors.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.