Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  memory management
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Medical teleconsultation systems are an important tool in modern medicine, as they enable convenient, real-time collaboration of doctors from remote hospitals, without the need to travel. Due to the large size, efficient handling of medical imaging data in real-time teleconsultations is challenging. Memory management provided by operating systems is based on the virtual memory, which introduces considerable delays. In this paper we propose dedicated methods for memory management, including both memory monitoring and pre-loading of images. Results of the conducted experiments indicate, that the proposed methods can significantly improve the user experience.
PL
Układy FPGA oferują dużą szybkość przetwarzania podobną do układów ASIC oraz elastyczność znaną z realizacji programowych. To sprawia, że struktury programowalne są coraz częściej wykorzystywane do przetwarzania ruchu w sieciach o dużych szybkościach transmisji. W artykule przedstawiono koncepcję oraz realizacjęsprzętowego systemu zarządzania pamięcią dla analizatora ruchu sieciowego.Dzięki zastosowaniu techniki programowalnej tego typu rozwiązania mogą być z powodzeniem wykorzystywane w systemach bezpieczeństwa czasu rzeczywistego.
EN
FPGA offers high performance comparable to ASIC and flexibility known from software.Programmable structures are more and more often applied ina variety of network solutions.In this paper a concept of memory management system for network flow analysis is presented in this article. Application of programmable technology allows males it possible to use this type of solutions in realtime security systems.
3
Content available remote Data management in CUDA Programming for High Bandwidth Memory in GPU Accelerators
EN
The new High Bandwidth Memory 2 (HBM 2) built into the Tesla P100 enables speedier calculations without much effort. HBM 2 by P100 has a max. bandwidth of 720 GB/s which is lower than the bandwidth of the GPU cache and Shared Memory (SMem) of Kepler-GPU which are almost 2.500 GB/s in size (Woolley, 2013). For Kepler-GPU architecture it is popular to shift data to the SMem and decrease the computation time by reduction of access number to VRAM. In new GPUs like Maxwell and Pascal with much higher band¬width it is questionable if use of SMem in this architecture gives large increase of performance. This publication will explain how data management between Video-RAM (VRAM) and the GPU processor must look like in order to be able to utilize the full calculation pow¬er of the GPU (depending of GPU architecture) by simple models for a three-dimensional calculation.
PL
Nowa pamięć wysokiej przepustowości (HBM 2) wykorzystywana w karcie Tesla P100 umożliwia znaczne przyspieszenie obliczeń. Pamięć HBM 2 zastosowana w modelu P100 pozwala na transfer danych z przepustowością 720 GB/s, co jest ciągle mniejszą wartością niż prędkości oferowane przez pamięć podręczną i współdzieloną (SMem) procesorów GPU należących do architektury Kepler, których wartości osiągają poziom 2,500 GB/s (Woolley, 2013). Popularnym podejściem stosowanym w celu skrócenia czasu obliczeń w architekturze Kepler jest zastosowanie przesunięcia danych do pamięci SMem w celu zredukowania ilości dostępów do VRAM. W nowych procesorów graficznych takich jak Maxwell i Pascal oferujących znacznie wyższą przepustowość pamięci wątpliwości poddaje się sens wykorzystania SMem do osiągnięcia wzrostu wydajności. W publikacji wyjaśniono sposób zarządzania pamięcią Video-RAM (VRAM) i procesora w celu pełnego wykorzystania mocy obliczeniowej GPU (w zależności od architektury) na podstawie prostych modeli i twójwymiarowych obliczeń.
4
Content available remote Optimization and application of GPU calculations in material science
EN
Modern Graphic Processing Units (GPU) provide in combination with a very fast Video Random Access Memory (VRAM) very high computational procedure, outrunning the conventional combination of a Central Processing Unit (CPU) and Random Access Memory (RAM) in terms of parallel computing and calculation. Within this work a concept for parallel application of the CPU/GPU is presented which combines the approach for processing and managing of large amounts of data. The computer algebra system (CAS) Wolfram Mathematica is used for numerical calculation of a large Finite Difference Model (FDM). The CUDA-link feature of Mathematica was used to achieve a parallel working environment with a parallelized computation on available CPUs with a parallelization of calculations of Nvidia GPUs at the same time. An advanced desktop computer system was setup to use a high-end desktop CPU in combination with four TITAN GK110 Kepler GPUs from Nvidia. It will be shown, that the calculation time can be reduced by using shared-memory and an optimization of the used block and/or register size to minimize data communication between GPU and VRAM. Results for diffusion, stress field and deformation field for a deformation sample will be shown, which is numerically calculated from crystal plasticity, with over four million of FDM elements being calculated by each of the four used graphic cards. It will be clearly shown, that the overall calculation time is strongly depending on the storage time for the amount of data, both for the final result and as for the intermediate results for the different numerical increments. Nevertheless, a promising application of parallel computing for research in the field of materials science is presented and investigated, showing the possibilities for new approaches and/or more detailed calculations in a reasonable time.
PL
Nowoczesne procesory graficzne (GPU) w połączeniu z bardzo szybką pamięcią typu VRAM stanowią wysoko wydajne obliczeniowo narzędzie, które w aspekcie obliczeń równoległych wyprzedza znacznie konwencjonalną centralną jednostkę obliczeniową (CPU) z pamięcią RAM. W pracy przedstawiona została koncepcja aplikacji wykonującej obliczenia równoległe na proce¬sorach CPU/GPU, która może przetwarzać i zarządzać dużą ilością danych. Wykorzystano środowisko obliczeniowe CAS Wolfram Mathematica do rozwiązywania dużych modeli metodą różnic skończonych (FDM) oraz funkcjonalność Mathematici CUDA-link do równoczesnego zrównoleglenia obliczeń na procesorach CPU i Nvidia GPU. Na tej podstawie opracowano zaawansowany system komputerowy pozwalający na obliczenia na pro¬cesorze CPU w połączeniu z czterema procesorami TITAN GK110 Kepler GPU firmy Nvidia. Pokazano, że czas obliczeń został zredukowany przy wykorzystaniu pamięci dzielonej i optymalizacji bloku lub rozmiaru rejestru, w celu minimalizacji przesyłu danych pomiędzy GPU i VRAM. Przedstawiono wyniki dla dyfuzji, pola naprężeń i pola odkształceń dla odkształconej, przykładowej próbki, otrzymane z modelu plastyczności kryształu z ponad czterema milionami elementów FDM, dla których obliczenia wykonywano na czterech kartach graficznych. Przeprowadzone obliczenia jasno pokazały, że całkowity czas obliczeń jest silnie zależny od czasu dostępu do pamięci dla danych, zarówno w aspekcie otrzymania wyników końcowych, jak i wyników pośrednich dla różnych kroków czasowych. Niemniej jednak w pracy przedstawiono obiecujące wyniki badań nad zastosowaniem obliczeń równoległych w dziedzinie inżynierii materiałowej, pokazując możliwości wykorzystania nowych metod i bardziej dokładnych obliczeń w akceptowalnym czasie.
EN
This paper addresses computer memory management with real-time operation in mind. Two essential memory allocation algorithms are analyzed, Hoard and jemalloc, as we 11 as a default algorithm for each specific platform considered. Benchmarking experiments for four platforms, Mac OS X, Linux, Windows NT, and VxWorks, were conducted and respective data collected and analyzed.
PL
Artykuł dotyczy zarządzania pamięcią w komputerach używanych do zastosowań w czasie rzeczywistym. Przeanalizowano dwa podstawowe algorytmy alokacji pamięci, Hoard i Jemalloc, oraz algorytm domyślny dla każej z rozważnych platform. Wykonano eksperymenty dla czterech platform, Mac OS X, Linux, Windows NT i VxWorks, dla których zebrano i przeanalizowano odpowiednie dane.
6
Content available remote Management of memory in a real-time measurement system based on a signal processor
EN
The problem of management of memory in a signal processor has been discussed on the example of time parameters measurement system of transient signals. General rules of memory management and allocation in TMS320C6713 DSK have been described.
EN
Modern operating systems are expected to provide one of the key features: performance, meeting time constraints or reliability. Sometimes, the operating systems designers may embed a mix of the listed features, but very few of them are aware of the adverse influence of the environment. In this paper, neutron radiation and cosmic rays are considered as the external factors. A software method of countering the environment induced errors is presented, together with a discussion of the implementation possibilities based on the Linux kernel.
PL
W zależności od przeznaczenia systemu operacyjnego, projektanci skupiają się na jednej z kluczowych cech: wydajności, determinizmie czasowym lub niezawodności. Często projektanci systemów operacyjnych uwzględniają kilka z przytoczonych cech jednocześnie, lecz zazwyczaj zapominają o niekorzystnym wpływie otoczenia na sprzęt elektroniczny. Celem artykułu jest omówienie wpływu jednego z czynników zewnętrznych, jakimi są promieniowanie neutronowe lub kosmiczne, na pracę systemów operacyjnych. Zamiarem autorów artykułu jest przedstawienie programowego algorytmu ochrony systemów przed błędami oraz omówienie możliwości implementacji algorytmu na przykładzie jądra systemu Linux.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.