Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 10

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W niniejszej pracy przedstawiono badania nad zastosowaniem metody zmniejszonej częstości aktualizacji słownika w uniwersalnym algorytmie kompresji LZW. Wyniki badań wskazują, że w przeciętnym przypadku metoda ta pozwala na kilkudziesięcioprocentowe zwiększenie prędkości algorytmu LZW kosztem pogorszenia uzyskiwanych współczynników kompresji o kilka procent, a w przypadku niektórych plików zwiększeniu prędkości kompresji towarzyszy poprawa uzyskiwanych współczynników kompresji.
EN
This paper presents research on application of the reduced dictionary update frequency method to the LZW universal data compression algorithm. The results show, that in the average case the above-mentioned method allows to increase compression speed by dozens of percents at the expense of worsening the ratio by a few percent, however, in a case of some files the speed increase is accompanied by the improvement in the compression ratio.
EN
Modeling and coding is the most complex part of many adaptive compression algorithms; it is also an inherently serial process. The method of reduced model update frequency is a modification of the typical adaptive scheme, which was originally employed in order to improve the speed of modeling at the cost of a negligible worsening of the modeling quality. In this paper, we notice that the above method permits to parallelize the compression process. We find that for the Itanium 2 processor the speed of coding and modeling in a SFALIC image compression algorithm may be improved by about 50% through exploiting the fine-grained parallelism, also the medium-grained parallelism may be exploited in a significantly larger extent.
PL
Modelowanie i kodowanie to najbardziej złożone elementy wielu adaptacyjnych algorytmów kompresji, przy czym sam proces kompresji oparty o modelowanie i kodowanie musi być realizowany w sposób sekwencyjny. Metoda zmniejszonej częstości aktualizacji modelu danych to modyfikacja zastosowana do adaptacyjnego algorytmu kompresji, aby poprawić prędkość modelowania kosztem nieznacznego, z praktycznego punktu widzenia, pogorszenia jakości modelowania. W niniejszej pracy zauważono, iż zastosowanie tej metody umożliwia zrównoleglenie algorytmu kompresji. Badania eksperymentalne wykazały, ˙ze dzięki wykorzystaniu równoległości drobnoziarnistej dla procesora Itanium 2 i algorytmu SFALIC metoda zmniejszonej częstości aktualizacji modelu danych pozwala na zwiększenie prędkości kodowania i modelowania o około 50%. Przeprowadzone szacunki pokazały, że metoda ta pozwala również na wykorzystanie równoległości średnioziarnistej w znacznie większym stopniu.
PL
Niniejszy artykuł zawiera zwarty przegląd algorytmów z zakresu bezstratnej kompresji statycznych obrazów medycznych. Uwzględniono zarówno agorytmy, które uznawane są za standardy w medycznych systemach składowania i transmisji obrazów, jak również inne algorytmy praktycznie stosowane do kompresji takich danych. Przedstawiono również ogólną charakterystykę klas obrazów medycznych, wyróżniając te cechy omawianych klas obrazów, które są istotne przy konstrukcji lub wyborze algorytmu kompresji obrazów należących do tych klas.
EN
In this paper we present a brief overview of lossless medical image compression algorithms. We overview both algorithms that arę considered to be stan-dards in medical image transmitting and archiving systems and other algorithms used for compressing medical images. We also generally describe main classes of medical images, distinguishing features that arę crucial in development and selection of algo-rithms appropriate for compressing images belonging to those classes.
PL
W niniejszym artykule omówiono zwięźle kilka nowoczesnych algorytmów z zakresu bezstratnej kompresji danych: algorytm predykcji przez częściowe dopasowanie, algorytm ważenia drzewa kontekstów, algorytm Burrowsa-Wheelera oraz algorytm Wolfa i Willemsa. Pod względem uzyskiwanych współczynników kompresji algorytmy te uznawane są obecnie za najlepsze wśród uniwersalnych algorytmów bezstratnej kompresji danych.
EN
In this paper we present a brief overview of four modern lossless data compression algorithms: Prediction by Partial Matching, Context Tree Weighting, Burrows-Wheeler Block Sorting Compression Algorithm and the Switching Method of Volf and Willems. In terms of average compression ratio presented algorithms are regarded as best among universal lossless data compression algorithms.
PL
W artykule, po omówieniu podstawowych pojęć i metod dotyczących bezstratnej kompresji danych, przedstawiono podstawowe uniwersalne algorytmy kompresji, które, chociaż uznawane już za klasyczne, są nadal powszechnie stosowane. Omówiono algorytmy: Huffmana, kodowania arytmetycznego, kodowania długości sekwencji oraz wybrane algorytmy słownikowe. Omówiono również istotne warianty ww. algorytmów oraz przedstawiono przykłady ilustrujące ich działanie.
EN
In this paper, after presenting basic definitions and methods concerning lossless data compression, we describe basic universal lossless data compression algorithms that although regarded as classical, are still commonly used. We describe: Huffman Coding, Arithmetic Coding, Run Length Encoding and selected dictionary compression algorithms. We also describe important variants and present examples of the above-mentioned algorithms.
PL
Artykuł dotyczy adaptacyjnej kompresji obrazów z wykorzystaniem rodziny kodów Rice'a i modelu danych algorytmu FELICS. Artykuł prezentuje przesłanki przemawiające za odwróceniem kolejności kodów w rodzinie Rice'a oraz wyniki badań nad skutkami zastosowania takiej modyfikacji.
EN
This paper concerns adaptive image compression using the Rice family of codes and the data model of the FELICS algorithm. We show that reversing the order of codes in the Rice family may improve the image compression ratio and present experimental results of introducing this modification.
PL
Artykuł prezentuje przegląd algorytmów bezstratnej kompresji obrazów oraz standardów obowiązujących w tej dziedzinie. W artykule, po omówieniu podstawowych pojęć i metod stosowanych w bezstratnej kompresji obrazów, zawarto przegląd i klasyfikację algorytmów i standardów kompresji poszczególnych klas obrazów. Kilka algorytmów omówiono bardziej szczegółowo, w tym między innymi JPEG-LS - nowy międzynarodowy standard bezstratnej kompresji obrazów.
EN
The paper presents an overview of the lossless image compression algorithms and of the standards concerning lossless image compression. In the paper, after presenting basic methods used in lossless image compression, we review algorithms and standards of lossless compression for different classes of images. Selected algorithms are described more thoroughly, among them JPEG-LS - the new international standard of lossless image compression.
PL
Artykuł prezentuje wyniki badań mających na celu opracowanie szybkiego, bezstratnego i adaptacyjnego algorytmu kompresji obrazów w odcieniach szarości. Cel ten planowano osiągnąć poprzez odpowiedni dobór algorytmów stanowiących kolejne etapy kompresji obrazu oraz wprowadzenie modyfikacji do już istniejących algorytmów kompresji. Niniejszy artykuł zawiera opis zastosowanych algorytmów i wyniki badań nad wyborem algorytmów składowych kompresora.
EN
This paper presentas the research on fast, lossless and adaptive algorithms of grayscale image compression. We examine various algorithms as the consecutive components of the image compression process. We introduce improvements to the existing data compression algorithms. In this paper we describe the algorithms used and report the results of the selection of the component algorithms.
9
Content available remote Fast, robust and adaptive lossless image compression
EN
For applications like image transmission or storage we need fast and adaptive lossless compression algorithms. A speed improvement must not be achieved at the expense of significant compression ratio deterioration or too big memory requirements. The robustness, which may be defined as a performance on the worst case of data, is very important in practical applications. Presented algorithm uses the traditional decorrelations - statistical compression scheme of adaptive image compression. We introduce many modifications to improve speed and robustness of the algorithm. Firstly, we vastly increase the processing speed by altering the traditional statistical compression scheme. Instead of coding each symbol and updating the data model each time a symol is coded, we update the model only after coding some symbols. We construct a robust family of codes based on the GOLOMB codes and adapted to the real image data - that is to the finite alphabet of not ideally xeponential symbol distribution. In order to quickly adapt to the specific image data model uses a variable number of context buckets and is updated with a variable frequency - starting with a single collective context bucket and a full model update. The introduced modifications allow us to increase the processing speed by a factor of two or more at no or negligible compression ratio deterioration. Our algorithm limits worst-case local and global data expansion and has strictly bounded memory requirements. We present the experimental results of introduced modifications and the comparison to some well-know algorithms.
EN
This paper presents a fast and adaptive lossless grayscale image compression algorithm based on the simple predication and the LZW dictionary compression. The LZW variant uses the dictionary in form of a simplified trie structure and a couple of original modifications of the basic LZW scheme. In the paper we report effects of applying the modifications, i. e. mainly the effects of introducing a new mechanism of adaptation which permits the large improvement in the compression speed at the cost of little degradation in the compression ratio. In the paper we also present the description and analysis of the algorithm, description of the large set of test images and the comparison to the standard LZW implementation.
PL
Tematem artykułu jest algorytm LZW zastosowany do szybkiej, bezstratnej oraz adaptacyjnej kompresji obrazów w odcieniach szarości. Użyta w badaniach odmiana algorytmu wykorzystuje słownik w postaci uproszczonego drzewa wektorowego oraz kilka oryginalnych modyfikacji wprowadzonych do podstawowego algorytmu LZW. Artykuł prezentuje efekty wprowadzonych modyfikacji, tj. przede wszystkim skutki zastosowania nowego mechanizmu adaptacji pozwalającego na duże zmiany prędkości kompresji kosztem nieznacznych zmian współczynnika kompresji. Artykuł zawiera również opis i analizę algorytmu, opis obszernego zbioru danych testowych oraz wyniki porównań ze standardową implementacją algorytmu LZW.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.