Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 15

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  lossless compression
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
We present the implementation of the hardware ANS compressor in FPGAs. The main goal of the design was to propose a solution suitable to low-cost, low-energy embedded systems. We propose the streaming-rANS algorithm of the ANS family as a target for the implementation. Also, we propose a set of algorithm parameters that substantially reduce the use of FPGA resources, and we examine what is the influence of the chosen parameters on compression performance. Further, we compare our design to the lossless codecs found in literature, and to the streaming-rANS codecs with arbitrary parameters.
EN
A modification of the most efficient version of MPEG4 Lossless Audio with extension of the RLS (Recursive Least Square) and NLMS (Normalized Least-Mean-Square) blocks is described in the paper. Moreover, a segmentation block influencing the selection of proper predictive modelling parameters is introduced. These blocks have been implemented in hardware description language ImpulseC and synthesised into a reprogrammable device from the Xilinx Virtex5 family.
PL
W pracy zaprezentowano rozwinięcie najwydajniejszej wersji MPEG4 Lossless Audio przez rozbudowanie bloków RLS (Recursive Least Square) i NLMS (Normalized Least-Mean-Square), wprowadzając przy tym blok segmentacji wpływający na dobór odpowiednich parametrów modelowania predykcyjnego. Zwiększono nie tylko rząd predykcji w poszczególnych blokach modelowania, ale też rozwinięto metodę NLMS do ES-NLMS i dobrano eksperymentalne wartości współczynników uczących, a także odpowiednie proporcje liczby współczynników predykcji w trybie stereo. Ponadto opracowano własny blok adaptacyjnego kodera arytmetycznego, w którym wykorzystano adaptacyjne kodowanie Golomba-Rice'a. Każdy z tych bloków został przygotowany do potrzeb implementacji sprzętowej. Bloki RLS i NLMS wykorzystują dane pochodzące z modułu segmentacji, co ma pozytywny wpływ na efektywność kompresji. Głównym zadaniem bloku segmentacji jest wydzielenie segmentów różniących się zawartością akustyczną. Wykorzystano na tym etapie dwa podejścia do segmentacji – pierwsze z nich realizuje podejście polegające na porównywaniu sąsiednich ramek sygnału w przestrzeni cech składającej się z 12 współczynników MFCC (Mel-Frequency Cepstral Coefficients) i drugie polegające na ocenie dwóch modeli w przestrzeni cech w użyciem typowego podejścia opartego o Bayesowskie kryterium informacyjne. Wyniki uzyskane z obu technik są następnie łączone w celu kompensacji potencjalnych błędów określających granice segmentów. Dla każdego z uzyskanych segmentów wyznaczany jest uśredniony wektor cech MFCC, który dostarczany jest do bloków RLS i NLMS jako źródło do określania kontekstu. Bloki funkcjonalne zostały zaimplementowane w języku opisu sprzętu ImpulseC oraz dokonano syntezy do układu reprogramowalnego z rodziny Xilinx Virtex5.
EN
In this paper there is described a possibility of context switching into a lossless compression system. The context is determined based on the features of the previous signal samples. Each context is associated with an individual predictor. The idea of context switching allows us to choose one of the set of a few predictor models individually for each sample instead of each frame. Consequently, the system adjusts fast in case of rapid signal changes. The system was implemented using the ImpulseC hardware description language and implemented on an FPGA platform.
PL
W nowoczesnych metodach kompresji audio wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych. Najczęściej do modelowania służy typowy predyktor liniowy rzędu r, który jest wartością przewidywaną aktualnie kodowanej próbki na podstawie r poprzednich próbek sygnału. Kluczową rolę odgrywa tu sposób doboru współczynników danego modelu. Mogą być one ustalone na stałe, statyczne w obrębie jednej kodowanej ramki, jak i w pełni adaptacyjne. Główną propozycją wzrostu efektywności kompresji zaprezentowaną w tej pracy jest wprowadzenie przełączania kontekstów, które wyznacza się na podstawie cech sygnału poprzednich próbek. Każdemu kontekstowi przypisany jest indywidualny predyktor. W artykule przedstawiono podział na 2 oraz 3 konteksty (tab. 1). Przedstawiono metodę statyczną uwzględniającą zależności międzykanałowe, a także kodowanie międzykanałowe z przełączaniem kontekstów. Aby sprawdzić możliwości uogólnienia i uproszczenia pomiarów, wybrano zestaw utworów muzycznych. Proponowana metoda w 60% przypadków skutkowała zmniejszeniem średniej bitowej. Dysponując pełnym zestawem wyników użycia 140 deskryptorów dla wybranych utworów, można spróbować wybrać kilka deskryptorów dających najlepsze rezultaty, a następnie zastosować je do innych utworów testowych. Zaproponowany algorytm został zaimplementowany w układzie FPGA z rodziny Virtex 5 wykorzystując język opisu sprzętu ImpulseC (tab. 3).
4
Content available remote Discrete Tomography Data Footprint Reduction via Natural Compression
EN
In Discrete Tomography (DT) by electron microscopy, 2-D projection images are acquired from various angles, by tilting the sample, generating new challenges associated with the problem of formation, acquisition, compression, transmission, and analysis of enormous quantity of data. Data Footprint Reduction (DFR) is the process of employing one or more techniques to store a given set of data in less storage space. Modern lossless compressors use classical probabilistic models only, and are unable to match high end application requirements like “Arbitrary Bit Depth” (ABD) resolution and information “Dynamic Upscale Regeneration” (DUR). Traditional \mathbbQ Arithmetic can be regarded as a highly sophisticated open logic, powerful and flexible bidirectional (LTR and RTL) formal language of languages, according to brand new “Information Conservation Theory” (ICT). This new awareness can offer competitive approach to guide more convenient algorithm development and application for combinatorial lossless compression, we named “Natural Compression” (NC). To check practical implementation performance, a first raw example is presented, benchmarked to standard, more sophisticate lossless JPEG2000 algorithm, and critically discussed. NC raw overall lossless compression performance compare quite well to standard one, but offering true ABD and DUR at no extra computational cost.
5
Content available remote Discrete Tomography Data Footprint Reduction by Information Conservation
EN
The first impact of Discrete Tomography (DT) applied to nanoscale technology has been to generate enormous quantity of data. Data Footprint Reduction (DFR) is the process of employing one or more techniques to store a given set of data in less storage space. The very best modern lossless compressors use classical probabilistic models only, and are unable to match high end application requirements, like “Arbitrary Bit Depth” (ABD) resolution and “Dynamic Upscale Regeneration” (DUR), with full information conservation. This paper explores, at core level, the basic properties and relationships of Q Arithmetic to achieve full numeric information conservation and regeneration, algorithmically. That knowledge shows strong connections to modular group theory and combinatorial optimization. Traditional Q Arithmetic can be even regarded as a highly sophisticated open logic, powerful and flexible LTR and RTL formal numeric language of languages, with self-defining consistent word and rule, starting from elementary generator and relation. This new awareness can guide the development of successful more convenient algorithm and application.
EN
This paper presents a high-speed low-complexity Register Transfer Logic (RTL) design and impiementation of the Iossiess Lempel-Ziv-Welch (LZW) algorithm on Xilinx Virtex II device family for High Bandwidth Applications. Comparative analysis of the proposed design with the established commercial data compression and decompression accelerators show that the proposed design offers comparatively high throughput 1.42 Gbits/s, elevated throughput/slice value 151.8 Kbytes/s/slice and Iower operational power requirements 333 mW.
PL
W artykule zaprezentowano nieskomplikowany, wysokiej częstotliwości projekt obwodu RTL oraz bezstratny algorytm LZW z układem Xilinx Virtex II. Porównano zaproponowany układ z komercyjnymi układami kompresji i stwierdzono, że umożliwia on przepustowość 1.42 Gbit/s przy poborze mocy 333 mW.
7
Content available remote Wybrane problemy bezstratnej kompresji obrazów binarnych
PL
W artykule przedstawiono podstawowe pojęcia i algorytmy związane z bezstratną kompresją obrazów binarnych. Dokonano przeglądu istniejących algorytmów bezstratnej kompresji, które są lub mogą być stosowane do obrazów binarnych, takich jak: kodowanie Huffmana, Golomba, Rice'a, kompresja JBIG, kodowanie długości sekwencji, kodowanie arytmetyczne oraz wybrane algorytmy predykcyjne.
EN
In the paper some basic notions and algorithms devoted to the problem of lossless digital binary images compression were provided. A brief survey on existing lossless algorithms was performed, concentrated on the ones that are or can be applied to binary images, e.g. Huffman, Golomb, Rice, JBIG, RLE, arithmetic coding, as well as the selected predicting approaches.
8
Content available remote Hypergraphs for Generic Lossless Image Compression
EN
Hypergraphs are a large generalisation of graphs; they are now used for many low-level image processing, by example for noise reduction, edge detection and segmentation [3, 4, 7]. In this paper we define a generic 2D and 3D-image representation based on a hypergraph. We present the mathematical definition of the hypergraph representation of an image and we show how this representation conducts to an efficient lossless compression algorithm for 2D and 3D-images. Then we introduce both 2D and 3D version of the algorithm and we give some experimental results on some various sets of images: 2D photo, 2D synthetic pictures, 3D medical images and some short animated sequences.
EN
The Electronic System Level (ESL) for modeling an architecture for lossless compression system on subpredictors blending is presented in this paper. We describe the reasons why system-level languages are appropriate for the design and provide some additional information on the state-of-the art synthesis from SystemC, the most popular ESL language. A brief description of the used compression technique has been provided, as well as some details on the Network-on-Chip architecture with packet-switching approach, utilized in the design. Experimental results show that the proposed algorithm is suitable for hardware realization and that the ESL synthesis is stable enough to apply it for similar projects.
PL
Opisano zastosowanie modelowania na elektronicznym poziomie systemowym ESL (ang. Electronic-System-Level) do projektowania architektury systemu bezstratnej kompresji danych, wykorzystującej metodę mieszania predyktorów. Przedstawiono powody, dla których poziom ESL jest odpowiedni dla projektu i dostarczono informacji na temat najpopularniejszego obecnie języka modelowania na poziomie ESL - SystemC. Opisano również pokrótce stosowaną metodę kompresji, a także paradygmat sieci wewnątrzukładowych (ang. Network-on-Chip), wykorzystujących przełączanie pakietów. Przedstawione badania eksperymentalne pokazują, że zaproponowany algorytm można korzystnie zaimplementować w sprzęcie oraz że synteza sprzętowa z poziomu ESL jest wystarczająco stabilna i możliwa do zastosowania w przypadku podobnych zadań.
EN
A new implementation of an architecture for lossless compression based on subpredictors blending is described in this paper. This implementation utilizes the Network-on-Chip architecture with packet-switching approach. Experimental results show that the proposed algorithm is slightly more efficient than other one-pass blending techniques known in the literature, whereas the proposed hardware realization is much faster than its software counterparts and requires significantly less wires than the dedicated-wiring approach.
PL
Opisano nowy algorytm i implementację architektury dedykowanej bezstratnej kompresji, wykorzystującej metodę mieszanych predyktorów. Przedstawiona implementacja stosuje sieci wewnątrzukładowe z przełączaniem pakietów. Badania eksperymentalne pokazują, że przedstawiony algorytm jest bardziej efektywny niż inne jednoprzebiegowe metody mieszania predyktorów, a zaproponowana implementacja sprzętowa jest dużo szybsza niż jej programowy odpowiednik i wymaga znacznie mniej traktów połączeniowych niż podejście z dedykowanymi połączeniami.
11
Content available Web log compression
EN
Web log data store client activity on a particular server, usually in form of one-line "hits" with information like the client's IP, date/ time, requested file or query, download size in bytes etc. Web logs of popular sites may grow at the pace of hundreds of megabytes a day, or even more. It makes sense to archive old logs, to analyze them further, e.g. for detecting attacks or other server abuse patterns. In this work we present a specialized lossless Apache web log preprocessor and test it with combination of several popular general-purpose compressors. The test results show the proposed transform improves the compression efficiency of general-purpose compressors on average by 65% in case of gzip and 52% in case of bzip2.
PL
Pliki z logami webowymi przechowują zapis aktywności klientów na danym serwerze, zwykle w formie jednolinijkowych wpisów zawierających informacje typu: numer IP maszyny klienta, data/czas dostępu do danego zasobu, rozmiar ściągniętego pliku w bajtach etc. Dane te, na popularnych serwerach www, mogą przyrastać w tempie setek megabajtów na dzień lub nawet wyższym. Archiwizacja "starych" logów jest jednak zalecana, głównie w celu ich analizy, np. mającej na celu wykrywanie ataków sieciowych i nietypowych (niepożądanych) wzorców zachowań. W niniejszej pracy przedstawiamy specjalizowany, zorientowany na kompresję, preprocesor dla logów serwera Apache i testujemy jego efektywność w połączeniu z kilkoma popularnymi kompresorami ogólnego przeznaczenia. Wyniki eksperymentów pokazują, że zaproponowana transformata poprawia efektywność kompresji o 65% (tj. 3-krotnie) w przypadku gzipa oraz o 52% w przypadku kompresora bzip2.
PL
Przedstawiono badania i rezultaty, jakie otrzymano w wyniku kompresji / rekonstrukcji danych opisujących kształt powierzchni dna morskiego z wykorzystaniem bezstratnych metod kompresji. W celu znalezienia efektywnego rozwiązania dokonywano także przekształceń zbioru danych wejściowych poprzez ich reorganizację oraz zapis różnicowy. W wyniku badań zaproponowano bezstratną metodę kompresji danych opisujących kształt dna morskiego.
EN
The author presents the results of experiments on compressing / decompressing the data describing sea-bottom structure by means of lossless compression based on LZ77 and PPM. In order to increase the compression ratio, the input data were transformed (reordered) and stored in a differential form. These data were then compressed in a standard way. The results lead to a proposition of a lossless compression method of sea-bottom data.
PL
Zwrócono uwagę na kilka istotnych problemów związanych z doskonaleniem metod kompresji obrazów. Zwrócono uwagę na konieczność praktycznego wykorzystania semantycznej teorii informacji, szczególnie w kontekście kompresji z selekcją informacji. Podkreślono znaczenie uniwersalnych, bezstratnych koderów danych oraz hierarchicznego uporządkowania informacji w elastycznych koderach z progresją informacji.
EN
Analysis and suggestions of image compression improvements were presented. Characteristics of modern conditions of development showed limitations and perspective of development in the following areas: utilization of semantic information theory, selection of useful information by interactive user oriented algorithms, application of universal lossless archivers for image compression, flexibility of ordered hierarchical representation of information in multiscale image coders. Selected lossless and lossy coders were verified experimentally and new compression paradigms were concluded.
PL
Artykuł prezentuje przegląd algorytmów bezstratnej kompresji obrazów oraz standardów obowiązujących w tej dziedzinie. W artykule, po omówieniu podstawowych pojęć i metod stosowanych w bezstratnej kompresji obrazów, zawarto przegląd i klasyfikację algorytmów i standardów kompresji poszczególnych klas obrazów. Kilka algorytmów omówiono bardziej szczegółowo, w tym między innymi JPEG-LS - nowy międzynarodowy standard bezstratnej kompresji obrazów.
EN
The paper presents an overview of the lossless image compression algorithms and of the standards concerning lossless image compression. In the paper, after presenting basic methods used in lossless image compression, we review algorithms and standards of lossless compression for different classes of images. Selected algorithms are described more thoroughly, among them JPEG-LS - the new international standard of lossless image compression.
15
Content available remote Improving Burrows-Wheeler block sorting compression via text filtering
EN
Burrows-Wheeler block sorting algorithm is one of the most attractive lossless compression methods. In this paper we present several ideas attempting to improve text compression while retaining the speed. All of them are performed before actual coding in an independent preprocessing (filtering) phase which yields flexibility of the coder selection. Experiments with bzip, a well known block sorting implementation, indicate 2-4 per cent compression gains for typical English texts.
PL
Algorytm Burrowsa-Wheelera jest jedną z najatrakcyjniejszych metod kompresji bezstratnej. W pracy przedstawiamy szereg idei mających na celu poprawę kompresji tekstu przy zachowaniu szybkości algorytmu. Wszystkie usprawnienia są transformacjami (filtrami) na oryginalnych danych, przeprowadzanymi przed zasadniczym kodowaniem. Umożliwia to swobodny wybór kodera. Eksperymenty z bzip, znaną implementacją algorytmu Burrowsa-Wheelera, wskazują na 2-4-procentową poprawę kompresji typowych tekstów w języku angielskim.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.