W artykule przedstawiono metodę reprezentacji obrazów cyfrowych. Metoda ta opiera się na wykorzystaniu kwadratowych poczwórnych fragmentów przetwarzanego obrazu. Ich wyodrębnianie realizowane jest na podstawie zdefiniowanych wzorców kwadratowych poczwórnych. Reprezentacja obrazu tworzona jest poprzez określenie współczynników transformacji afinicznych, przetwarzających wzorzec w wyodrębniany fragment obrazu.
EN
The paper presents a method of representing digital images. This method is based on quad partitioning of the image with tiles.The tiles are derived from a priori defined square quad standard parts. The coefficients of affinic transforms of the standard parts to the quad tiles of image constitute the representation of the digital image.
2
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The first of new methods defines the row weights and performs quick sorting of the rows and columns using weights criterion. The second method relies on "bubble" swapping with constant or variable distance in order to find true global optimum. Both methods are compared with classic algorithms. Matrices used in the tests are derived from Harwell-Boeing collection.
PL
Pierwsza z nowych metod definiuje wagi wierszy macierzy i sortuje wiersze i kolumny macierzy używając kryterium wag. Druga metoda korzysta z bąbelkowych zamian wierszy i kolumn dla stałej lub zmiennej odległości by znaleźć prawdziwe globalne optimum. Obie metody porównano z klasycznymi algorytmami kompresji. Do testów użyto macierzy ze znanej kolekcji Harwell-Boeing.
Wiele problemów optymalizacyjnych sprowadzanych jest do przetwarzania macierzy rzadkich o bardzo dużych rozmiarach. Tradycyjne metody operacji na macierzach o tak dużych rozmiarach jest czasochłonne dlatego poszukiwane są rozwiązania gwarantujące większą efektywność i krótszy czas przetwarzania. W artykule omówiono wybrane metody i zaproponowano autorską metodę wykorzystania kompresji w poprawie efektywności przetwarzania macierzy rzadkich.
EN
Many optimization problems can be imported to processing of thin matrices about very large sizes. The traditional methods of operation on the matrices about so it is the large sizes time-consuming therefore the guaranteeing the larger efficiency solutions be in the demand and the shorter time of processing. This paper presented the author's method of utilization in improvement of efficiency the compression of processing of sparse matrix in presented study was introduced.
Frictionless contact of two isotropic half spaces is considered one of which has a small smooth circular recess. A method of solving the corresponding boundary value problem of elasticity in axially symmetric case is presented via the function of gap height. The governing integral equation for this function is solved analytically by assuming a certain shape of the initial recess. On the basis of the closed-form solution obtained the strength analysis of a contact couple is performed and illustrated from the standpoint of fracture mechanics.
Praca "Predykcyjne i wektorowe metody kompresji sygnału mowy" zawiera ujednolicony pod względem formalnym opis metod kompresji (kwantyzacja wektorowa, kodowanie predykcyjne) i ich analizę porównawczą (przepływność binarna, jakość sygnału mowy, złożoność obliczeniowa) - ze szczególnym uwzględnieniem algorytmów zaproponowanych lub zmodyfikowanych z udziałem autora. We wstępie dokonano przeglądu i klasyfikacji metod kompresji mowy i innych sygnałów akustycznych (np. muzycznych). Przedstawiono również kryteria oceny algorytmów kompresji. Rozdział drugi rozprawy poświęcony jest teorii koderów ADPCM i zawiera trzy części. W pierwszej przedstawiono metodę projektowania równomiernych i nierównomiernych kwantyzatorów adaptacyjnych, dla dowolnego sygnału wejściowego i dowolnej szybkości adaptacji. W drugiej części dokonano przeglądu algorytmów rekursywnych liniowej predykcji, w tym algorytmów gradientu stochastycznego i najmniejszych kwadratów w wersjach autokorelacyjnej i kowariancyjnej. Uwzględniono dwie struktury predyktora: transwersalną i kratową. Przebadano wiele wariantów omawianych algorytmów (np. z normalizacją i bez normalizacji) i przeanalizowano ich właściwości. Przeprowadzono także badania symulacyjne całego układu ADPCM, składającego się z adaptacyjnego predyktora i adaptacyjnego kwantyzatora, dla szybkości transmisji 16, 24 i 32 kbit/s. W części trzeciej opisano predyktory o zmiennych opóźnieniach i ich wykorzystanie do predykcji długookresowej, np. tonu krtaniowego. Zbadano możliwości wykorzystania predyktorów o zmiennych opóźnieniach w kodowaniu szerokopasmowych sygnałów akustycznych. Zaproponowano wykorzystanie kowariancyjnej metody wyznaczania parametrów predyktora, uzyskując dalszą redukcję błędu predykcji. Stwierdzono istotną poprawę jakości w kodowaniu pewnej klasy sygnałów muzycznych. Rozdział 3 poświęcony jest kwantyzacji wektorowej. Dokonano porównania kwantyzatora wektorowego z koderem ADPCM i przedstawiono metody kształtowania szumu kwantyzacji. Główny nacisk położono na obniżenie złożoności obliczeniowej kwantyzatorów wektorowych, poprzez dekompozycję "słownika" (książki kodowej), co prowadzi m.in. do kwantyzatorów wektorowych typu kształt-wzmocnienie, kwantyzatorów wektorowych o strukturze wielostopniowej oraz do koderów CELP. Zaproponowano szereg algorytmów wielostopniowej kwantyzacji wektorowej z wykorzystaniem ortogonalizacji "słownika". Przedstawiono również algorytmy projektowania "słowników" kwantyzatorów wektorowych i koderów CELP. Dla pewnej klasy koderów CELP zaproponowano efektywne algorytmy konstruowania sygnałów pobudzających (np. ternarnych), polegające na sukcesywnej minimalizacji kąta między wektorem sygnału mowy i jego modelem. Przedstawiono implementację kodera mowy o zmiennej przepływności binarnej, zawierającego dwa warianty kodera CELP: 4.8 kbit/s i 8 kbit/s (z uzupełnieniem do 9.6 kbit/s) oraz wokoder predykcyjny 2.4 kbit/s. Przepływność binarna jest automatycznie dobierana, w zależności od jakości łącza. W rozdziale 4 opisano kwantyzację wektorową w zastosowaniu do kodowania transformaty. Oszacowano zysk wynikający z połączenia tych dwóch ww. technik kompresji. Opisano kodery charakteryzujące się największym zyskiem, w których zastosowano transformatę Karhunena-Loevego (KLT). Najwięcej uwagi poświęcono kodowaniu w dziedzinie częstotliwości, ze względu na wykorzystanie zjawiska maskowania szumu kwantyzacji. Opisano koder, w którym zastosowano transformatę o zmiennej rozdzielczości w dziedzinie czasu i częstotliwości, zrealizowaną w równoważnej postaci zestawu filtrów. W dalszej części pracy opisano koder szerokopasmowego (16 kHz) monofonicznego sygnału mowy i muzyki. Koder charakteryzuje się zmniejszonym (do około 25 ms) opóźnieniem algorytmicznym, co umożliwia jego zastosowanie w wysokiej jakości audiokonferencji. Podstawowa przepływność binarna nadajnika wynosi 64 kbit/s, jednak odbiornik może prawidłowo dekodować sygnał akustyczny w oparciu o część strumienia binarnego. Umożliwia to zastosowanie kodera w sieciach z transmisją pakietową, w których następuje utrata do 50% przesyłanej informacji. Struktura kodera łączy w sobie elementy koderów CELP (np. tzw. filtr percepcyjny) i koderów transformaty. Zastosowano zmodyfikowaną transformatę kosinusoidalną (MDCT), o zmniejszonym opóźnieniu algorytmicznym. Współczynniki transformaty są kodowane z wykorzystaniem kwantyzatorów wektorowych z adaptacją i odpowiednim rozdziałem bitów. Specjalna struktura hierarchiczna słowników (książek kodowych) kwantyzatorów wektorowych zapewnia możliwość odtworzenia sygnału w oparciu jedynie o najbardziej znaczące bity słowa kodowego. Omówiono wyniki symulacji kodera i przedyskutowano problem odporności na przekłamania strumienia binarnego. Rozdział 5 poświęcony jest tzw. wokoderom, czyli parametrycznym koderom mowy. Jakość syntezowanej w wokoderze mowy zależy w dużym stopniu od tzw. ekstraktora tonu krtaniowego. W pracy zaproponowano uogólniony ekstraktor tonu krtaniowego, umożliwiający rozpoznawanie następujących klas sygnałów, z wykorzystaniem dyskryminatora liniowego Fishera: cisza, mowa bezdźwięczna o charakterze stacjonarnym, plozyjnym, mowa słabo dźwięczna i silnie dźwięczna. Dla każdej z tych klas stosuje się inny sygnał pobudzający filtr predykcyjny po stronie odbiorczej. Opisano realizację praktyczną wokoderów predykcyjnych o przepływnościach binarnych 1.2 i 2.4 kbit/s. W rozdziale 6 zwrócono uwagę na znaczenie niektórych wątków rozprawy dla teorii i praktyki kompresji mowy. Przegląd standardów kompresji oraz spis oznaczeń i skrótów umieszczono w dodatkach. Zgromadzono bibliografię liczącą ponad 400 pozycji.
EN
In this work a unified approach to the analysis of the speech compression methods, based on vector quantization and linear prediction, is presented. Compression algorithms are compared, taking into consideration the bit rate, speech quality and computational complexity. In the Introduction, a review and classification of speech and audio compression methods is presented, as well as the criteria used for comparing compression algorithms. In Chapter 2, design methods of the ADPCM coders are discussed. A design algorithm for adaptive uniform and nonuniform quantizers, having the given statistical properties of the signal, the number of quantization levels and the adaptation speed, is described. Then, linear prediction algorithms for ADPCM coders are compared. Transversal and lattice predictor structures are considered, as well as the following sequential adaptation algorithms: the stochastic gradient (with and without normalization) and the least-squares methods (with an exponential window and with a sliding window). The least-squares adaptation algorithm with the exponential window has proven particularly useful for ADPCM coding at 16, 24 and 32 kbit/s. Then, predictors with variable delays are analyzed, for the modelling of speech signals and audio signals. The covariance method for the calculation of predictor coefficients is adopted, yielding a substantial reduction in prediction error. These predictors may be applied in any kind of predictive coder (e.g. CELP, multipulse, transform excitation coder). In Chapter 3 a unified approach to the analysis of the vector quantizers (VQ) and the CELP coders is presented. The VQ (which is the asymptotically optimal source coder) is compared with the ADPCM coder. In order to reduce computational complexity, the Product Code Vector Quantizers (e.g. the Shape-Gain VQ, the Multistage VQ, the CELP coder). Several algorithms of this kind are presented under the same formalism and their performances are compared. Several algorithms of this kind are presented under the same formalism and their performances are compared. Some codebook design algorithms, for the multistage SGVQ and CELP coders, are presented. In a particular case, when the excitation in the CELP coder is modeled using one gain coefficient (for example ternary excitation or concatenation of short codebook vectors), an iterative angle minimization algorithm is proposed for the construction of the excitation signal. Then, the real time implementation of the low bit rate speech coder is described. The bit rate is dynamically adjusted to the quality of the transmission channel. Three speech compression algorithms are implemented, yielding the bit rates of 2.4 kbit/s, 4.8 kbit/s and 8 kbit/s (with an extension to 9.6 kbit/s). The 2.4 kbit/s compression algorithm is the linear predictive vocoder, the 4.8 kbit/s and 9.6 kbit/s algorithms are the selected variants of the CELP coder. In Chapter 4, the vector quantization in a transform domain is analyzed. The transform gain is evaluated, for several transforms (DFT, DCT, MDCT, hierarchical MDCT). A speech coder using the Karhunen-Loeve transform (KLT) is described. The transformed vector is decomposed in two parts and coded using two independent SGVQs. In order to exploit the masking phenomena, a hierarchical filter bank with variable timefrequency resolution is proposed. Then, a low delay coder for speech and music signals sampled at 32 kHz is described. Its algorithmic delay does not exceed 25 ms which enables audioconferencing applications without echo cancellation. Its bit rate is scalable between 64 and 32 kbit/s by steps of 8 kbit/s. The transmitter issues the binary code at 64 kbit/s with lower bit rate codes embedded in it. The receiver may operate at lower bit rates with gradual loss of quality. The proposed coder is based on a mixed scheme: the adopted solution contains elements from the CELP speech coder and frequency domain music coders. The perceptual signal is obtained in time domain, then it is transformed to the frequency domain where bit allocation is calculated and transform coefficients are quantized. Simulation results are presented and the robustness of the proposed coder is examined. In Chapter 5, speech segmentation algorithms are described, based on the speech/silence detection, voiced/unvoiced discrimination, recognition of plosive sounds and identification of the degree of voicing. A parameter selection problem for the Fisher's linear discriminator is discussed. Applications to the low bit rate vocoder and the class dependent CELP coder are discussed. Then, the 2.4 and 1.2 kbit/s linear predictive vocoders are described. Algorithms for signal analysis (pitch extraction, calculation of linear predictive coefficients) and synthesis (generation of excitation signals, filtering, postprocessing) are presented. Chapter 6 has a recapitulative character; in the Appendices a review of speech and audio compression standards is presented. The bibliography contains more than 400 items.
6
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Object-oriented software for sparse matrix bandwidth compression is presented. Two approaches to unsymmetric sparse matrix compression are investigated. The first determines row reordering using the sum of original and transposed matrix. The second method uses the product of original and transposed matrix. Both methods are comprehensively compared using assorted matrices derived from engineering applications. These tests prove that best results are obtained, practically always, with the aid of "summation" method.
PL
Przedstawiono obiektowo zorientowane oprogramowanie do kompresji pasma macierzy rzadkich. Zbadano dwie metody kompresji pasma macierzy niesymetrycznych. Pierwsza określa nowe uporządkowanie wierszy macierzy w oparciu o sumę macierzy pierwotnej i transponowanej. Druga metoda korzysta z iloczynu tych macierzy. Dokonano obszernego porównania obu metod używając różnych macierzy pochodzących z rzeczywistych zastosowań technicznych. Testy te wykazały, że najlepsze rezultaty uzyskuje się, praktycznie nieomal zawsze, za pomocą metody sumy macierzy.
7
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Dla litewskiej części basenu bałtyckiego przeprowadzono analizę kaledońskich deformacji tektonicznych opierając się na interpretacji danych sejsmicznych oraz profili otworów wiertnicznych. Wykazano obecność systemu synsedymentacyjnych, odwróconych uskoków o zrzutach 50–200 m, wymuszonych fleksur naduskokowych oraz struktur kwiatowych, rozwijających się głównie w późnym sylurze i lochkowie. Struktury te mają charakter kompresyjny bądź transpresyjny i cechują się przebiegiem od SW–NE do W–E, tj. w przybliżeniu równoległym do rozciągłości skandynawskich kaledonidów. Ich aktywność koreluje się w czasie ze skandyjską fazą orogenezy kaledońskiej w Skandynawii. Omawiany system uskoków kontynuuje się w sektorach łotewskim i estońskim oraz kaliningradzkim sektorze basenu bałtyckiego. Relacja uskoków angażujących utwory dolnego paleozoiku w polskiej części basenu bałtyckiego do opisanego systemu deformacji tektonicznych jest trudna do ustalenia z uwagi na lukę erozyjną obejmującą najwyższy sylur po niższy perm. Według przedstawionej tu interpretacji system późnosylursko-lochkowskich deformacji tektonicznych jest zapisem późnokaledońskiej kompresji, mającej źródło w kolizji w skandynawskich kaledonidach. Lokalizacja tych deformacji związana jest ze strefą litosfery osłabionej termomechanicznie w wyniku późnoneoproterozoiczno-wczesnokambryjskiego ryftowania.
8
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
This paper presents a numerical investigation of cracking behaviour of rock-like disc containing one circular inclusion subjected to diametral compression, which is validated by physical tests in terms of the crack patterns and stress–strain responses. The numerical results indicate that if the inclusion strength is higher or close to the matrix strength, one dominated crack can form to split the disc into two parts. Otherwise, the crack branches can be observed besides the dominated crack. The inclusion eccentricity has important influences on the crack pattern of the rock disc. If the inclusion strength is lower than the matrix strength, the horizontal eccentricity can induce to a horizontal crack. The length of the horizontal crack is close related to the eccentricity that a higher eccentricity can lead to a longer horizontal crack. The vertical eccentricity can result in crack branch, which becomes shorter as the eccentricity increases. If the inclusion strength is higher than the matrix, the horizontal and vertical eccentricity cannot lead to crack branches and only one dominated crack can be observed. The disc nominal strength increases by increasing the horizontal or vertical eccentricity both for cases of the inclusion strength lower and greater than the matrix.
Celem tej części artykułów jest przybliżenie ogólnych zasad konstrukcji i działania sprężarki tak, aby na ich tle można było przedstawić osobom zainteresowanym, czynnym w projektowaniu, obsłudze i ekspoatacji, specyfikę sprężarek spiralnych oraz różnice i podobieństwa jakie występują pomiędzy tymi urządzeniami, a dobrze znanymi i rozpowszechnionymi w eksploatacji sprężarkami tłokowymi i śrubowymi. W artykule nie są poruszane zagadnienia teoretyczne dotyczące samej geometrii segmentów spiralnych sprężarek, na temat których jest publikowana dość bogata literatura, przeznaczona raczej dla wąskiej grupy specjalistów.
10
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
A novel image compression approach reaching very low bit-rates by utilization of region of interest information in the transform domain of the discrete wavelet transform (DWT) is introduced. The content-dependent image coding scheme yields an improved quality in the regions of interest while the background regions distant from the center of interest are smooth. Coding distortions are visible for very low bit-rates outside the regions of interest which is tolerable for the purpose of content dependent image compression. The significance of certain image regions can be selected interactively or determined by appropriate image segmentation schemes. Qualitative results are presented for several compression ratios and a comparison with JPEG compression is made.
Searching for new refrigerants is one of the most significant scientific problems in refrigeration. There are ecological refrigerants commonly known: H2O and CO2. H2O and CO2 known as natural refrigerants, but they have problems:a high freezing point of H2O and a low triple point of CO2. These problems can be solved by the application of a hybrid sorption-compression refrigeration cycle. The cycle combines the application possibility of H2O in the high temperature sorption stage and the low temperature application of CO2 in the compression stage. This solution gives significant energy savings in comparison with the two-stage compressor cycle and with the one-stage transcritical CO2 cycle. Besides, the sorption cycle may be powered by low temperature waste heat or renewable heat. This is an original idea of the authors. In the paper an analysis of the possible extension of this solution for high capacity industrial refrigeration is presented. The estimated energy savings as well as TEWI (Total Equivalent Warming Impact) index for ecological gains are calculated.
12
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Edges are of fundamental importance in the analysis of images, and of course in the field of image quality. To incorporate the edgy: information as coded by the Human Visual System (HVS) in a vector quantization scheme, we have developed a classification strategy to separate edge vectors from non-edge vectors. This strategy allows the generation of different sets of codewords different size for each kind of vectors. For each one of the "edge" sets, the final size is perceptually tuned. Finally, when an image is encoded, its associated edge map is generated. Then the selection of the appropriate "edge" set is made in respect with the edge amount present in the image. Then the second set of non-edge vectors is performed in order to respect the required compression rate. Statistical measure and psychophysical experiments have been performed to judge the quality of reconstructed images.
W artykule przedstawiono wyniki badań dotyczących różnych specjalizowanych metod kompresji plików dziennika, których celem było napisanie aplikacji, która korzystając z tych metod umożliwia przeprowadzenie operacji kompresji oraz dekompresji. Ponadto porównano ich działanie z uniwersalnymi metodami kompresji.
EN
The article presents results of investigation of some specialized log file compression methods which main goal was to write the specialized log file archiver. Moreover, the comparative tests of universal and specialized compression methods are presented in the paper.
14
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Extensive research on the mechanisms of plastic deformation undertaken recently in many R&D centers allows us to prove the existence of such methods of deformation that reduce significantly the force necessary for metal forming and increase the values of deformation limit. This paper presents the results of rolling examinations, with axial motion of working rolls and compression of cylindrical samples in conditions of oscillatory torsion. The tests were conducted on specially adapted work-stands, whose design is a unique technical solution developed at the Department of Process Modelling and Medical Engineering for testing materials. The laboratory tests made on rolling and compression have revealed some significant differences in power-energy parameters registered during the tests, in conventional conditions and conditions with forced change of deformation path. At the same time the tests on the influence of deformation conditions on the macro-, micro-, and substructure of materials are carried out. The effects of laboratory examinations in the form of the new data describing mechanical and structural reaction of metals, in conditions of controlled change of loading pattern, are promising and encourage us in our research work.
PL
Badania nad mechanizmami odkształcenia plastycznego, które są bardzo intensywnie prowadzone w wielu ośrodkach badawczych, pozwoliły stwierdzić, że istnieją takie sposoby odkształcenia, które wywołują istotne obniżenie wielkości sił niezbędnych do prowadzenia procesów kształtowania plastycznego oraz zwiększenie wielkości odkształceń granicznych. Przedstawiono wyniki badań walcowania z poosiowym ruchem walców roboczych i ściskania próbek walcowych w warunkach oscylacyjnego skręcania. Próby przeprowadzono na specjalnie do tego celu zbudowanych stanowiskach, które są oryginalnym rozwiązaniem technicznym opracowanym w Katedrze Modelowania Procesów i Inżynierii Medycznej. Laboratoryjne próby walcowania i ściskania wykazały istotne różnice w charakterze zmian rejestrowanych parametrów siłowo-energetycznych w warunkach konwencjonalnych oraz z wymuszoną zmianą drogi odkształcenia. Równolegle są prowadzone badania wpływu warunków odkształcania na makro-, mikro- i substrukturę materiału. Efekty badań laboratoryjnych w postaci nowych danych na temat mechanicznej i strukturalnej reakcji metali w warunkach kontrolowanej zmiany schematu obciążenia są obiecujące i skłaniają do kontynuacji prezentowanych badań.
15
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
W artykule przeprowadzono analizę funkcjonowania zaproponowanego w [8] algorytmu nieregularnego próbkowania ze względu na dynamikę sygnałów pomiarowych, a także uzyskiwaną skuteczność (zysk) kompresji. W analizie zastosowano nieokresowe sygnały testowe. Uzasadniono dobór klasy sygnałów testowych ze względu na badany algorytm kompresji. Operację realizowaną przez analizowany algorytm można określić mianem próbkowania nieregularnego, przy czym zmiana okresu próbkowania dokonywana jest na podstawie analizy pochodnej sygnału w dziedzinie czasu. W szczególności algorytm wykazuje wysoką skuteczność w zastosowaniu do wolnozmiennych, quasi-stacjonarnych sygnałów pomiarowych z nieregularnie pojawiającymi się składowymi szybkozmiennymi i może znaleźć zastosowanie podczas ciągłej i długotrwałej rejestracji danych pomiarowych.
EN
In the paper an analysis has been performed of functioning of an algorithm (proposed in [8]) of non-uniform sampling in respect of measured signals dynamic as well as the efficiency (gain) of compression. For the analysis purpose non-periodic test signals have been used. The choice of the test signals class is motivated considering the investigated compression algorithm. The operation accomplished by analyzed algorithm may be stated as non-uniform sampling, with the changing of sampling period on the basis of the analysis of the derivative of the signal in the time domain. The algorithm shows good efficiency when applied to slowly variable quasi-stationary signals with short, irregularly occurring, highly variable components, and can be applied to continuous and long-term logging of measurement data.
The objective of this paper is to investigate the effects of scale of an auxetic cellular material sample on the evaluation of elastic properties. Size and boundary effects are studied in detail. This is achieved by conducting computer simulations of the auxetic structure under the typical loading exerted by the compression and simple shearing test performed by means of ABAQUS FEA. The material microstructure is discretized by the plane network of Timoshenko beam elements. The results of the studies give insight to the scale effects. Structures with designed properties can be potentially used for engineering applications.
17
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
W artykule przedstawiono współczesne tendencje w obszarze kompresji obrazów cyfrowych. Podano wady i zalety poszczególnych metod kompresji: JPEG, falkowej i fraktalnej. Podano istotne różnice w podejściu do poszczególnych metod. Materiał badawczy obejmuje kompresje zdjęć lotniczych i zobrazowań satelitarnych za pomocą standardów JPEG, JPEG 2000 oraz metody falkowej ECW. Testy zostały przeprowadzone na wybranych zdjęciach lotniczych oraz zobrazowaniach satelitarnych. Wyniki badań pokazują, że stopień kompresji zależny jest od skali zdjęcia oraz tekstury obrazu występującej na nim. W artykule zastosowano różne miary oceny straty jakości na obrazach po kompresji w odniesieniu do obrazów niedegradowanych.
EN
In this paper actual tendencies in area of image compression are presented. The advantages and disadvantages of particular compression methods such as: JPEG, wavelet and fractal are given. There are also discussed essential differences in presented methods of image compression. The tests were performed on selected aerial and satellite images using following compressions: JPEG, JPEG 2000, and wavelet ECW. The results show, that compression ratio is dependent on scale of image and image texture. In this paper different estimated measures of quality loss on images after compression, with reference to not-compressed images, have been used.
18
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
In every day is a lot of new images and photos get into the internet. Problem of image similarity is up-to-date in image retrieval. There are a lot of methods for comparison of images. We use vector quantization and NCD method for look for similar images in collection that vector quantization prepares image files for NCD. In this paper we can show how to convert 2D image into 1D string using by vector quantization and how NCD method is used for image similarity detection.
PL
W artykule analizowano problem podobieństwa obrazu. Użyto metody kwantyzacji wektora i metody NCD. Pokazano jak konwertować obraz 2D w strumień 1D.
W artykule przedstawiono wyniki prac realizowanych w ramach projektu VECTOR finansowanego w ramach 6 Programu Ramowego Unii Europejskiej w zakresie systemów kompresji i bezprzewodowej transmisji danych i obrazu dedykowanych dla endoskopii kapsułkowej nowej generacji. Opracowany system umożliwia transmisję 24 obrazów na sekundę o rozdzielczości 320x240 przez łącze radiowe o przepustowości 2 Mbit/s. Możliwość długotrwałej pracy kapsułki ma zapewnić układ zasilania bezprzewodowego zdolny dostarczyć do 300 mW mocy.
EN
The paper discusses the outcomes of the European Project VECTOR FP6 concerning image compression and wireless data transmission systems dedicated to a new generation of capsule endoscopy. The overview of the developed system is given in Section 2. The image compressor algorithm, developed within the project, is presented briefly in the first part of Section 3. Next, a new adaptive entropy encoder proposed for it is discussed in detail. The new encoder, in comparison to the previous one, has much lower memory footprint, as it does not use Huffman tables. Simulation results given in Tab. 1 clearly demonstrate that the new encoder, despite its low implementation complexity, outperform the old one. The developed image compressor algorithm was implemented in a single, 65 nm ultra low-power FPGA. It operates with 24 MHz clock and it is able to process a single image frame in 8.2 ms. Its energy consumption amounts to 0.4 mJ per single compressed frame. In Section 4 a wireless transmission system for wireless capsular endoscopy is presented. In this section an improved demodulator for a wireless receiver is also proposed. Section 5 contains the conclusions.
20
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Data analysis of a fabric's compression properties can only be done when the limits of compression are known. The best formula is van Wyk's, although the meaning of the physical parameter is still not clear. On the basis of van Wyk's equation, a study of the compressibility of woven fabrics can be initiated in partnership with Pierce, Kemp and Hamilton's approach for circular yarns and the flattened yarns of a fabric under pressure. Neural network models promise to solve the drawbacks of de.Jong's and other models. The fit of the pressure-thickness relationship may be improved by using exponential function and the Iterative method, such as Marquardt's algorithm for evaluating compression properties. Back-propagation promises to give better results, since the KES-FB3 compression measuring instrument works by minimising error levels. The optimisation of low-stress mechanical properties is possible by using trained networks, and this venture forms an absolute method for comparing the functional properties of fabrics.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.