Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 13

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W pracy analizowano dwie metody dekodowania detekcyjno-korekcyjnego kodów dwukrotnie iterowanych na bazie rozszerzonego kodu Hamminga dla kodowania wierszyi kodu z kontrolą parzystości dla kodowania kolumn różniące się ilością korygowanych i wykrywanych błędów. Podano algorytmy dekodowania detekcyjno-korekcyjnego umożliwiające poprawną korekcję i detekcję odpowiedniej ilości błędów. Opracowane algorytmy dekodowania bazują na dwóch rodzajach korekcji: korekcji na podstawie syndromów wierszy i korekcji na podstawie liczby syndromów różnych od zera. W pierwszym przypadkujest to klasyczna korekcja błędów dla kodów Hamminga, w których syndrom ciągu odebranego wskazuje korygowaną pozycję. W drugim przypadku korekcja jest przeprowadzana na pozycjach wyznaczonych przez numer wiersza i numery kolumn, w których syndromy są różne od zera.W pierwszym algorytmie dekodowania występuje jedna faza dekodowania, w której przeprowadza się korekcję na podstawie syndromów wierszy w sytuacji,gdy tylko w jednym wierszu i jednej kolumniewystępują syndromy różne od zera. W pozostałych przypadkach podejmowana jest decyzja o wykryciu błędu.Algorytm ten umożliwia poprawną korekcję błędów pojedynczych i wykrycie błędów o krotnościach mniejszych od siedmiu. W drugim algorytmie dekodowania występują dwie fazydekodowania i w obu przeprowadzanesą korekcje błędów. Algorytm ten umożliwia poprawną korekcję wszystkich błędów o krotnościach jeden, dwa, trzy i część błędów o krotności cztery, pozostała cześć błędów o tej krotności będzie wykrywana.Z dokładnych analiz pracy dekoderówprzedstawionych w tabelachmożna wywnioskować, że działają one poprawnie, to znaczy korygują i wykrywają właściwąliczbę błędów wynikającą z własności detekcyjno-korekcyjnych zastosowanego kodu.
EN
Results of comparative analysis of two different methods for detection-correction decoding of double iterated codes are presented in the paper. Analyzed methods are to decode the codes which, in particular, are based on the extended Hamming codes - in the case of rows coding, and on the parity-check codes – in the case of columns coding. A number of detected and corrected codes is the main difference between them. The detection-correction decoding algorithms, implemented by these methods to ensure an accurate detection and correction of a proper number of errors, are also presented. The row syndrome error correction scheme, typically applied for Hamming codes in which syndrome computed on a received word is the binary representation of the error location, is the base error correction scheme for the first method. In turn, an error correction based on a number of nonzero syndromes is incorporated in the second method. In this case however, error locations are identified by intersection of rows and columns with non-zero syndromes. There is only one decoding phase in the case of the first method. The row syndrome error correc-tion scheme is carried out during this phase when only one row and only one column with nonzero syndromes exist. Otherwise, an error detection is signaled. Thus, all the single-errors are accurately corrected as well as all the multiple-errors – with multiplicity less than seven - are identified. The second algorithm, in turn, has two decoding phases. Corrections of errors are carried out in both of them. An accurate correction of all the single-, double- and triple-errors is ensured in this way. In addi-tion, some quadruple-errors are also properly corrected while the remaining errors of this multiplicity are correctly identified. Results presented in the paper show that analyzed detection-correction decoding methods are optimal regarding the applied codes. For these codes, they identify and correct an appropriate number of errors.
PL
W artykule zaprezentowano wyniki badań nad rozpoznawaniem numerów autobusów i tramwajów w warunkach rzeczywistych i przy użyciu urządzeń mobil nych. Celem ww. badań było opracowanie skutecznych narzędzi wspomagających osoby z upośledzeniem wzroku w korzystaniu ze środków komunikacji miejskiej. Spośród wielu różnych analizowany podejść, w artykule zaprezen towane jedynie to, na którym oparto końcowy rezultat przeprowadzonych prac, tj. aplikację mobilną dedykowaną dla tej kategorii osób. Podejście to obejmuje dwie, wybra ne techniki przetwarzania obrazów, bazujące odpowiednio na metodzie Haar-Like [7] oraz filtracji kolorów. W arty kule przedstawiono szczegóły obu metod oraz zaprezento wano rezultaty testów nad ich zastosowaniem do rozp znawania numerów linii. Szczegóły implementacji ww. aplikacji mobilnej również zostały przedstawione, a efek tywność jej działania została podsumowana i poddana ocenie.
PL
W pracy analizowano dwie metody dekodowania detekcyjno - korekcyjnego (t=1, γ =7) i (t=2, γ =6) kodów dwukrotnie iterowanych na bazie kodów Hamminga lub skróconego kodu Hamminga. Podano algorytmy dekodowania detekcyjno-korekcyjnego umożliwiające poprawną korekcję i detekcję odpowiedniej ilości błędów. Opracowane algorytmy dekodowania bazują na trzech rodzajach korekcji: korekcji na podstawie syndromów kolumn KOR_SK, korekcji na podstawie syndromów wierszy KOR_SW, i korekcji na podstawie liczby syndromów różnych od zera KOR_LS_11. W dwóch pierwszych przypadkach są to klasyczne korekcje błędów dla kodów Hamminga, w których syndrom ciągu wskazuje w NKB korygowaną pozycję. W trzecim przypadku korekcja jest przeprowadzana na pozycji wyznaczonej przez numer wiersza i kolumny, w których syndromy są różne od zera. W algorytmie dekodowania (t=1, γ =7) występuje jedna faza dekodowania. Po wyznaczeniu wszystkich syndromów wierszy i kolumn przeprowadza się korekcję KOR_LS_11 w sytuacji, jeżeli tylko jeden wiersz i jedna kolumna mają syndromy różne od zera, w pozostałych sytuacjach podejmowana jest decyzja o wykryciu błędu za wyjątkiem przypadku gdy wszystkie syndromy są równe zeru, oznaczającego bezbłędny odbiór lub błędną decyzję dekodera. W algorytmie dekodowania (t=2, γ =6) występują dwie fazy: w pierwszej wyznacza się wszystkie syndromy wierszy i kolumn oraz oblicza się liczbę wierszy LSw i kolumn LSk z syndromami różnymi od zera. W zależności od wartości LSw i LSk wykonywana jest odpowiednia korekcja lub detekcja błędów. W drugiej fazie dekodowania ponownie wyznacza się wszystkie syndromy wierszy lub kolumn i w przypadku, gdy co najmniej jeden syndrom jest różny od zera podejmuje się decyzję o wykryciu błędu.
EN
Two methods for detection-correction decoding, respectively denoted as (t=1, γ=7) and (t=2, γ=6), are presented in the paper. Both presented algorithms ensure an accurate detection and correction of a proper number of errors. They have been founded on Hamming-based double iterated codes and on three different schemes of error correction. Above-mentioned schemes of error correction are as follows: the column syndrome correction (KOR_SK), the row syndrome correction (KOR_SW) and the correction based on a number of nonzero syndromes (KOR_LS_11). The two former schemes are typically applied for Hamming codes. They use the syndrome polynomial to determine position of the bit to correct. In turn, bit at the position given by these row’s and column’s numbers for which the respective syndromes are nonzero is corrected in the third scheme. There is one decoding phase in the case of (t=1, γ=7) method. The KOR_LS_11 correction is carried out when there is only one row and only one column withnonzero syndromes. Otherwise, decision of error detection is made. An exception to above rules is when all the syndromes are zero. In that case either wrong decoder decision was made or there were no errors received. As opposed to the (t=1, γ=7) one, there are two decoding phases in the case of (t=2, γ=6) algorithm. All the column and row syndromes as well as amounts of rows (LSw) and columns (LSk) with nonzero syndromes are determined during the first above phase. Depending on LSw and LSk amounts, an appropriate error correction or error detection is performed. All the column and row syndromes are determined once again during the second phase. Decision of error detection is made when there is at least one nonzero syndrome.
PL
W artykule przedstawiono przetwornik impulsowo-kodowy o wybieralnej rozdzielczości i charakterystyce statycznej opisanej funkcją pierwiastka kwadratowego. Przeanalizowano możliwości i koszty jego realizacji na bazie układów FPGA oraz porównano jego właściwości i koszty realizacji z przetwornikiem zbudowanym z wykorzystaniem pamięci stałej ROM.
EN
In the paper an impulse-code converter with selected number bit of output signal with square-root transform function is presented. There are analyzed two methods of realization this type of function converter (on FPGA and ROM) and an estimation of costs both implementations is compared.
Logistyka
|
2015
|
nr 2
1140--1145, CD2
PL
Artykuł dotyczy problematyki innowacji w zakresie sprzedaży sklepowej. Innowacje te polegają na wprowadzaniu nowych rozwiązań w zakresie sprzedaży realizowanej w lokalach sklepowych, na przykład na wprowadzaniu nowych rodzajów sklepów. Nowe rozwiązania dotyczą też na przykład: asortymentu, sposobów dokonywania płatności, komunikacji marketingowej wewnątrz sklepów. Nowoczesne technologie są podstawą wielu z tych innowacji. Artykuł składa się z dwóch części. Pierwsza część dotyczy rodzajów innowacji w zakresie sprzedaży sklepowej. Druga część dotyczy podstawowych czynników sprzyjających wprowadzaniu innowacji w zakresie sprzedaży sklepowej.
EN
The article presents the innovations in the shops. These innovations consist in introducing new solutions in the shops, for example an introduction of new formats of shops. The innovative solutions concern also for example: the assortment, the ways of payment, the marketing communications inside the shops. The modern technologies form the basis of a lot of these innovations. Article consists of two parts. First part concerns the kinds of innovations in the shops. Second part concerns the basic factors favourable for the introducing the innovations in the shops.
EN
Effectiveness analysis of threshold compression of contours with the use of piecewise-linear transforms has been investigated in the paper. Selected piecewise transforms, as Periodic Walsh Piecewise-Linear Transform (PWL), Haar Piecewise-Linear Transform (HPL) and Periodic Haar Piecewise-Linear Transform (PHL), together with the piecewise-constant Walsh Transform have been described. The scheme of a threshold compression method has been presented. Set of typical test contours has been the subject of threshold compression with the use of the selected piecewise-linear transforms. The compression effectiveness has been evaluated in terms of typical quality measures, as the Mean-Square Error, MSE, and Signal-to-Noise Ratio, SNR, by the comparison between the original contour and its reconstruction after the compression. Results of experiments are presented in the form of plots, showing the considered quality measures versus the Compression Ratio, CR, prepared in the Matlab environment.
PL
W artykule badano efektywność kompresji progowej konturów z zastosowaniem transformat odcinkowoliniowych. Opisano wybrane transformaty odcinkowo-liniowe, jak transformata PWL (Periodic Walsh Piecewise-Linear), HPL (Haar Piecewise-Linear) oraz PHL (Periodic Haar Piecewise-Linear), łącznie z odcinkowo-stałą transformatą Walsha. Przedstawiono schemat kompresji progowej. Metodę kompresji progowej z użyciem wybranych transformat odcinkowo-liniowych zastosowano do typowego zbioru konturów testowych. Efektywność kompresji oceniano w sensie typowych miar jakości, takich jak błąd średniokwadratowy MSE (Mean-Square Error) i stosunek sygnał-szum SNR (Signal-to-Noise Ratio), przez porównanie konturu oryginalnego z rekonstruowanym po kompresji. Wyniki badań przedstawiono w postaci wykresów, prezentujących zależność rozważanych miar jakości w funkcji współczynnika kompresji CR (Compression Ratio), opracowanych w środowisku Matlab.
EN
Effectiveness analysis of threshold and zonal compression with the use of piecewise-linear transforms has been investigated in the paper. The piecewise-linear transformations, used in the initial stage of compression algorithm, have been considered. Two transformations have been taken into account: the Periodic Walsh Piecewise-Linear (PWL) Transform and the Haar Piecewise-Linear (HPL) Transform. The transformations have been presented and the expansion into two-dimensional case has been explained. The essential compression has been performed in the PWL or HPL spectral domain. The compression algorithm has been described. In order to evaluate the compression effectiveness, the reconstructed image has been compared with the original one. Computational results of the compression quality have been evaluated in terms of typical quality criteria, as Peak Signal-to-Noise Ratio, PSNR and Mean Square Error, MSE. Results of experiments have been enclosed in the form of plots prepared in the Matlab environment.
PL
W artykule badano efektywność kompresji progowej i strefowej z zastosowaniem transformat odcinkowoliniowych. Rozważono transformaty odcinkowo-liniowe, stosowane we wstępnym stadium algorytmu kompresji. Pod uwagę wzięto dwa przekształcenia: okresowe przekształcenie odcinkowo-liniowe Walsha (PWL) oraz przekształcenie odcinkowo-liniowe Haara (HPL). Przedstawiono same przekształcenia i wyjaśniono sposób ich rozwinięcia na przypadek dwuwymiarowy. Zasadnicza kompresja realizowana była w dziedzinie widmowej przekształcenia PWL oraz HPL. Opisany został algorytm kompresji progowej i strefowej. W celu oszacowania efektywności kompresji, obraz rekonstruowany był porównywany z oryginałem. Obliczeniowe rezultaty jakości kompresji zostały wyznaczone z użyciem typowych kryteriów jakości, takich jak maksymalny współczynnik sygnał-szum PSNR oraz błąd średniokwadratowy MSE. Wyniki badań załączono w postaci wykresów opracowanych w środowisku Matlab.
PL
W pracy analizowano metodę dekodowania korekcyjnego kodów dwukrotnie iterowanych na bazie kodów Hamminga. Podano reguły kodowania oraz algorytm dekodowania korekcyjnego umożliwiający poprawną korekcję błędów o krotności mniejszej od pięciu. Opracowany algorytm dekodowania bazuje na trzech rodzajach korekcji: korekcja na podstawie syndromów kolumn KOR_SK, korekcja na podstawie syndromów wierszy KOR_SW, i korekcja na podstawie liczby syndromów różnych od zera KOR_LS_22. W dwóch pierwszych przypadkach są to klasyczne korekcje błędów dla kodów Hamminga, w których syndrom ciągu wskazuje w NKB korygowaną pozycję. W trzecim przypadku korekcja jest przeprowadzana na czterech pozycjach wyznaczonych przez numery wierszy i kolumn, w których syndromy są różne od zera. W algorytmie dekodowania występują dwie fazy: w pierwszej wyznacza się wszystkie syndromy wierszy i kolumn oraz oblicza się liczbę wierszy LSw i kolumn LSk z syndromami różnymi od zera. W zależności od wartości LSw i LSk wykonywana jest odpowiednia korekcja błędów. W drugiej fazie dekodowania ponownie wyznacza się wszystkie syndromy wierszy i kolumn i przeprowadza się korekcję KOR_SW lub KOR_SK w zależności od tego jaki rodzaj korekcji był przeprowadzony w fazie pierwszej. Przedstawiono analizę działania dekodera korekcyjnego dla wszystkich możliwych błędów o krotności mniejszej od pięciu, wyznaczono takie położenia błędów o krotności pięć, które prowadzą do błędnej decyzji dekodera.
EN
Method for error correction decoding of double-iterated Hamming based codes is examined in the paper. Encoding rules as well as algorithm for error correction decoding which enables reliable correction of errors with multiplicity less than 5 are presented. The presented algorithm refers to three different types of error correction methods which are as follows: column syndrome correction (KOR_SK), row syndrome correction (KOR_SW) and correction based on a number of nonzero syndromes (KOR_LS_22). KOR_SK and KOR_SW are typical error corrections schemes as for Hamming codes, where the syndrome polynomial determines NBC position of the corrected bit. In the case of KOR_LS_22, error correction is carried out at the positions of four bits determined by these rows and columns for which their syndromes are nonzero. The presented decoding algorithm is as follows. Syndromes of all rows and columns and then the number of rows (LSw) as well as columns (LSk) with nonzero syndromes are calculated first. Next, an appropriate error correction is carried out depending on LSw and LSk values. After that, syndromes of all rows and columns are calculated again. Corrections KOR_SW or KOR_SK is carried out then, depending on kind of correction performed previously. Analysis of correction decoder operation, for all probable errors with multiplicity less than 5, is also presented in the paper. In addition, locations of such an errors, but with multiplicity equal to 5, which lead to wrong decoder decision, have been determined as a part of this presentation.
EN
A new object-oriented still image compression scheme, based on a region segmentation technique, is presented in the paper. Segmentation in the proposed scheme is done according to a criterion of pixel intensity (for grayscale images) or criterion of index into the palette of colors (for color images). A high compression ratio of this method is achieved by rejecting the regions of the smallest area (according to a given threshold criterion), and by the coding scheme of applied two-stage algorithm for contour compression. Stages of contour compression and coding refer to the edges of remaining separable and homogeneous regions, which are extracted from an input image during the segmentation process.
PL
W artykule przedstawiono propozycję nowego schematu obiektowo zorientowanej kompresji obrazów realizowanego w oparciu o metodę segmentacji obszarowej. Segmentacja w proponowanym schemacie przeprowadzana jest w oparciu o kryterium poziomu szarości (dla obrazów w skali szarości) lub o kryterium indeksu koloru w palecie barw (dla obrazów kolorowych). Uzyskane w drodze segmentacji jednorodne i homogeniczne obszary są następnie poddawane procedurze SSPCE w celu znalezienia konturów opisujących ich krawędzie brzegowe. Wysoki stopień kompresji obrazu w proponowanej metodzie uzyskiwany jest przede wszystkim w efekcie zastosowania, zaproponowanego również przez autora tej pracy, dwustopniowego schematu kodowania ww. konturów, który łączy w sobie zmodyfikowany algorytm kodowania transformatowego z wygładzającym charakterem wybranej, przestrzennej metody aproksymacji konturów. Dodatkowo, na wartość tego współczynnika wpływa, przeprowadzane we wstępnym etapie, odrzucanie, zgodnie z przyjętym kryterium progowym, obszarów o najmniejszych polach powierzchni.
EN
A two-stage contour data compression scheme, based on transform coding technique (the first stage) combined with a selected spatial method (the second stage), is presented in the paper. The goal of the transform coding is to achieve the compression ratio as high as possible. The tangent method, a selected spatial domain contour approximation algorithm, is used to compensate the quantization error introduced at the first stage. Advantages of the proposed scheme were examined according to the compression ratio as well as to the Mean Square Error and the Signal to Noise Ratio. Compensation abilities of the tangent method were proved with respect to a new measure, referred to as the Area Error.
PL
W artykule zaprezentowano dwustopniowy schemat kompresji konturów, który łączy w sobie metodę kodowania transformatowego z wybraną metodą przestrzennej aproksymacji konturów. Celem zastosowania kodowania transformatowego w pierwszym, kodującym stopniu prezentowanego schematu jest uzyskanie jak najwyższego stopnia kompresji. Wraz ze wzrostem stopnia kompresji narasta jednak tzw. błąd kwantyzacji, a wraz z nim rośnie również zniekształcenie wprowadzane do przetwarzanych danych. Zadaniem metody tangensów - metody przestrzennej aproksymacji konturów zastosowanej w drugim, dekodującym stopniu proponowanego schematu, jest znacząca redukcja ww. zniekształcenia przy zachowaniu wysokiej wartości stopnia kompresji. Własności zaimplementowanego algorytmu kodowania transformatowego zostały przebadane zarówno pod względem stopnia kompresji jak i jakości rekonstrukcji. Własności te silnie zależą od typu zastosowanej transformaty. W pracy prezentowane są rezultaty uzyskane przy zastosowaniu transformaty DCT oraz dwóch, wybranych transformat odcinkowo-liniowych: PHL [10] i PWL [9]. Zdolność metody tangensów do kompensacji błędu kwantyzacji została wykazana na podstawie badania stosunku powierzchni wyznaczanych przez oryginalny kontur wejściowy i kontur zrekonstruowany na wyjściu schematu. Na potrzeby ww. badania zdefiniowano osobny wskaźnik AE (Area Error). Efektywność kompletnego, proponowanego dwustopniowego schematu kompresji została zaprezentowana przy wykorzystaniu wybranych konturów testowych.
PL
W artykule przedstawiono wyniki porównania własności kompresyjnych wybranych transformatowych metod kompresji konturów: metody strefowej i progowej. Badania przeprowadzono z użyciem licznej grupy konturów testowych. W analizie wykorzystano transformaty DCT, Walsha, Haara oraz przekształcenia odcinkowo-liniowe PWL, HPL i PHL. Badane właściwości oceniano na podstawie stopnia kompresji, tj. stosunku liczby bitów wymaganych do reprezentacji sygnału przed kompresją do liczby bitów reprezentacji po kompresji. W związku z powyższym dla każdego z analizowanych schematów kompresji zaproponowano struktury nadajnika i odbiornika oraz formaty transmitowanych danych.
EN
The compression abilities of selected transform compression methods - threshold and zonal compression schemes, were analysed. Results of comparison were presented in the paper. Many of previously prepared contours were tested during the experiments. The DCT, Walsh, Haar and piecewise-linear transforms - PWL, HPL and PHL, were used for the analysis. Compared abilities were measured using the compression degree - ratio of total number of bits required for contour representation before the compression to number of bits required after the compression. Therefore, the transmitter and receiver parts were designed separately for each of analysed schemes. Formats of transmitted information were also proposed separately.
EN
A series of novel, highly potent _v_3 antagonists based on a benzoic acid scaffold and containing an acylguanidine as an Arg-mimetic and sulfonamide side chains is described. The compounds are selective against the fibrinogen receptor _IIb_3 and they are capable of inhibiting bone resorption in vivo in a TPTX model of osteoporosis. Therefore the compounds are promising drug substances for the treatment of osteoporosis.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.