Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 10

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  motion detection
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The fire control system operator’s monitor unit displays the video feed from online video cameras and fire control system-generated on-screen data overlays. The design specified in this paper and developed by the authors is a hardware implementation of GUI on-screen data overlays from various data sources to minimise the fire control system’s CPU load. The monitor unit can acquire video feeds from two cameras, with one daylight (full colour) VIS camera and one IR (monochromatic) camera and the video output generated by the fire control system computer, and overlay or mix the two video sources on-screen. Each of the video camera feeds can be processed in real time with gamma and dynamic brightness range correction. The daylight VIS camera feed processing supports video pixel change detection to substitute for a motion detection system. The fire control system monitor can also analyse the video feeds and overlay the hazy areas of the VIS camera feed output with the corresponding areas of IR camera feed output. The fire control system monitor supports IR camera feed PIP (picture-in-picture) display overlaid on the VIS camera display, mixing of both camera feeds, and panoramic view output from both video feeds. On-screen text and a moving targeting crosshair can also be displayed. The fire control system monitor communicates with its master control system via a serial bus. The monitor can also work autonomously (not connected to a master control system); commands and status output functions are implemented with a bezel control keyboard with individually backlit keys. The functionalities were developed with relatively simple hardware and software solutions.
PL
Monitor operatora systemu kierowania ogniem wyświetla obraz pochodzący z aktualnie używanych kamer oraz nałożone na ten obraz informacje generowane przez system. Opisana w artykule konstrukcja, opracowana przez autorów niniejszego tekstu, realizuje sprzętowo funkcję nakładania informacji z różnych źródeł, minimalizując obciążenie jednostki centralnej systemu. Monitor umożliwia akwizycję sygnału z dwóch kamer, w założeniu dziennej oraz termalnej (obraz monochromatyczny), akwizycję obrazu generowanego przez komputer systemu kierowania ogniem oraz nakładanie lub mieszanie tych obrazów. Ponadto dla każdej z kamer realizowana jest korekta gamma i korekta zakresu jasności obrazu. Dla obrazu z kamery dziennej wykonywana jest procedura detekcji zmian obrazu, mogąca stanowić namiastkę wykrywania ruchu, oraz analiza umożliwiająca zastąpienie obrazem z kamery termalnej w obszarach uznanych za zamglone (fuzja). Możliwe jest także wyświetlanie obrazu z kamery termalnej w wybranym obszarze monitora („obraz w obrazie”) na tle obrazu z kamery dziennej, ew. mieszanie tych obrazów oraz tworzenie panoramy z obrazów z obu kamer. Dodatkowo realizowane jest wyświetlanie informacji tekstowych oraz ruchomego znaku celowniczego. Sterowanie pracą monitora przez system nadrzędny odbywa się za pośrednictwem magistrali szeregowej. Możliwa jest także praca autonomiczna, dzięki klawiaturze wokółekranowej wyposażonej w indywidualnie podświetlane przyciski, zapewniającej zarówno sterowanie, jak i sygnalizację stanu. Powyższe efekty uzyskano przy użyciu stosunkowo prostych rozwiązań sprzętowych i programowych.
2
Content available remote System nadzoru pojazdów na parkingach autostradowych za pomocą wideo monitoringu
PL
W artykule przedstawiono metodę klaryfikacji pojazdów za pomocą wirtualny detektorów. Metoda ta oparta jest na detekcji ruchu w zdefiniowanych strefach (wirtualnych detektorach). Klasyfikacja pojazdów została przeprowadzona na podstawie ich wysokości. Wykonano badania na jednym z parkingów MOP na autostradzie A2. Przedstawiono wyniki badań.
EN
This article presents a method of vehicles classification using virtual detectors. This method is based on motion detection in defined zones (virtual detectors). Classification of vehicles was carried out on the basis of their height. The study was performed on one of the parking lots of the highway A2. Shows the results of the research.
3
Content available remote System monitoringu w oparciu o aplikację ZoneMinder
PL
Artykuł opisuje możliwość wykorzystania aplikacji ZoneMinder jako podstawy systemu monitoringu wizyjnego. Przedstawiono główne cechy i funkcje programu, ze szczególnym uwzględnieniem ważnego zagadnienia z punktu widzenia monitoringu, czyli dostępnych typów stref ruchu. Szczególne znaczenie ma aspekt ekonomiczny rozwiązania ze względu na fakt, iż wykorzystanie darmowej, działającej pod kontrolą systemu operacyjnego Linux, aplikacji ZoneMinder nie niesie ze sobą generowania dodatkowych kosztów.
EN
This article describes the possibility of using ZoneMinder application as a basis for building the monitoring system. Authors describe the main features and functions of the program with particular emphasis on important issues in terms of monitoring - the available types of motion zones. Of particular importance is the economic aspect of the solution due to the fact that using the free, running under the Linux operating system, ZoneMinder application does not generate additional costs.
PL
W artykule poruszono zagadnienia, które są istotne przy wyborze metody detekcji obiektów ruchomych dla systemu monitoringu przestrzeni publicznej. Przebadano, jak wybór przestrzeni barw wpływa na rezultaty detekcji, oraz zmierzono i zaprezentowano czasy konwersji pomiędzy przestrzeniami barw. Przeanalizowano i przetestowano szereg algorytmów generacji tła, zwracając szczególną uwagę na takie cechy, jak: zdolność do poprawnej inicjalizacji tła, odporność na nagłe zmiany oświetlenia i multimodalność tła. Dodatkowo wyniki eksperymentów wskazują, że wykorzystanie informacji o ruchu, uzyskanej poprzez wyznaczenie przepływu optycznego, może poprawić wyniki segmentacji oraz działanie generacji tła.
EN
This paper deals with important issues when choosing a moving object detection method for a video surveillance system. It was investigated, how the choice of colour space affects the segmentation results. Also conversion times between different colour spaces were measured and presented. Several baekground generation algorithms were analyzed and tested. Particular attention was paid to such features as the ability to correctly initialize the background model, the resilience to sudden changes in lighting and background multimodality. In addition, experimental results indicate that the use of motion information, obtained by calculating optical flow, may enhance the segmentation and performanee of background generation.
PL
Artykuł prezentuje eksperymentalny system telewizji dozorowej do śledzenia ruchomych obiektów w czasie rzeczywistym. W jego skład wchodzi kamera przemysłowa CC-5299 MAFS/M zamontowana na komputerowo sterowanej obrotnicy. Zestaw jest kontrolowany ze standardowego komputera klasy PC z zainstalowanym systemem Linux. Zaprojektowane oprogramowanie analizuje obraz z kamery i na jego podstawie dobiera parametry sterowania obrotnicą. Ponadto, oprócz sterowania automatycznego, możliwe jest także sterowanie ręczne. Szczegółowo opisano także wykorzystane algorytmy śledzenia obiektów.
EN
This paper presents an experimental CCTV system for real time tracking of moving objects. It is equipped with the industry standard video camera CC-5299 MAFS/M mounted on a controlled turntable. APC computer operating with Linux system is used. The prepared software analyzes the captured video and decides how to control the turntable and the camera to track the selected object. Manual system control is also possible. The implemented algorithms are discussed in the paper in detail.
6
Content available remote TGSF/TLoG filter with optical flow techniques for large motion detection
EN
In this paper, detection and segmentation of large motion in moving image sequences is presented. For detecting motion, the intensity of each pixel is convolved with the second derivative of the Temporal Gaussian Smoothing Function (TGSF) or the Temporal Laplacian of Gaussian (TLoG) filter. The zero-crossing in a single frame of the resulting function indicates the positions of moving edges. An intensity change over time due to a small illumination effect does not produce a zero crossing. Therefore, such changes are not interpreted as human motion by this method. The optical flow velocity is computed by using the spatial and temporal derivatives of this function, and it is normal to the zero crossing contours. Pixels belonging to the normal velocities are projected back to the original color image sequences to achieve a segmented color image. Experiments show that a moving object is detected correctly, and good segmentation results are achieved.
7
Content available remote Video based road traffic detection and analysis
EN
In this article an autonomous vehicle detection algorithm is presented. The described technique is capable of accurate vehicle detection, can work with different cameras and is fairly immune to illumination changes. It is based on the idea of an adaptive background model and the background subtraction method for detecting motion. The application's performance tests ware conducted using real life video sequences and gave satisfactory results.
PL
W publikacji przedstawiono kluczowe dla realizacji algorytmów wideodetekcji algorytmy generacji tła i wykrywania ruchu. Zaproponowano modyfikacje algorytmu generacji tła umożliwiającą pracę algorytmu w warunkach średniego i dużego natężenia ruchu pojazdów. Przedstawiono sposób adaptacji algorytmu do efektywnej implementacji w układzie reprogramowalnym. Przedstawiono również modyfikację sposobu realizacji algorytmu SAD, odpowiedzialnego za wykrywanie ruchu. Modyfikacja ta dotyczy implementacji FPGA w środowisku Pixel Streams. Polega ona na wprowadzeniu możliwości dowolnego zdefiniowania 32 obszarów zainteresowania w analizowanym obrazie. Pozwala to niezależnie i równolegle prowadzić obliczenia dla poszczególnych, zdefiniowanych przez użytkownika, aktywnych pól wideodetekcji.
EN
In the present paper the background generation and motion detection algorithms, which are of key importance for the implementation of videodetection, has been presented. A modification of the background generation algorithm, allowing for a proper algorithm functioning at medium and high traffic conditions, has been proposed. An adaptation of the algorithm for implementation in the reprogrammable device has been presented. A modification of the SAD algorithm, used for motion detection has been introduced. The modification allows for unrestricted defining of 32 Regions of Interest of irregular shape and structure in the analyzed image. It gives a capability to conduct the calculation in independent and parallel manner for particular, user-defined, active videodetection regions.
9
Content available remote Image processing for old movies by filters with motion detection
EN
Old movies suffer from various types of degradation: severe noise, blurred edges of objects (low contrast), scratches, spots, etc. Finding an efficient denoising method is one of the most important and one of the oldest problems in image sequence processing. The crucial thing in image sequences is motion. If the motion is insignificant, then any motion noncompensated method of filtering can be applied. However, if the noise is significant, then this approach gives most often unsatisfactory results. In order to increase the quality of frames, motion compensated filters are usually applied. This is a very time consuming and awkward approach due to serious limitations of optical flow methods. In this paper, a review of various filters with motion detection when applied to the processing of image sequences coming from old movies is presented. These filters are nonlinear and based on the concept of multistage median filtering or mathematical morphology. Some new filters are proposed. The idea of these new filters presented here is to detect moving areas instead of performing full estimation of motion in the sequence and to apply exclusively 2D filters in those regions while applying 3D motion noncompensated filters in static areas, which usually significantly reduces the computational burden.
EN
This work extends the scope of mathematical morphology from complete lattices to complete semilattices, and presents some applications of this extension. More specifically, we first define and briefly analyze basic morphological operators in complete inf-semilattices. Then, difference and reference semilattices are introduced. Finally, some video processing applications in these semilattices are presented, namely: Detection of fast motion, innovation extraction, and contour compression for segmentation-based coding.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.