Artykuł przedstawia innowacyjny system pomiarowy VSTM (Visual Stop Time Meter), znany komercyjnie jako ELOStopTime, wykorzystywany do bezkontaktowego pomiaru czasu zatrzymania maszyn i wyznaczenia minimalnej odległości technicznego środka ochronnego od niebezpiecznego ruchu maszyny. Tradycyjne metody, bazujące na enkoderach impulsowych, ograniczone są do ruchów prostoliniowych, co czyni je nieprzydatnymi w przypadku bardziej skomplikowanych trajektorii ruchu. VSTM rozwiązuje ten problem dzięki zastosowaniu technologii wizyjnej i przetwarzania obrazu w czasie rzeczywistym, umożliwiając dokładne pomiary nawet w trudnych warunkach przemysłowych. W artykule omówiono wyzwania technologiczne, takie jak wybór odpowiednich kamer, zapewnienie wysokiej rozdzielczości i dokładności czasowej na poziomie 1 ms, a także optymalizację algorytmów analizy obrazu. System VSTM został opracowany przez firmę ELOKON, dzięki wsparciu Narodowego Centrum Badań i Rozwoju, a obecnie jest wdrażany na rynku.
EN
The article presents an innovative measurement system, VSTM (Visual Stop Time Meter), commercially known as ELOStopTime, used for non-contact measurement of machine stop time and determination of the minimum distance of a technical protective device from the hazardous movement of the machine. Traditional methods based on impulse encoders are limited to linear movements, making them ineffective for complex motion trajectories. VSTM overcomes this limitation by utilizing vision technology and real-time image processing, even in challenging industrial environments, allowing for precise measurements. The article discusses technological challenges, such as selecting appropriate cameras, ensuring high resolution and temporal accuracy at the 1 ms level, and optimizing image analysis algorithms. ELOKON developed the VSTM system with support from the National Centre for Research and Development and is currently being implemented in the market.
W artykule przedstawiono system wizyjny do analizy położenia sieci trakcyjnej względem odbieraka prądu. Jest on przeznaczony do montażu na dachu pojazdu kolejowego. Wyposażono go w kamerę i minikomputer Raspberry Pi 3B+, który analizuje zarejestrowany obraz oraz wykorzystuje moduł GPS do rejestracji miejsc, w których wykryto nieprawidłowe ustawienie sieci trakcyjnej. Wyniki przeprowadzonych badań, także z wykorzystaniem pojazdu szynowego, wskazują na możliwość szerokiego zastosowania proponowanego systemu.
EN
The article presents a vision system for analyzing the position of the catenary in relation to the current collector. This system is designed to be mounted on the roof of a railway vehicle. The system is equipped with a camera and a Raspberry Pi 3B+ minicomputer that analyzes the recorded image and uses a GPS module to record the locations where incorrect alignment of the overhead contact line was detected. The results of the tests carried out, also using a railway vehicle, indicate the possibility of widespread use of the proposed system.
The article is a description of the feature extraction method, used in the classification of defects in workpieces undergoing a process. The publication is a part of the work related to the development of a line for automatic identification of defects on workpieces. It describes a method of extracting features, in which voxelization results were used to obtain the parameters of characteristic defects. The results are illustrated with examples.
PL
Artykuł stanowi opis metody ekstrakcji cech wykorzystanej w klasyfikacji wad detali poddawanych obróbce. Praca stanowi część prac związanych z opracowaniem linii do automatycznej identyfikacji wad na elementach obrabianych. W artykule dokonano opisu metody wyodrębniania cech, w której zastosowano wyniki wokselizacji do otrzymania parametrów charakterystycznych wad. Wyniki zilustrowano przykładami.
W niniejszym artykule zaprezentowano system do automatycznego rozpoznawania elementów polskich pojazdów historycznych. Sys tem dokonuje analizy obrazów za pomocą sztucznych sieci neuronowych. Do przeprowadzenia testów skuteczności klasyfikacji wybranych zbiorów klas obiektów przygotowano bazę obrazów, z uwzględnieniem pochodzenia, modułu, modelu, nadwozia, silnika i wnętrza. Dla sieci wytrenowanych na pojedynczych modułach pojazdów w dwóch przypadkach osiągnięto stuprocentową dokładność klasyfikacji.
EN
This article presents a system for automatic recognition of elements of Polish historical vehicles. The system uses artificial neural net works for image analysis. A database of images was prepared to carry out the classification tests of selected sets of object classes, taking into ac count the origin, module, model, engine, body, and interior. For networks trained on single vehicle module, even 100% classification accuracy was achieved in two cases.
This article discusses the purpose of aeronautical approach lights for landing and describes the operation of the most popular visual system. In addition, an exemplary schedule describing the periodic verification that the PAPI system must undergo has been presented. The hitherto method of carrying out the verification of indications was discussed, as well as the proposed innovative method of carrying out the verification using an UAV (unmanned aerial vehicle), where its general solution concept was described. Moreover, the structure and operation of the program responsible for the autonomous light detection of the PAPI system and verification of their indications were discussed. A simulation was carried out using the available recordings, and then the results were described.
W niniejszym artykule zaproponowano system do automatycznego rozpoznawania zwierząt na obrazach z nagrań wideorejestratorów samochodowych wykorzystujący sztuczne sieci neuronowe. Na przygotowanej bazie obrazów przeprowadzono trening, walidację i testy pod kątem rozpoznawania m.in. krów, dzików, saren oraz innych, także mniejszych, zwierząt spotykanych na polskich drogach. Osiągnięto satysfakcjonujące wyniki rozpoznawania nawet na obrazach o niskiej jakości. Do obsługi systemu przygotowano aplikację użytkownika umożliwiającą przeprowadzenie testów rozpoznawania na pojedynczych zdjęciach i plikach wideo.
EN
This article proposes a system for automatic recognition of animals based on images from car video recorders using artificial neural net works. Training, validation and tests were conducted on the prepared image database in terms of recognizing, among others: cows, wild boars, roe deer and other, also smaller, animals encountered on Polish roads. Satisfactory recognition results were achieved even on low-quality image frames. A user application has been prepared to operate the system, enabling recognition tests to be conducted on photos and video files.
W niniejszym artykule zaprezentowano system do automatycznego rozpoznawania pojazdów uprzywilejowanych występujących na terenie Polski, działający na podstawie analizy obrazów i wykorzystujący sztuczne sieci neuronowe. Przygotowano bazę obrazów do przeprowadze nia skuteczności klasyfikacji wybranych rodzajów pojazdów uprzywilejowanych, z uwzględnieniem ich gabarytów i możliwości wykrywania sygnałów świetlnych. Dla najlepszej konfiguracji przebadanych sieci neuronowych i rozdzielczości obrazów osiągnięto ponad 99% dokładność klasyfikacji.
EN
This article presents a system for automatic recognition of emergency vehicles in Poland, using artificial neural networks and image anal ysis. A database of images was prepared to carry out the classification tests of selected types of emergency vehicles, taking into account their di mensions and the ability to detect light signals. For the best configuration of the tested neural networks and image resolution, over 99% classification accuracy was achieved.
Przedstawiono przykład robotyzacji w przemyśle FMCG. W szczególności scharakteryzowano wybrane czynniki determinujące automatyzację w branży FMCG. Dokonano oceny zastosowania w linii pakującej produkty kosmetyczne sortera butelek, wykorzystującego robota z systemem wizyjnym. Wskazano korzyści oraz problemy jakie wynikły po wdrożeniu.
EN
In this paper robotization in the FMCG industry were presented. In particular, selected factors determining automation in the FMCG industry were characterized. The implementation of a bottle sorter, using a robot with a vision system, for a line for packaging cosmetic products was assessed. The benefits and problems arising after the implementation were indicated.
W artykule przedstawiono algorytm systemu wizyjnego oraz przedstawiono przykłady jego działania, przetwarzający obraz komory farbowej w sposób umożliwiający automatyczne rozpoznanie czy jest i w jakim stopniu zabrudzona farbą drukarską. Istotą algorytmu jest jego prostota, umożliwiająca jego aplikacje na wybranych sterownikach PLC. Przykładowe oprogramowanie oparto o system Vision firmy National Instruments. Algorytm stanowi część urządzenia myjącego komory farbowe.
EN
The article presents the algorithm of the vision system and presents examples of its operation, which processes the image of the ink chamber in a way that enables automatic recognition of whether it is dirty with printing ink and to what extent. The essence of the algorithm is its simplicity, which enables its applications on selected PLC devices. The sample software was based on the National Instruments Vision system. The algorithm is part of the ink chamber washing device
10
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Krawędzie tnące ostrzy narzędzi skrawających oraz ostrzy technicznych podczas ich pracy podlegają procesom zużycia. Sprzyjają temu duże naciski jednostkowe, wysoka temperatura oraz znaczne wartości prędkości względnych przemieszczeń ostrza i materiału obrabianego.
EN
The paper presents the possibilities of using a simple 2D coordinate machine vision system for the measurements and quick assessment of the edge wear of cutting tool blades and technical blades. The edge wear of cutting tool blades intended for processing metal materials and technical blades used for wood processing were investigated. During the tests, the measurement results obtained with a 2D machine vision system were compared with the results obtained with the contact method.
The article is a part of research related to developing a line which automatically identifies defects of workpieces together with technology of their elimination with the aid of stream abrasive treatment at automated stations in industrial conditions. The article presents an overview of visual defect detection methods, including systems based on vision sensors, laser systems, including structured light systems, photogrammetry, and thermal imaging systems. The described methods have been supplemented with examples of tests and experiments involving selected devices.
PL
Artykuł stanowi część prac związanych z opracowaniem linii do automatycznej identyfikacji wad na elementach obrabianych z opracowaniem technologii ich usuwania strumieniową obróbką ścierną na stanowiskach zrobotyzowanych w warunkach przemysłowych. W artykule dokonano przeglądu metod wizyjnej detekcji wad obejmujące układy budowane w oparciu o czujniki wizyjne, systemy laserowe, w tym systemy światła strukturalnego. Opisane metody detekcji wizyjnej uzupełniono przykładami testów i doświadczeń z wykorzystaniem wybranych urządzeń.
The article presents a comparison of micro cameras for video data acquisition. The tested cameras can be used in conjunction with embedded systems, in particular in the system for detecting mechanical damage of airport lamps. The work verified the compatibility of operation with microcomputers: Raspberry Pi 4B, Google Coral, NVIDIA Jetson Nano and NVIDIA Jetson Xavier AGX and cameras: Raspberry Pi Camera HD v2, Waveshare 16579, IMX477 and Logitech C922. Tests were performed under laboratory conditions based on an ISO 12233 standard test chart.
PL
W artykule przedstawiono porównanie mikrokamer do akwizycji danych wizyjnych. Testowane kamery mogą zostać użyte w połączeniu z systemami wbudowanymi, w szczególności w systemie do wykrywania uszkodzeń mechanicznych lamp lotniskowych. W pracy sprawdzono kompatybilność działania z mikrokomputerami: Raspberry Pi 4B, Google Coral, NVIDIA Jetson Nano i NVIDIA Jetson Xavier AGX oraz kamery: Raspberry Pi Camera HD v2, Waveshare 16579, IMX477 i Logitech C922. Testy przeprowadzono w warunkach laboratoryjnych, w oparciu o standardową tablicę testową ISO 12233.
W artykule przedstawiono wyniki badań eksperymentalnych procesu segmentacji sekwencji wizyjnych z wykorzystaniem systemów wbudowanych. Przetestowano wydajność rozwiązań opartych o mikrokomputer Raspberry Pi 4B oraz platformę Nvidia Jetson Nano pod kątem możliwości ich implementacji w platformie pomiarowej do automatycznego badania jakości działania lamp lotniskowych. Porównano szybkość przetwarzania dla różnych rozdzielczości obrazu oraz wymagania związane z zasilaniem modułów.
EN
The article presents the results of experimental research on the video segmentation process using two different embedded systems. The performance of solutions based on the Raspberry Pi 4B microcomputer and the Nvidia Jetson Nano platform was tested for the possibility of their implementation in a measurement platform for automatic testing of the quality of airport lamps. The processing speed for different image resolutions and the module power requirements were compared.
W artykule zaprezentowano modułowy system wizyjny jako element prototypu autonomicznego opryskiwacza sadowniczego. Ma on na celu inspekcję drzew i liści oraz wyznaczenie sygnału sterującego dyszami opryskiwacza, które w odpowiednich strefach wysokościowych dokonują selektywnego oprysku drzew. Pozwala to na zmniejszenie użycia środków ochrony roślin, a w efekcie ich szkodliwości. Zdalnie sterowana, a docelowo autonomiczna praca zespołu opryskiwacza, ma na celu minimalizację uciążliwości pracy operatora i uniknięcie sytuacji zagrażających bezpieczeństwu pracy.
EN
The paper presents a modular vision system as an element of a prototype of an autonomous orchard sprayer. Its purpose is to inspect trees and leaves and to determine the signal that controls the sprayer nozzles and performs selective spraying of trees in appropriate height zones. This allows a reduction in the use of plant protection products. The remotely controlled and finally autonomous operation of the sprayer unit is aimed at minimizing the harmfulness of the operator's work and avoiding situations that threaten the work safety.
The article is a part of research related to developing a line which automatically identifies defects of workpieces together with technology of their elimination with the aid of stream abrasive treatment at automated stations in industrial conditions. The work evaluated photogrammetric method for fast defect detection. The research included prepared sets of photos and generated 3D model images of the reference object and selected research results were presented.
PL
Artykuł stanowi część prac związanych z opracowaniem linii do automatycznej identyfikacji wad na elementach obrabianych z opracowaniem technologii ich usuwania strumieniową obróbką ścierną na stanowiskach zrobotyzowanych w warunkach przemysłowych. W artykule dokonano oceny metody fotogrametrycznej w szybkiej identyfikacji wad. W badaniach wykorzystano przygotowane zbiory zdjęć oraz wygenerowanych obrazów z modelu 3D obiektu referencyjnego i przedstawiono wybrane efekty badań.
W niniejszym artykule zaproponowano system do automatycznego rozpoznawania parametrów kół pojazdu wykorzystujący sztuczne sieci neuronowe. Przeprowadzono trening, walidację i testy na przygotowanej bazie obrazów pod kątem rozpoznawania oznaczeń opon samochdów osobowych. Oprócz oznaczeń, wykrywane są także uszkodzenia kół, poziom ciśnienia powietrza i stan bieżnika opon. Do wygodnej obsługi systemu przygotowano aplikację mobilną.
EN
This article proposes a system for the automatic recognition of vehicle wheel parameters, which uses artificial neural networks. Training, validation and tests were conducted on the prepared image database for the recognition of passenger car tire markings. Our system also detects damage to the wheels as well as the level of air pressure and the condition of the tire tread. A mobile application has been prepared for the convenient operation of the system.
W artykule przestawiono system monitoringu ruchu drogowego. W opisano podstawowe pojęcia dotyczące inteligentnych systemów transportowych oraz podano przykłady systemów wizyjnych obecnie wykorzystywanych na drogach. W ramach badań poddano analizie ruch drogowy na wybranym odcinku drogi jednojezdniowej dwukierunkowej za pomocą zbudowanego systemu wizyjnego wykorzystującego kamerę ESP32-CAM. System posiada funkcję wykrywania zliczania oraz pomiaru prędkości poruszających się pojazdów. Program przetwarzający i analizujący transmitowany przez kamerę obraz został napisany w języku Python z wykorzystaniem otwartej biblioteki OpenCV.
EN
The following paper is about using computer vision systems to support traffic. The paper describes intelligent transport systems, gives real life examples of computer vision systems that support traffic. In the paper the local street’s traffic is analyzed using a created computer vision system based on the ESP32-CAM camera module. The system is capable of detecting moving objects, counting the number of vehicles driving the street and estimating their speeds. The program used for processing and analysing the camera’s transmitted video have been written in Python programming language using an OpenCV open library.
W artykule zaprezentowano system przetwarzania obrazu oparty na platformie Raspberry Pi (RPi). Na początku artykułu omówiono podstawowe założenia oraz cel wykonania systemu. W dalszej części przedstawiono strukturę i sposób działania systemu. Zaprezentowano aplikację okienkową zarządzającą systemem oraz pozwalającą na wykonanie przekształceń kontekstowych oraz widmowych na obrazach, jak również pomiar parametrów, takich jak: czas przetwarzania obrazu oraz błąd średniokwadratowy (ang. Mean Square Error – MSE). Wykonywane przekształcenia oparto zarówno na gotowych formułach zawartych w bibliotece OpenCV, jak również własnych implementacjach, a wśród nich na funkcji realizującej algorytm szybkiej transformacji Fouriera FFT (ang. Fast Fourier Transform) radix-2. Zaprezentowano przykłady przekształceń wraz ze wskazaniem ich użyteczności. Na końcu przedstawiono potencjał rozwojowy utworzonego systemu oraz zaproponowano zastosowanie w konkretnych rozwiązaniach.
EN
The article presents an image processing system based on the Raspberry Pi (RPi) platform. At the beginning of the article, the basic assumptions and purpose of the system are discussed. The following section presents the structure and operation of the system. The window application managing the system and allowing to perform contextual and spectral transformations on images as well as the measurement of parameters such as image processing time and mean square error (MSE) was discussed. The transformations performed were based both on ready formulas contained in the OpenCV library and the author’s implementations, including the function implementing the Fast Fourier Transform algorithm radix-2. Examples of transformations were presented along with their usefulness. In the end, the development potential of the created system is presented and its application in specific solutions is proposed.
19
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The possibilities of the vision system for the assessment of the shape of semi-finished products for the production of copper seals for fuel installations in the automatic production process were analyzed. The used vision system was presented and an algorithm was developed to assess the roundness of manufactured semi-finished products. The paper presents the results of an experiment conducted on a designed and constructed test stand. The experiment aimed at demonstrating the suitability of the method for analysis of roundness deviation of parts.
PL
Przeanalizowano możliwości systemu wizyjnego służącego do oceny kształtu półwyrobów do produkcji miedzianych uszczelnień instalacji paliwowych w automatycznym procesie wytwarzania. Zaprezentowano stosowany system wizyjny oraz opracowano algorytm do oceny okrągłości wytwarzanych półfabrykatów. Przedstawiono wyniki eksperymentu prowadzonego na zaprojektowanym i wykonanym stanowisku badawczym. Eksperyment miał na celu wykazanie przydatności metody do analizy odchyłki okrągłości detali.
The main goal of the work was to create a project to implement an object recognition system into a modular didactic gear production system. The project shows how, thanks to the modular structure of the gear system, it is possible to easily add new elements to it, at the same time increasing its capabilities. At the beginning, the characteristics of the system were presented before the implementation, including a description of the production process that takes place in this system and all modules of the system were exchanged. Then the vision system for object recognition and all its components were described. The technical-organizational project of the implementation presented the concept of the deployment of the system modules and the principle of system operation after the implementation. A 3D model of all system components was also presented.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.