Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 153

Liczba wyników na stronie
first rewind previous Strona / 8 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  vision system
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 8 next fast forward last
EN
This article discusses a method of imaging fungal infections on the surface of wood using a dedicated vision system. Fungal infections develop on the surface of wood during transport and storage. In the production process, qualitative sorting of wood is carried out based on the presence of infections on surfaces. Some infections are clearly visible, e.g. in the form of black blemishes. However, many infections are poorly visible or invisible to operators sorting the material. The vision system discussed here enables the imaging of defects occurring on wood that are invisible to the human eye. Examples of wood surface infections are presented. The developed concept of surface imaging using spectral illumination and a two-camera system is discussed. For the proposed system, the image sensors of the cameras and spectral characteristics of the illuminators are presented. Then, the configuration of the vision system is indicated, and the imaging resolutions for the selected example are determined. Examples of infection images recorded with the use of UV and RGB illuminators are presented. Image analysis was performed using the intensity characteristics method for sample chosen images. The possibility of identifying infected areas using the intensity characteristics of the UV image and the RGB image was evaluated. The imaging results for selected ranges of electromagnetic radiation and selected infections recorded on the surface of wood are discussed. The possibility of observing and identifying infected areas invisible to the human eye was confirmed.
PL
W artykule przedstawiono system wizyjny do analizy położenia sieci trakcyjnej względem odbieraka prądu. Jest on przeznaczony do montażu na dachu pojazdu kolejowego. Wyposażono go w kamerę i minikomputer Raspberry Pi 3B+, który analizuje zarejestrowany obraz oraz wykorzystuje moduł GPS do rejestracji miejsc, w których wykryto nieprawidłowe ustawienie sieci trakcyjnej. Wyniki przeprowadzonych badań, także z wykorzystaniem pojazdu szynowego, wskazują na możliwość szerokiego zastosowania proponowanego systemu.
EN
The article presents a vision system for analyzing the position of the catenary in relation to the current collector. This system is designed to be mounted on the roof of a railway vehicle. The system is equipped with a camera and a Raspberry Pi 3B+ minicomputer that analyzes the recorded image and uses a GPS module to record the locations where incorrect alignment of the overhead contact line was detected. The results of the tests carried out, also using a railway vehicle, indicate the possibility of widespread use of the proposed system.
EN
The article is a description of the feature extraction method, used in the classification of defects in workpieces undergoing a process. The publication is a part of the work related to the development of a line for automatic identification of defects on workpieces. It describes a method of extracting features, in which voxelization results were used to obtain the parameters of characteristic defects. The results are illustrated with examples.
PL
Artykuł stanowi opis propozycji zastosowania skanera wykorzystującego światło strukturalne w celu identyfikacji wad detali poddawanych obróbce. Artykuł stanowi część prac związanych z opracowaniem linii do automatycznej identyfikacji wad na elementach obrabianych. W artykule dokonano uzasadnienia wyboru metody skanowania oraz wyniki pomiarów przy użyciu skanerów światła strukturalnego określające możliwości wykorzystania ich w wizyjnej detekcji wad.
EN
The article is a description of the feature extraction method, used in the classification of defects in workpieces undergoing a process. The publication is a part of the work related to the development of a line for automatic identification of defects on workpieces. It describes a method of extracting features, in which voxelization results were used to obtain the parameters of characteristic defects. The results are illustrated with examples.
PL
Artykuł stanowi opis metody ekstrakcji cech wykorzystanej w klasyfikacji wad detali poddawanych obróbce. Praca stanowi część prac związanych z opracowaniem linii do automatycznej identyfikacji wad na elementach obrabianych. W artykule dokonano opisu metody wyodrębniania cech, w której zastosowano wyniki wokselizacji do otrzymania parametrów charakterystycznych wad. Wyniki zilustrowano przykładami.
PL
W niniejszym artykule zaprezentowano system do automatycznego rozpoznawania elementów polskich pojazdów historycznych. Sys tem dokonuje analizy obrazów za pomocą sztucznych sieci neuronowych. Do przeprowadzenia testów skuteczności klasyfikacji wybranych zbiorów klas obiektów przygotowano bazę obrazów, z uwzględnieniem pochodzenia, modułu, modelu, nadwozia, silnika i wnętrza. Dla sieci wytrenowanych na pojedynczych modułach pojazdów w dwóch przypadkach osiągnięto stuprocentową dokładność klasyfikacji.
EN
This article presents a system for automatic recognition of elements of Polish historical vehicles. The system uses artificial neural net works for image analysis. A database of images was prepared to carry out the classification tests of selected sets of object classes, taking into ac count the origin, module, model, engine, body, and interior. For networks trained on single vehicle module, even 100% classification accuracy was achieved in two cases.
6
Content available The Use of UAV in PAPI System Inspections
EN
This article discusses the purpose of aeronautical approach lights for landing and describes the operation of the most popular visual system. In addition, an exemplary schedule describing the periodic verification that the PAPI system must undergo has been presented. The hitherto method of carrying out the verification of indications was discussed, as well as the proposed innovative method of carrying out the verification using an UAV (unmanned aerial vehicle), where its general solution concept was described. Moreover, the structure and operation of the program responsible for the autonomous light detection of the PAPI system and verification of their indications were discussed. A simulation was carried out using the available recordings, and then the results were described.
PL
W niniejszym artykule zaproponowano system do automatycznego rozpoznawania zwierząt na obrazach z nagrań wideorejestratorów samochodowych wykorzystujący sztuczne sieci neuronowe. Na przygotowanej bazie obrazów przeprowadzono trening, walidację i testy pod kątem rozpoznawania m.in. krów, dzików, saren oraz innych, także mniejszych, zwierząt spotykanych na polskich drogach. Osiągnięto satysfakcjonujące wyniki rozpoznawania nawet na obrazach o niskiej jakości. Do obsługi systemu przygotowano aplikację użytkownika umożliwiającą przeprowadzenie testów rozpoznawania na pojedynczych zdjęciach i plikach wideo.
EN
This article proposes a system for automatic recognition of animals based on images from car video recorders using artificial neural net works. Training, validation and tests were conducted on the prepared image database in terms of recognizing, among others: cows, wild boars, roe deer and other, also smaller, animals encountered on Polish roads. Satisfactory recognition results were achieved even on low-quality image frames. A user application has been prepared to operate the system, enabling recognition tests to be conducted on photos and video files.
8
PL
W niniejszym artykule zaprezentowano system do automatycznego rozpoznawania pojazdów uprzywilejowanych występujących na terenie Polski, działający na podstawie analizy obrazów i wykorzystujący sztuczne sieci neuronowe. Przygotowano bazę obrazów do przeprowadze nia skuteczności klasyfikacji wybranych rodzajów pojazdów uprzywilejowanych, z uwzględnieniem ich gabarytów i możliwości wykrywania sygnałów świetlnych. Dla najlepszej konfiguracji przebadanych sieci neuronowych i rozdzielczości obrazów osiągnięto ponad 99% dokładność klasyfikacji.
EN
This article presents a system for automatic recognition of emergency vehicles in Poland, using artificial neural networks and image anal ysis. A database of images was prepared to carry out the classification tests of selected types of emergency vehicles, taking into account their di mensions and the ability to detect light signals. For the best configuration of the tested neural networks and image resolution, over 99% classification accuracy was achieved.
9
Content available Wybrane zagadnienia robotyzacji w przemyśle FMCG
PL
Przedstawiono przykład robotyzacji w przemyśle FMCG. W szczególności scharakteryzowano wybrane czynniki determinujące automatyzację w branży FMCG. Dokonano oceny zastosowania w linii pakującej produkty kosmetyczne sortera butelek, wykorzystującego robota z systemem wizyjnym. Wskazano korzyści oraz problemy jakie wynikły po wdrożeniu.
EN
In this paper robotization in the FMCG industry were presented. In particular, selected factors determining automation in the FMCG industry were characterized. The implementation of a bottle sorter, using a robot with a vision system, for a line for packaging cosmetic products was assessed. The benefits and problems arising after the implementation were indicated.
EN
The quality of the powder layers in the 3D printing process is extremely important and directly corresponds to the quality of the structures made with this technology. Therefore, it is essential to control it. It can be made in-line with a vision system combined with image processing algorithms, which can significantly improve control of the process and help with the adjustment of powder spreading systems, especially in case of difficult-to-feed powders like magnetic ones – e.g., Fe-based metallic glass powder – Fe56.04Co13.45Nb5.5B25. In this work, two algorithms – machine learning – Support Vector Machines (SVM), deep learning – Convolutional Neural Networks (CNN) – were evaluated for their ability to detect and classify the enumerated anomalies based on powder layer images. The SVM algorithm makes it possible to efficiently and quickly analyze the powder-spreading process. CNN, however, appears to be a more promising choice for the developed application, as they alleviate the need for complex image operations.
EN
Introducing variation in the training dataset through data augmentation has been a popular technique to make Convolutional Neural Networks (CNNs) spatially invariant but leads to increased dataset volume and computation cost. Instead of data augmentation, augmentation of feature maps is proposed to introduce variations in the features extracted by a CNN. To achieve this, a rotation transformer layer called Rotation Invariance Transformer (RiT) is developed, which applies rotation transformation to augment CNN features. The RiT layer can be used to augment output features from any convolution layer within a CNN. However, its maximum effectiveness is shown when placed at the output end of final convolution layer. We test RiT in the application of scale-invariance where we attempt to classify scaled images from benchmark datasets. Our results show promising improvements in the networks ability to be scale invariant whilst keeping the model computation cost low.
EN
The paper presents a surface flatness control system designed for installation on a production line. Such a system allows the control of all blanks leaving the production line in terms of measuring flatness made in the conditions prevailing on the production line. The article discusses 3D imaging methods enabling the construction of a surface image. An analysis of imaging parameters for each method is presented. For the selected imaging method, an analysis of the imaging resolution is presented. An example of flatness measurement for a selected element after a welding operation is shown. The flatness measurement algorithm is discussed, and the results of measurements are presented. The results of measurements for selected two product groups are presented.
EN
Human-robot collaboration can be a powerful tool for increasing productivity in production systems by combining the strengths of humans and robots. Assembly operations, in particular, have shown great potential for utilizing the unique abilities of both parties. However, for robots to efficiently perform assembly tasks, components and parts must be presented in a known location and orientation, which is achieved through a process called parts feeding. Traditional automation methods for parts feeding, such as vibratory bowl feeders, are limited in their ability to accommodate variations in parts design, shape, location, and orientation, making them less flexible for use in human-robot collaboration. Recent advancements in machine vision technology have opened up new possibilities for flexible feeding systems in human-robot assembly cells. This paper explores the application of the vision system in the collaborative robot ABB Yumi and its ability in object detection. In this case, the characteristic of the vision system was determined experimentally by changing the light intensity on the test rig. The system was validated, if the angle of incidence of light affects the stability of the vision system. The results of the study demonstrate the efficiency of vision system in collaborative robot and provide insights into its industrial application.
PL
W artykule przedstawiono algorytm systemu wizyjnego oraz przedstawiono przykłady jego działania, przetwarzający obraz komory farbowej w sposób umożliwiający automatyczne rozpoznanie czy jest i w jakim stopniu zabrudzona farbą drukarską. Istotą algorytmu jest jego prostota, umożliwiająca jego aplikacje na wybranych sterownikach PLC. Przykładowe oprogramowanie oparto o system Vision firmy National Instruments. Algorytm stanowi część urządzenia myjącego komory farbowe.
EN
The article presents the algorithm of the vision system and presents examples of its operation, which processes the image of the ink chamber in a way that enables automatic recognition of whether it is dirty with printing ink and to what extent. The essence of the algorithm is its simplicity, which enables its applications on selected PLC devices. The sample software was based on the National Instruments Vision system. The algorithm is part of the ink chamber washing device
15
Content available Visual defect detection methods overview
EN
The article is a part of research related to developing a line which automatically identifies defects of workpieces together with technology of their elimination with the aid of stream abrasive treatment at automated stations in industrial conditions. The article presents an overview of visual defect detection methods, including systems based on vision sensors, laser systems, including structured light systems, photogrammetry, and thermal imaging systems. The described methods have been supplemented with examples of tests and experiments involving selected devices.
PL
Artykuł stanowi część prac związanych z opracowaniem linii do automatycznej identyfikacji wad na elementach obrabianych z opracowaniem technologii ich usuwania strumieniową obróbką ścierną na stanowiskach zrobotyzowanych w warunkach przemysłowych. W artykule dokonano przeglądu metod wizyjnej detekcji wad obejmujące układy budowane w oparciu o czujniki wizyjne, systemy laserowe, w tym systemy światła strukturalnego. Opisane metody detekcji wizyjnej uzupełniono przykładami testów i doświadczeń z wykorzystaniem wybranych urządzeń.
16
Content available Parameters evaluation of cameras in embedded systems
EN
The article presents a comparison of micro cameras for video data acquisition. The tested cameras can be used in conjunction with embedded systems, in particular in the system for detecting mechanical damage of airport lamps. The work verified the compatibility of operation with microcomputers: Raspberry Pi 4B, Google Coral, NVIDIA Jetson Nano and NVIDIA Jetson Xavier AGX and cameras: Raspberry Pi Camera HD v2, Waveshare 16579, IMX477 and Logitech C922. Tests were performed under laboratory conditions based on an ISO 12233 standard test chart.
PL
W artykule przedstawiono porównanie mikrokamer do akwizycji danych wizyjnych. Testowane kamery mogą zostać użyte w połączeniu z systemami wbudowanymi, w szczególności w systemie do wykrywania uszkodzeń mechanicznych lamp lotniskowych. W pracy sprawdzono kompatybilność działania z mikrokomputerami: Raspberry Pi 4B, Google Coral, NVIDIA Jetson Nano i NVIDIA Jetson Xavier AGX oraz kamery: Raspberry Pi Camera HD v2, Waveshare 16579, IMX477 i Logitech C922. Testy przeprowadzono w warunkach laboratoryjnych, w oparciu o standardową tablicę testową ISO 12233.
PL
W artykule przedstawiono wyniki badań eksperymentalnych procesu segmentacji sekwencji wizyjnych z wykorzystaniem systemów wbudowanych. Przetestowano wydajność rozwiązań opartych o mikrokomputer Raspberry Pi 4B oraz platformę Nvidia Jetson Nano pod kątem możliwości ich implementacji w platformie pomiarowej do automatycznego badania jakości działania lamp lotniskowych. Porównano szybkość przetwarzania dla różnych rozdzielczości obrazu oraz wymagania związane z zasilaniem modułów.
EN
The article presents the results of experimental research on the video segmentation process using two different embedded systems. The performance of solutions based on the Raspberry Pi 4B microcomputer and the Nvidia Jetson Nano platform was tested for the possibility of their implementation in a measurement platform for automatic testing of the quality of airport lamps. The processing speed for different image resolutions and the module power requirements were compared.
PL
W artykule zaprezentowano modułowy system wizyjny jako element prototypu autonomicznego opryskiwacza sadowniczego. Ma on na celu inspekcję drzew i liści oraz wyznaczenie sygnału sterującego dyszami opryskiwacza, które w odpowiednich strefach wysokościowych dokonują selektywnego oprysku drzew. Pozwala to na zmniejszenie użycia środków ochrony roślin, a w efekcie ich szkodliwości. Zdalnie sterowana, a docelowo autonomiczna praca zespołu opryskiwacza, ma na celu minimalizację uciążliwości pracy operatora i uniknięcie sytuacji zagrażających bezpieczeństwu pracy.
EN
The paper presents a modular vision system as an element of a prototype of an autonomous orchard sprayer. Its purpose is to inspect trees and leaves and to determine the signal that controls the sprayer nozzles and performs selective spraying of trees in appropriate height zones. This allows a reduction in the use of plant protection products. The remotely controlled and finally autonomous operation of the sprayer unit is aimed at minimizing the harmfulness of the operator's work and avoiding situations that threaten the work safety.
EN
The article is a part of research related to developing a line which automatically identifies defects of workpieces together with technology of their elimination with the aid of stream abrasive treatment at automated stations in industrial conditions. The work evaluated photogrammetric method for fast defect detection. The research included prepared sets of photos and generated 3D model images of the reference object and selected research results were presented.
PL
Artykuł stanowi część prac związanych z opracowaniem linii do automatycznej identyfikacji wad na elementach obrabianych z opracowaniem technologii ich usuwania strumieniową obróbką ścierną na stanowiskach zrobotyzowanych w warunkach przemysłowych. W artykule dokonano oceny metody fotogrametrycznej w szybkiej identyfikacji wad. W badaniach wykorzystano przygotowane zbiory zdjęć oraz wygenerowanych obrazów z modelu 3D obiektu referencyjnego i przedstawiono wybrane efekty badań.
20
Content available Automatyczne rozpoznawanie parametrów kół pojazdu
PL
W niniejszym artykule zaproponowano system do automatycznego rozpoznawania parametrów kół pojazdu wykorzystujący sztuczne sieci neuronowe. Przeprowadzono trening, walidację i testy na przygotowanej bazie obrazów pod kątem rozpoznawania oznaczeń opon samochdów osobowych. Oprócz oznaczeń, wykrywane są także uszkodzenia kół, poziom ciśnienia powietrza i stan bieżnika opon. Do wygodnej obsługi systemu przygotowano aplikację mobilną.
EN
This article proposes a system for the automatic recognition of vehicle wheel parameters, which uses artificial neural networks. Training, validation and tests were conducted on the prepared image database for the recognition of passenger car tire markings. Our system also detects damage to the wheels as well as the level of air pressure and the condition of the tire tread. A mobile application has been prepared for the convenient operation of the system.
first rewind previous Strona / 8 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.