Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 95

Liczba wyników na stronie
first rewind previous Strona / 5 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  systemy wizyjne
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 5 next fast forward last
PL
Większa produktywność i wyższa jakość - jak systemy wizyjne oparte na sztucznej inteligencji mogą pomóc firmom łatwo zautomatyzować procesy produkcyjne. Najnowsze osiągnięcia w zakresie analizy obrazu opartej na AI sprawiły, że systemy wizyjne stały się dostępne dla wszystkich firm, również tych bez zaplecza technicznego czy wiedzy programistycznej.
PL
W niniejszym referacie przedstawiono metodę wyznaczania kierunku przylotu sygnału ultradźwiękowego. Omówiony został problem niejednoznacznych rozwiązań w przypadku, gdy odbiorniki są oddalone od siebie bardziej niż o pół długości fali emitowanego sygnału. Przedstawiono sposób rozwiązania tego problemu. Opisano również wpływ geometrii rozmieszczenia odbiorników na błąd wyznaczanie współrzędnych wektora kierunku przylotu sygnału. Przedstawiono ponadto wyniki symulacji, które pozwoliły ocenić odporność układu pomiarowego na błędy pomiaru czasu przelotu i oszacować ich górną akceptowalną wartość.
EN
This paper presents a method of determining the direction of ultrasonic signal arrival. The problem of ambiguous solutions in the case when the receivers are more distant from each other than by half the wavelength of the emitted signal is discussed. The method od solving this problem is presented. The influence of the geometry of the arrangement of receivers on the error in determining the coordinates of the signal arrival direction vector was also described. The simulation results are also presented. They allowed to assess the resistance of the measuring system to errors in time of flight measurement and to estimate their upper acceptable limit.
EN
Safety is one of the most critical factors in robotics, especially when robots have to collaborate with people in a shared environment. Testing the physical systems, however, must focus on much more than just software. One of the common steps in robotic system development is the utilization of simulators, which are very good for tasks like navigation or manipulation. Testing vision systems is more challenging, as the simulated data often is far from the real camera readings. In this paper, we show the advantages of using the spherical camera for recording the sequences of test images and a way to integrate those with existing robotic simulator. The presented system also has the possibility to be extended with rendered objects to further improve its usability.
PL
Niniejszy referat prezentuje koncepcję multimodalnej percepcji otoczenia opartą na trzech typach sensorów tj. sonarze ultradźwiękowym, uproszczonej kamerze 3D oraz uproszczonej kamerze termowizyjnej. Podstawowym celem takiego wyboru jest otrzymanie układu sensorycznego, który redukuje ilość informacji podlegającej przetworzeniu. Jednocześnie układ ma dostarczyć lokalnie precyzyjnych danych o otoczeniu. Takie podejście umożliwi realizację nawigacji robota mobilnego, zadania SLAM oraz interakcji z ludźmi. Pod kątem przedstawionych założeń dokonano przeglądu wspominanych typów sensorów oraz metod przetwarzania danych. Całość zamknięto podsumowaniem, w którym wskazano konkretne sensory, które mogą stanowić podstawę proponowanego multimodalnego systemu sensorycznego.
EN
This paper presents the concept of multimodal perception of the environment based on three types of sensors, i.e. ultrasonic sonar, simplified 3D camera and simplified thermal imaging camera. The primary purpose of such a choice is to obtain a sensory system that reduces the amount of necessary information to be processed. However, at the same time, it is to ensure the receipt of locally precise data about the environment. This approach is to enable the implementation of mobile robot navigation, SLAM tasks and interactions with people. With this in mind, the above-mentioned types of sensors and data processing methods were reviewed in this respect. The paper is closed with a summary, which indicates specific sensors that can from the basis of the proposed multimodal sensory system.
PL
W ostatnich latach powstały nowoczesne modele uczenia maszynowego oparte o sieci neuronowe, pozwalające na określenie punktów charakterystycznych oraz pozy ręki. Konkursy takie jak HANDS 2019 pozwoliły określić najlepsze z nich (SOTA), jednak brakuje jednolitego środowiska pozwalającego na porównanie ich do siebie, np. w celu określenia zachowania tych modeli w szczególnych warunkach i dostosowanie sieci do własnych potrzeb. W pracy przedstawiamy krótki przegląd istniejących podejść i zbiorów danych oraz opisujemy działania mające na celu stworzenie standaryzowanego środowiska do uruchamiania modeli regresji punktów charakterystycznych ręki. Opisujemy potencjalne zastosowanie – porównanie modeli do zastosowania ich przy modelowaniu ręki sparaliżowanej w celu opracowania personalizowanego robota miękkiego.
EN
The paper presents a short review of modern models for hand key-point detection based on depth data. We designed a unified containerized system for their comparison and ease of use. We tested the setup and re-evaluated the models’ behaviour on the NYU hand pose dataset. The future goal of the work is to use a model with the best results for hand modelling for a personalized design of rehabilitation devices.
EN
We detect and classify two-person interactions in multiple frames of a video, based on skeleton data. The solution follows the idea of a ”mixture of experts”, but when experts are distributed over a time sequence of video frames. Every expert is trained independently to classify a particular time-indexed snapshot of a visual action, while the overall classification result is a weighted combination of all the expert’s results. The training videos need not any extra labeling effort, as the particular frames are automatically adjusted with relative time indices. In general, the initial skeleton data is extracted from video frames by OpenPose [2] or by other dedicated method. An algorithm for merging-elimination and normalization of image joints is also developed, that improves the quality of skeleton data. During training of the classifiers hyper-parameter optimization technics are employed. The solution is trained and tested on the interaction subset of the well-known NTU-RGB-D dataset [14], [13] - only 2D data are used. Two baseline classifiers, implementing the pose classification experts, are compared - a kernel SVM and neural MLP. Our results show comparable performance with some of the best reported STM- and CNN-based classifiers for this dataset [20]. We conclude that by reducing the noise of skeleton data and using a time-distributed mixture of simple experts, a highly successful lightweight-approach to visual interaction recognition can be achieved.
PL
Rozpoznawanie postur jest potrzebne do analizy czynności wykonywanych przez człowieka, syntezy ruchu robotów humanoidalnych oraz w badaniach nad robotami współpracującymi. Popularne w ostatnich latach tanie, bezprzewodowe czujniki wizyjne RGB-D umożliwiające łatwa˛ rejestracje˛ ruchu człowieka, ułatwiają˛ realizacje˛ tego zadania badawczego. Powszechnie stosowane są, tu konwencjonalne klasyfikatory, które na podstawie zarejestrowanych trajektorii ruchu stawów rozpoznają˛ postury człowieka. Nie sprawdzają, się, one jednak w pełni podczas obserwacji ruchu w płaszczyźnie strzałkowej, gdy pozycje niektórych stawów są, przesłonięte. Celem niniejszej pracy jest opracowanie nowej metody klasyfikacji postur. Opracowana metoda umożliwia rozpoznawanie aktywności z wykorzystaniem konkurencyjnej sieci neuronowej (CNN). Badania zrealizowano w dwu etapach. Pierwszy etap obejmował wstępne przetwarzanie danych, obejmujący filtrowanie i transformacje˛ danych. Drugim etapem było dobranie odpowiedniej sieci klasyfikującej. Zastosowano sieć konkurencyjną z uczeniem nienadzorowanym. Jakość klasyfikacji była testowana w zależności od różnych metryk odległości. Po wyborze satysfakcjonującej metryki dokonano jakościowej i ilościowej oceny uzyskanych wyników. Porównano wyniki klasyfikacji uzyskane przy użyciu rożnych typów sieci neuronowych. W zakończeniu pracy sformułowano szereg wniosków.
EN
Popular in recent years, cheap, wireless RGB-D vision sensors enable easy registration of human movement to facilitate the implementation of this research task. Here, the conventional classifiers are commonly used, which recognize human postures based on the recorded trajectories of joint movement. However, it does not perform well when observing movement in the sagittal plane because the positions of some joints are invisible here. The aim of the work is to develop a method for postures classification leading to the classification of human activities using data recorded by the RGB-D cameras. The method enables the recognition of activity with the use of a competitive neural network (CNN). The research was carried out in two stages. First, data preprocessing was performed, including raw data filtering and transformation to locate the origin of the reference frame in the point in the torso and scaling to obtain a consistent representation of the data. The classification quality was then tested using different variants of the proposed unsupervised variants of competitive neural networks. Various measures of distance have been used here. The results were presented graphically using scatter plots and stick diagrams.
PL
W niniejszym artykule badany jest problem programowania robota przy użyciu języka naturalnego. W Zaproponowanym systemie wykorzystano moduły rozpoznawania głosu, neuronowej detekcji obiektów na scenie, wskaźnika oraz estymacji gestów operatora do implementacji nowego interfejsu człowiek-robot, który pozwala na definiowanie zadanego ruchu robota. Stworzony interfejs integruje wymienione moduły oraz umożliwia programowanie i interakcję z robotem bez konieczności stosowania specjalnie zaprojektowanych interfejsów sprzętowych oraz znajomości wiedzy specjalistycznej. W artykule dokonano analizy efektywności programowania robotów za pomocą zaproponowanych interfejsów oraz porównano do standardowych metod programowania robotów.
EN
In this paper, we propose a system for natural and intuitive interaction with the robot arm. The goal is to program the motion of the robot without the use of specialistic knowledge and training about robots programming. We utilize data from the RGB-D camera to segment the scene and detect objects. We also define the configuration of the operator’s hand and the position of the visual marker to estimate the intentions of the operator and define the actions of the robot. To this end, we utilize trained neural networks and operations on the input point clouds. We also use voice commands to define or trigger the execution of the motion. Finally, we performed a set of experiments to show the properties of the proposed system.
EN
Effective methods of preventing falls significantly improve the quality of life of the Elderly. Nowadays, people focus mainly on the proper provision of the apartment with handrails and fall detection systems once they have occurred. The article presents a system of active detection and classification of the risk of falls in the home space using a service robot equipped with a vision sensor. The fusion of image-based and depth-based processing paths allows for the effective object detection. Hazard classification allows for executing the tasks assigned to the robot while maintaining a high level of user safety.
10
Content available remote Usprawnianie procesów w czasie pandemii dzięki nowym technologiom
PL
Pandemia COVID-19 może nie wykoleiła ludzkości, ale z pewnością mocno zmodyfikowała naszą codzienność, tak że w kontekście zawodowym. Już dziś wiadomo, że wprowadzone obostrzenia i konieczność zmiany starych nawyków dla wielu firm skończyły się tragicznie. Te jednak, które zareagowały szybko i mądrze, wysunęły się naprowadzenie. Mocno pomogły w tym nowe techno logie oraz innowacyjne wykorzystanie tych już dobrze nam znanych.
PL
Coraz częściej w procesach produkcyjnych wykorzystuje się rozwiązania, w których roboty współpracują z systemami wizyjnymi. Wiąże się to z realizacją zadań typu ,"pick and place" lub korekcją ścieżki narzędzia w trakcie procesu obróbki. Systemy wizyjne wymieniają informacje z kontrolerami robotów, co umożliwia wykrycie określonego obiektu, uzyskanie informacji o jego lokalizacji i orientacji. W ramach artykułu zdecydowano się zaprojektować oraz zbudować zrobotyzowane stanowisko w środowisku RobotStudio przeznaczone do gratowania felg samochodowych. Przedstawiono proces projektowania algorytmu w środowisku MATLAB pozwalającego określić położenie i orientację obrabianego detalu. Komunikacja obu środowisk MATLAB oraz RobotStudio odbywa się przez protokół TCP/IP. Zaprezentowano także weryfikację działania oraz symulację zbudowanego stanowiska.
EN
More and more often, production processes use solutions in which robots cooperate with vision systems. This is related to the implementation of “pick and place” tasks or tool path correction during the machining process. Vision systems exchange information with robot controllers, which enables the detection of a specific object, obtaining information about its location and orientation. As part of the article, it was decided to design and build a robotic station in the RobotStudio environment for deburring car rims. The process of designing the algorithm in the MATLAB environment that allows to determine the position and orientation of the processed detail was presented. Both MATLAB and RobotStudio environments communicate via the TCP/IP protocol. The verification of operation and simulation of the constructed station were presented.
12
Content available remote Rola systemów wizyjnych i zaawansowana kontrola jakości w robotyzacji
PL
Połączenie systemów wizyjnych z robotami przemysłowymi jest znane i stosowane od lat 70. ubiegłego wieku. Zakres stosowania tego typu rozwiązań był jednak ograniczony zarówno ze względów technologicznych, jak i finansowych. Wraz z pojawieniem się i intensywną promocją idei Przemysł 4.0 integracja systemów wizyjnych z robotami przemysłowymi i stanowiskami zrobotyzowanymi w wielu obszarach produkcji staje się standardem przynoszącym wymierne korzyści finansowe.
13
Content available remote Komputerowe systemy wizyjne w zastosowaniach przemysłowych
PL
Zmierzamy do Przemysłu 4.0, w którym ludzi w różnych zadaniach zastępować będą systemy automatyki i autonomiczne roboty. Do komunikacji tych urządzeń pomiędzy sobą służyć będzie intensywnie się rozwijający Internet Rzeczy. Natomiast do zbierania informacji z otoczenia, a w szczególności od prowadzonego procesu technologicznego służyć muszą odpowiednie sensory. Zbudowano ich mnóstwo i wciąż powstają nowe, oparte na rejestracji różnych sygnałów i korzystające z różnych metod ich przetwarzania oraz analizy. Jednak najbardziej wygodne, a jednocześnie najszybciej się rozwijające są komputerowe systemy wizyjne, zastępujące w systemach automatyki i robotyki wzrok człowieka.
EN
The fire control system operator’s monitor unit displays the video feed from online video cameras and fire control system-generated on-screen data overlays. The design specified in this paper and developed by the authors is a hardware implementation of GUI on-screen data overlays from various data sources to minimise the fire control system’s CPU load. The monitor unit can acquire video feeds from two cameras, with one daylight (full colour) VIS camera and one IR (monochromatic) camera and the video output generated by the fire control system computer, and overlay or mix the two video sources on-screen. Each of the video camera feeds can be processed in real time with gamma and dynamic brightness range correction. The daylight VIS camera feed processing supports video pixel change detection to substitute for a motion detection system. The fire control system monitor can also analyse the video feeds and overlay the hazy areas of the VIS camera feed output with the corresponding areas of IR camera feed output. The fire control system monitor supports IR camera feed PIP (picture-in-picture) display overlaid on the VIS camera display, mixing of both camera feeds, and panoramic view output from both video feeds. On-screen text and a moving targeting crosshair can also be displayed. The fire control system monitor communicates with its master control system via a serial bus. The monitor can also work autonomously (not connected to a master control system); commands and status output functions are implemented with a bezel control keyboard with individually backlit keys. The functionalities were developed with relatively simple hardware and software solutions.
PL
Monitor operatora systemu kierowania ogniem wyświetla obraz pochodzący z aktualnie używanych kamer oraz nałożone na ten obraz informacje generowane przez system. Opisana w artykule konstrukcja, opracowana przez autorów niniejszego tekstu, realizuje sprzętowo funkcję nakładania informacji z różnych źródeł, minimalizując obciążenie jednostki centralnej systemu. Monitor umożliwia akwizycję sygnału z dwóch kamer, w założeniu dziennej oraz termalnej (obraz monochromatyczny), akwizycję obrazu generowanego przez komputer systemu kierowania ogniem oraz nakładanie lub mieszanie tych obrazów. Ponadto dla każdej z kamer realizowana jest korekta gamma i korekta zakresu jasności obrazu. Dla obrazu z kamery dziennej wykonywana jest procedura detekcji zmian obrazu, mogąca stanowić namiastkę wykrywania ruchu, oraz analiza umożliwiająca zastąpienie obrazem z kamery termalnej w obszarach uznanych za zamglone (fuzja). Możliwe jest także wyświetlanie obrazu z kamery termalnej w wybranym obszarze monitora („obraz w obrazie”) na tle obrazu z kamery dziennej, ew. mieszanie tych obrazów oraz tworzenie panoramy z obrazów z obu kamer. Dodatkowo realizowane jest wyświetlanie informacji tekstowych oraz ruchomego znaku celowniczego. Sterowanie pracą monitora przez system nadrzędny odbywa się za pośrednictwem magistrali szeregowej. Możliwa jest także praca autonomiczna, dzięki klawiaturze wokółekranowej wyposażonej w indywidualnie podświetlane przyciski, zapewniającej zarówno sterowanie, jak i sygnalizację stanu. Powyższe efekty uzyskano przy użyciu stosunkowo prostych rozwiązań sprzętowych i programowych.
PL
W artykule opisano działanie systemu korekcyjnego dla wielkoformatowych projekcji oraz środowisko w jakim system pracuje. Przedstawiono jak zbudowane jest środowisko testowe oraz w jaki sposób środowisko to jest symulowane, aby wykonywać testy programu bez dostępu do sprzętu. Omówiono zniekształcenia, z którymi system się spotyka oraz pokazuje w jaki sposób wykonywana jest ich korekta.
EN
The article describes the operation of the correction system for large-format projections and the environment in which the system works. It shows how the test environment is built and how the environment is simulated to perform program tests without access to hardware. Discussed are the distortions with which the system meets and shows how the correction is performed.
PL
W artykule dokonano przeglądu rozwiązań systemów wizyjnych na stanowiskach zrobotyzowanych. Zaprezentowano urządzenia wchodzące w skład takiego systemu. Dokonano klasyfikacji systemów wizyjnych ze względu na rodzaj rejestrowanego obrazu oraz ze względu na rozmieszczenie kamery lub kamer na stanowisku roboczym. Omówiono możliwości systemów wizyjnych w zależności od konfiguracji sprzętowej. Przedstawiono przebieg procesu wizyjnego rozpoczynając od akwizycji obrazu. Omówiono stosowane metody przetwarzania i analizy obrazu pochodzącego z kamer systemu wizyjnego. Pokazano także przykładowe aplikacje zrealizowane z wykorzystaniem systemów wizyjnych.
EN
The article presents an issue related to the use of vision systems at robotic stands. Devices included in such a system have been presented. The classification of vision systems was made due to the type of image being recorded and due to the location of the camera or cameras at the workstation. The capabilities of vision systems are discussed depending on the hardware configuration. The course of the video process was presented starting from image acquisition. The methods of image processing and analysis originating from video camera cameras are discussed. Also shown are examples of applications implemented using vision systems.
PL
Logistyka 1/2018 63 Logistyka w Go spodarce 4.0 Przetwarzanie obrazu jest jedną z kluczowych technologii w automatyzacji i cyfryzacji. Na targach LogiMAT 2018 w Stuttgarcie (od 13 do 15 marca br.) pokazane zostaną m.in. technologie, systemy i produkty dedykowane dla zastosowań w logistyce i intralogistyce z niemieckiej firmy FRAMOS GmbH, w tym nowa generacja systemów kognitywnych wykorzystujących technologię RealSense firmy Intel®, prezentującą różne zastosowania logistyczne.
PL
W artykule omówiona została strategia pomiaru dla inspekcji online powierzchniowych defektów w odlewach aluminiowych po obróbce skrawaniem. Autorzy przedstawiają rozwiązanie w postaci stanowiska wizyjnego do inspekcji powierzchniowej odlewów aluminiowych z wykorzystaniem w pełni automatycznego układu do rejestracji, detekcji i analizy wykrywanych defektów. Tego typu rozwiązanie pozwala na zwiększenie wydajności i jakości uzyskiwanych wyrobów zwłaszcza w przemyśle motoryzacyjnym, jak również prowadzi do zautomatyzowania kontroli nad przebiegiem technologii odlewania. Jest to jeden z podstawowych problemów prowadzonych badań w odniesieniu do ograniczeń i trudności w wykonaniu takich wyrobów, jak: bloki skrzyń biegów czy korpusy silników, w sposób znaczący wypływając na koszt ich wyrobu. Zaproponowane rozwiązanie wizyjne jest odpowiedzią na oczekiwania technologów w zakresie systemów kontroli jakości będących łatwymi w użyciu, tanimi i wszechstronnymi rozwiązaniem dla przemysłu. Połączenie części softwarowej oraz aparatury pomiarowej w zaproponowanym rozwiązaniu wizyjnym umożliwia analizę pozyskiwanych obrazów w ułamku sekundy. Jest to rozwiązanie które jest alternatywą dla rozwiązań wizualnych, czy innych metod, kosztownych i pracujących w trybie offline. Zaproponowana inteligentna technika pomiarowa wspierająca produkcję przemysłową opiera się na zaawansowanym, automatycznym układzie pomiarowym ze zintegrowanym oświetleniem i oprogramowaniem pozwalającym na wykrywanie i klasyfikowanie defektów odlewniczych.
EN
The objective of the paper is to demonstrate a measurement strategy for online inspection of surface defects in products, especially discontinuities which appear in castings after machining. The essence of the proposed online vision inspection system is to provide an automated method for obtaining and analyzing images of the inspected surfaces, to allow an unmistakable and consistent finding of defects and specifying their types. The proposed solution could improve productivity and quality in the manufacturing process especially for the automotive industry and significantly improve automatysation in die casting technology. This is one of the most fundamental problems of a research studies in process design for automotive parts such as: handles of transmission systems, cylinder pistons and cylinder front faces in engine bodies, that has significant influence for the manufacturing cost. Proposed by the author an online vision inspection systems are responded to users demands for systems that are easier to use, low-cost, and flexible. Using a combination of a vision hardware and software, the proposed vision system could analyze the images, usually in a fraction of a second. Since the human visual inspection is slow and expensive, a smart technology is an alternative solution for the online inspection. The developed smart technology uses advance vision system with specially designed lighting, an advanced image processing algorithm for defect detection and their classification.
EN
This paper presents a concept of a vision system which can simplify the way in which some basic functions of CNC machines can be controlled. The proposed system enables the operator to control a machine tool using gestures. The developed solution is based on Microsoft Kinect for a Windows v2 sensor with a time-offlight camera. A gesture recognition module was implemented in the VC 760 milling machine with an open control system (O.C.E.A.N.). To conduct tests of the proposed interface, a set of gestures used to control a CNC machine was developed. Furthermore, the concept, the structure of the system and the test results are discussed. In summary, the advantages and potential problems of the proposed control system and plans for future development are discussed.
PL
W artykule przedstawiona została koncepcja systemu wizyjnego umożliwiającego kontrolowanie i programowanie obrabiarki CNC za pomocą gestów. Opracowane rozwiązanie ułatwia obsługę obrabiarki CNC poprzez rozpoznawanie gestów wykonywanych przez operatora. Do realizacji sytemu wykorzystany został kontroler ruchu Microsoft Kinect for Windows v2. System rozpoznawania gestów zastosowano w otwartym systemie sterowania obrabiarki VC 760 (O.C.E.A.N.). W ramach badań opracowane zostały zestawy gestów pozwalających na sterowanie obrabiarką CNC. W artykule omówiono koncepcję i budowę systemu oraz wyniki przeprowadzonych testów. W podsumowaniu wskazano zalety oraz potencjalne problemy związane ze strukturą i zastosowaniem systemu, a także zarysowano plany jego dalszego rozwoju.
EN
Vision systems are commonly used in robotics. The most often, they are applied as sensory systems, but they can also be used for experimental determination of a manipulator end-effector’s pose. In this paper, application of an exemplary low-cost vision system for position measurement was tested. The considered vision system was composed of a pair of CMOS cameras. The applied experiment procedure consisted in recording of a set of pictures captured after consequent approaches of a robot end-effector (grasping a cube with markers on it) to the command pose repeatedly from the same direction. Processing of the pictures led to determination of position of the markers. Analysis of position measurement precision contained: determination of spatial distribution of consequently captured positions, assessment of quality of the captured pictures according to a set of 4 indicators, and comparison of measurement techniques employing the considered vision system and a professional measurement system (for this purpose the experiment was repeated with use of a laser tracker and a local estimate of the unidirectional positioning repeatability RP was determined). The reported investigation indicated that low-cost stereovision systems might be successfully applied for a robotic manipulator position measurement with accuracy of approximately 0.1 mm, which is often satisfactory in the engineering practice. Surprisingly, analysis of the achieved experimental results led to reasonable estimation of the RP value (approx. 0.02 mm according to the robot’s manufacturer).
PL
Systemy wizyjne są powszechnie stosowane w robotyce. Najczęściej pełnią rolę układów sensorycznych, chociaż mogą być też użyte do pomiaru pozycji chwytaka/narzędzia robota. W artykule przestawiono przykład zastosowania niskokosztowego systemu wizyjnego do pomiaru położenia chwytaka. Wykorzystany system wizyjny składał się z pary aparatów z matrycą CMOS. Przeprowadzony eksperyment polegał na rejestracji serii statycznych obrazów po dojściu chwytaka robota (przenoszącego sześcian wzorcowy z zestawem markerów) do pozycji zadanej, powtarzalnie z tego samego kierunku. Analiza precyzji wyznaczania pozycji sześcianu wzorcowego obejmowała: wyznaczenie rozkładu przestrzennego kolejnych pozycji sześcianu, oceny jakości zarejestrowanych obrazów za pomocą 4 kryteriów oraz porównania techniki pomiarowej wykorzystującej rozważany układ wizyjny i profesjonalny system pomiarowy (w tym celu powtórzono pomiar z wykorzystaniem trakera laserowego i lokalnie wyestymowano jednokierunkową powtarzalność pozycjonowania – RP). Analiza wyników przeprowadzonych badań pokazała, że niskokosztowy system stereowizyjny może być pomyślnie zastosowany do pomiaru położenia chwytaka robota z dokładnością około 0,1 mm. Taka dokładność jest często wystarczająca w warunkach przemysłowych. Dodatkowo, wyniki pomiaru pozwoliły dobrze oszacować powtarzalność pozycjonowania robota RP, która dla typu wykorzystanego robota wynosi 0,02 m.
first rewind previous Strona / 5 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.