Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 58

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  vision systems
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
PL
Większa produktywność i wyższa jakość - jak systemy wizyjne oparte na sztucznej inteligencji mogą pomóc firmom łatwo zautomatyzować procesy produkcyjne. Najnowsze osiągnięcia w zakresie analizy obrazu opartej na AI sprawiły, że systemy wizyjne stały się dostępne dla wszystkich firm, również tych bez zaplecza technicznego czy wiedzy programistycznej.
PL
W niniejszym referacie przedstawiono metodę wyznaczania kierunku przylotu sygnału ultradźwiękowego. Omówiony został problem niejednoznacznych rozwiązań w przypadku, gdy odbiorniki są oddalone od siebie bardziej niż o pół długości fali emitowanego sygnału. Przedstawiono sposób rozwiązania tego problemu. Opisano również wpływ geometrii rozmieszczenia odbiorników na błąd wyznaczanie współrzędnych wektora kierunku przylotu sygnału. Przedstawiono ponadto wyniki symulacji, które pozwoliły ocenić odporność układu pomiarowego na błędy pomiaru czasu przelotu i oszacować ich górną akceptowalną wartość.
EN
This paper presents a method of determining the direction of ultrasonic signal arrival. The problem of ambiguous solutions in the case when the receivers are more distant from each other than by half the wavelength of the emitted signal is discussed. The method od solving this problem is presented. The influence of the geometry of the arrangement of receivers on the error in determining the coordinates of the signal arrival direction vector was also described. The simulation results are also presented. They allowed to assess the resistance of the measuring system to errors in time of flight measurement and to estimate their upper acceptable limit.
EN
Safety is one of the most critical factors in robotics, especially when robots have to collaborate with people in a shared environment. Testing the physical systems, however, must focus on much more than just software. One of the common steps in robotic system development is the utilization of simulators, which are very good for tasks like navigation or manipulation. Testing vision systems is more challenging, as the simulated data often is far from the real camera readings. In this paper, we show the advantages of using the spherical camera for recording the sequences of test images and a way to integrate those with existing robotic simulator. The presented system also has the possibility to be extended with rendered objects to further improve its usability.
PL
Niniejszy referat prezentuje koncepcję multimodalnej percepcji otoczenia opartą na trzech typach sensorów tj. sonarze ultradźwiękowym, uproszczonej kamerze 3D oraz uproszczonej kamerze termowizyjnej. Podstawowym celem takiego wyboru jest otrzymanie układu sensorycznego, który redukuje ilość informacji podlegającej przetworzeniu. Jednocześnie układ ma dostarczyć lokalnie precyzyjnych danych o otoczeniu. Takie podejście umożliwi realizację nawigacji robota mobilnego, zadania SLAM oraz interakcji z ludźmi. Pod kątem przedstawionych założeń dokonano przeglądu wspominanych typów sensorów oraz metod przetwarzania danych. Całość zamknięto podsumowaniem, w którym wskazano konkretne sensory, które mogą stanowić podstawę proponowanego multimodalnego systemu sensorycznego.
EN
This paper presents the concept of multimodal perception of the environment based on three types of sensors, i.e. ultrasonic sonar, simplified 3D camera and simplified thermal imaging camera. The primary purpose of such a choice is to obtain a sensory system that reduces the amount of necessary information to be processed. However, at the same time, it is to ensure the receipt of locally precise data about the environment. This approach is to enable the implementation of mobile robot navigation, SLAM tasks and interactions with people. With this in mind, the above-mentioned types of sensors and data processing methods were reviewed in this respect. The paper is closed with a summary, which indicates specific sensors that can from the basis of the proposed multimodal sensory system.
PL
W ostatnich latach powstały nowoczesne modele uczenia maszynowego oparte o sieci neuronowe, pozwalające na określenie punktów charakterystycznych oraz pozy ręki. Konkursy takie jak HANDS 2019 pozwoliły określić najlepsze z nich (SOTA), jednak brakuje jednolitego środowiska pozwalającego na porównanie ich do siebie, np. w celu określenia zachowania tych modeli w szczególnych warunkach i dostosowanie sieci do własnych potrzeb. W pracy przedstawiamy krótki przegląd istniejących podejść i zbiorów danych oraz opisujemy działania mające na celu stworzenie standaryzowanego środowiska do uruchamiania modeli regresji punktów charakterystycznych ręki. Opisujemy potencjalne zastosowanie – porównanie modeli do zastosowania ich przy modelowaniu ręki sparaliżowanej w celu opracowania personalizowanego robota miękkiego.
EN
The paper presents a short review of modern models for hand key-point detection based on depth data. We designed a unified containerized system for their comparison and ease of use. We tested the setup and re-evaluated the models’ behaviour on the NYU hand pose dataset. The future goal of the work is to use a model with the best results for hand modelling for a personalized design of rehabilitation devices.
EN
We detect and classify two-person interactions in multiple frames of a video, based on skeleton data. The solution follows the idea of a ”mixture of experts”, but when experts are distributed over a time sequence of video frames. Every expert is trained independently to classify a particular time-indexed snapshot of a visual action, while the overall classification result is a weighted combination of all the expert’s results. The training videos need not any extra labeling effort, as the particular frames are automatically adjusted with relative time indices. In general, the initial skeleton data is extracted from video frames by OpenPose [2] or by other dedicated method. An algorithm for merging-elimination and normalization of image joints is also developed, that improves the quality of skeleton data. During training of the classifiers hyper-parameter optimization technics are employed. The solution is trained and tested on the interaction subset of the well-known NTU-RGB-D dataset [14], [13] - only 2D data are used. Two baseline classifiers, implementing the pose classification experts, are compared - a kernel SVM and neural MLP. Our results show comparable performance with some of the best reported STM- and CNN-based classifiers for this dataset [20]. We conclude that by reducing the noise of skeleton data and using a time-distributed mixture of simple experts, a highly successful lightweight-approach to visual interaction recognition can be achieved.
PL
Rozpoznawanie postur jest potrzebne do analizy czynności wykonywanych przez człowieka, syntezy ruchu robotów humanoidalnych oraz w badaniach nad robotami współpracującymi. Popularne w ostatnich latach tanie, bezprzewodowe czujniki wizyjne RGB-D umożliwiające łatwa˛ rejestracje˛ ruchu człowieka, ułatwiają˛ realizacje˛ tego zadania badawczego. Powszechnie stosowane są, tu konwencjonalne klasyfikatory, które na podstawie zarejestrowanych trajektorii ruchu stawów rozpoznają˛ postury człowieka. Nie sprawdzają, się, one jednak w pełni podczas obserwacji ruchu w płaszczyźnie strzałkowej, gdy pozycje niektórych stawów są, przesłonięte. Celem niniejszej pracy jest opracowanie nowej metody klasyfikacji postur. Opracowana metoda umożliwia rozpoznawanie aktywności z wykorzystaniem konkurencyjnej sieci neuronowej (CNN). Badania zrealizowano w dwu etapach. Pierwszy etap obejmował wstępne przetwarzanie danych, obejmujący filtrowanie i transformacje˛ danych. Drugim etapem było dobranie odpowiedniej sieci klasyfikującej. Zastosowano sieć konkurencyjną z uczeniem nienadzorowanym. Jakość klasyfikacji była testowana w zależności od różnych metryk odległości. Po wyborze satysfakcjonującej metryki dokonano jakościowej i ilościowej oceny uzyskanych wyników. Porównano wyniki klasyfikacji uzyskane przy użyciu rożnych typów sieci neuronowych. W zakończeniu pracy sformułowano szereg wniosków.
EN
Popular in recent years, cheap, wireless RGB-D vision sensors enable easy registration of human movement to facilitate the implementation of this research task. Here, the conventional classifiers are commonly used, which recognize human postures based on the recorded trajectories of joint movement. However, it does not perform well when observing movement in the sagittal plane because the positions of some joints are invisible here. The aim of the work is to develop a method for postures classification leading to the classification of human activities using data recorded by the RGB-D cameras. The method enables the recognition of activity with the use of a competitive neural network (CNN). The research was carried out in two stages. First, data preprocessing was performed, including raw data filtering and transformation to locate the origin of the reference frame in the point in the torso and scaling to obtain a consistent representation of the data. The classification quality was then tested using different variants of the proposed unsupervised variants of competitive neural networks. Various measures of distance have been used here. The results were presented graphically using scatter plots and stick diagrams.
PL
W niniejszym artykule badany jest problem programowania robota przy użyciu języka naturalnego. W Zaproponowanym systemie wykorzystano moduły rozpoznawania głosu, neuronowej detekcji obiektów na scenie, wskaźnika oraz estymacji gestów operatora do implementacji nowego interfejsu człowiek-robot, który pozwala na definiowanie zadanego ruchu robota. Stworzony interfejs integruje wymienione moduły oraz umożliwia programowanie i interakcję z robotem bez konieczności stosowania specjalnie zaprojektowanych interfejsów sprzętowych oraz znajomości wiedzy specjalistycznej. W artykule dokonano analizy efektywności programowania robotów za pomocą zaproponowanych interfejsów oraz porównano do standardowych metod programowania robotów.
EN
In this paper, we propose a system for natural and intuitive interaction with the robot arm. The goal is to program the motion of the robot without the use of specialistic knowledge and training about robots programming. We utilize data from the RGB-D camera to segment the scene and detect objects. We also define the configuration of the operator’s hand and the position of the visual marker to estimate the intentions of the operator and define the actions of the robot. To this end, we utilize trained neural networks and operations on the input point clouds. We also use voice commands to define or trigger the execution of the motion. Finally, we performed a set of experiments to show the properties of the proposed system.
EN
Effective methods of preventing falls significantly improve the quality of life of the Elderly. Nowadays, people focus mainly on the proper provision of the apartment with handrails and fall detection systems once they have occurred. The article presents a system of active detection and classification of the risk of falls in the home space using a service robot equipped with a vision sensor. The fusion of image-based and depth-based processing paths allows for the effective object detection. Hazard classification allows for executing the tasks assigned to the robot while maintaining a high level of user safety.
EN
The aim of the paper is a dynamic analysis of the starting and braking of the table of a numerically controlled CNC machine tool during idle motion. The experimental test was performed on the vertical table of the FV580A machining centre using the Phantom v1610 high-speed vision camera. The dynamics characteristics of the table movement were registered and the dynamics estimates of the movement were determined. The influence estimation of the parameters of the machine tool table motion on the value of the determined estimates was made. The results of measurements were discussed and guidelines and in order to minimise disturbances were formulated. The test results were summarised and discussed in the form of charts and tables. The directions of further research in the discussed subject area were also defined
PL
Coraz częściej w procesach produkcyjnych wykorzystuje się rozwiązania, w których roboty współpracują z systemami wizyjnymi. Wiąże się to z realizacją zadań typu ,"pick and place" lub korekcją ścieżki narzędzia w trakcie procesu obróbki. Systemy wizyjne wymieniają informacje z kontrolerami robotów, co umożliwia wykrycie określonego obiektu, uzyskanie informacji o jego lokalizacji i orientacji. W ramach artykułu zdecydowano się zaprojektować oraz zbudować zrobotyzowane stanowisko w środowisku RobotStudio przeznaczone do gratowania felg samochodowych. Przedstawiono proces projektowania algorytmu w środowisku MATLAB pozwalającego określić położenie i orientację obrabianego detalu. Komunikacja obu środowisk MATLAB oraz RobotStudio odbywa się przez protokół TCP/IP. Zaprezentowano także weryfikację działania oraz symulację zbudowanego stanowiska.
EN
More and more often, production processes use solutions in which robots cooperate with vision systems. This is related to the implementation of “pick and place” tasks or tool path correction during the machining process. Vision systems exchange information with robot controllers, which enables the detection of a specific object, obtaining information about its location and orientation. As part of the article, it was decided to design and build a robotic station in the RobotStudio environment for deburring car rims. The process of designing the algorithm in the MATLAB environment that allows to determine the position and orientation of the processed detail was presented. Both MATLAB and RobotStudio environments communicate via the TCP/IP protocol. The verification of operation and simulation of the constructed station were presented.
EN
The challenge for researchers is to develop measurement techniques that can deal with biological specimens (e.g. the human Achilles tendon) characterized by high deformation during examination. The relevant quantity which has to be investigated in laboratory experiments is the deformation or strain field of the specimen subjected to a given load. In experimental mechanics, the most remarkable technique used for strain field computation is the Digital Image Correlation (DIC) method. In the paper, the DIC method is employed to study biomaterial parameters of human Achilles tendons (AT) subjected to tensile uniaxial loadings. The application of DIC allows the heterogeneity of tendon deformation to be taken into consideration. Young’s modulus of AT based on the strain field obtained from a vision-based measurement is estimated and the results are discussed. A map of Young’s modulus (YM) is demonstrated as well.
EN
The fire control system operator’s monitor unit displays the video feed from online video cameras and fire control system-generated on-screen data overlays. The design specified in this paper and developed by the authors is a hardware implementation of GUI on-screen data overlays from various data sources to minimise the fire control system’s CPU load. The monitor unit can acquire video feeds from two cameras, with one daylight (full colour) VIS camera and one IR (monochromatic) camera and the video output generated by the fire control system computer, and overlay or mix the two video sources on-screen. Each of the video camera feeds can be processed in real time with gamma and dynamic brightness range correction. The daylight VIS camera feed processing supports video pixel change detection to substitute for a motion detection system. The fire control system monitor can also analyse the video feeds and overlay the hazy areas of the VIS camera feed output with the corresponding areas of IR camera feed output. The fire control system monitor supports IR camera feed PIP (picture-in-picture) display overlaid on the VIS camera display, mixing of both camera feeds, and panoramic view output from both video feeds. On-screen text and a moving targeting crosshair can also be displayed. The fire control system monitor communicates with its master control system via a serial bus. The monitor can also work autonomously (not connected to a master control system); commands and status output functions are implemented with a bezel control keyboard with individually backlit keys. The functionalities were developed with relatively simple hardware and software solutions.
PL
Monitor operatora systemu kierowania ogniem wyświetla obraz pochodzący z aktualnie używanych kamer oraz nałożone na ten obraz informacje generowane przez system. Opisana w artykule konstrukcja, opracowana przez autorów niniejszego tekstu, realizuje sprzętowo funkcję nakładania informacji z różnych źródeł, minimalizując obciążenie jednostki centralnej systemu. Monitor umożliwia akwizycję sygnału z dwóch kamer, w założeniu dziennej oraz termalnej (obraz monochromatyczny), akwizycję obrazu generowanego przez komputer systemu kierowania ogniem oraz nakładanie lub mieszanie tych obrazów. Ponadto dla każdej z kamer realizowana jest korekta gamma i korekta zakresu jasności obrazu. Dla obrazu z kamery dziennej wykonywana jest procedura detekcji zmian obrazu, mogąca stanowić namiastkę wykrywania ruchu, oraz analiza umożliwiająca zastąpienie obrazem z kamery termalnej w obszarach uznanych za zamglone (fuzja). Możliwe jest także wyświetlanie obrazu z kamery termalnej w wybranym obszarze monitora („obraz w obrazie”) na tle obrazu z kamery dziennej, ew. mieszanie tych obrazów oraz tworzenie panoramy z obrazów z obu kamer. Dodatkowo realizowane jest wyświetlanie informacji tekstowych oraz ruchomego znaku celowniczego. Sterowanie pracą monitora przez system nadrzędny odbywa się za pośrednictwem magistrali szeregowej. Możliwa jest także praca autonomiczna, dzięki klawiaturze wokółekranowej wyposażonej w indywidualnie podświetlane przyciski, zapewniającej zarówno sterowanie, jak i sygnalizację stanu. Powyższe efekty uzyskano przy użyciu stosunkowo prostych rozwiązań sprzętowych i programowych.
PL
W artykule dokonano przeglądu rozwiązań systemów wizyjnych na stanowiskach zrobotyzowanych. Zaprezentowano urządzenia wchodzące w skład takiego systemu. Dokonano klasyfikacji systemów wizyjnych ze względu na rodzaj rejestrowanego obrazu oraz ze względu na rozmieszczenie kamery lub kamer na stanowisku roboczym. Omówiono możliwości systemów wizyjnych w zależności od konfiguracji sprzętowej. Przedstawiono przebieg procesu wizyjnego rozpoczynając od akwizycji obrazu. Omówiono stosowane metody przetwarzania i analizy obrazu pochodzącego z kamer systemu wizyjnego. Pokazano także przykładowe aplikacje zrealizowane z wykorzystaniem systemów wizyjnych.
EN
The article presents an issue related to the use of vision systems at robotic stands. Devices included in such a system have been presented. The classification of vision systems was made due to the type of image being recorded and due to the location of the camera or cameras at the workstation. The capabilities of vision systems are discussed depending on the hardware configuration. The course of the video process was presented starting from image acquisition. The methods of image processing and analysis originating from video camera cameras are discussed. Also shown are examples of applications implemented using vision systems.
EN
In this paper the 3D SLAM solution for indoor inspection tasks with wheeled mobile robots is introduced. The application is regarded to exploring and map creating in multi-level buildings with usage of differential drive robots. Working environment is represented as three-dimensional occupancy grid map, that constructed by laser rangefinder sensor system and octrees. Robot's base frame displacement and orientation is given from visual odometry and inertial navigation system feedback. The pose estimation process is based on combined particular and Gaussian filtering techniques. The whole SLAM system is implemented in ROS framework in accordance with multi-agent extension requirements, and therefore might be used for a mobile robot group applications.
EN
This article presents three independent concepts of use high-level technique with it adaptation and implementation concerning overhead travelling crane device type. The main objective of this statement applies a solution for device workspace mapping, payload anti-sway control techniques strategy use and possibility of reliable steel construction health monitoring. In the first chapter, the vision system technology for obstacle in workspace visualization was presented. The main idea depends on use stereovision system with sets of camera mounted under the crane’s trolley which movement with the crane shifts. The stereo pictures, after digital processing, were used for develop so-called dense disparity map. The described architecture allows achieving information about device surroundings and obstacle position in the workspace. As the final result was presented three-dimensional map of the device workspace with obtained result accuracy discussion. The second type of described problem developed in chapter two concern the crane control methodology of designing the anti-sway system for payload stabilizing during the crane movement. The oscillation of a payload adversely affects the accuracy of performed transportation tasks and may present a safety hazard to employees, transferred payload and surrounding objects. The invented and described method mainly base on so-called soft computing methods. The next part of the article-focused attention of problem concerning health monitoring cranes construction as other equipment’s as well. The problem concerns usually the large industrial cranes carry out transportation operations in the presence of a large impact load and mechanical stresses acting overall crane’s structure. The safety and efficiency of crane operations can be improved through providing the continuous structural health monitoring as well in on-line and off-line mode. The main idea allows using Metal Magnetic Memory technique for supervising and estimating steel construction actual condition. All tests and considerations were conducted on the scaled physical model of overhead travelling crane with hosting capability 150 kg
PL
Artykuł jest przeglądem możliwości i rozwiązań, jakie oferują systemy wizyjnej kontroli jakości i sterowania. Zaprezentowano w nim przykłady implementacji przemysłowych, jak również rozwiązania potencjalne. Przedstawione przykłady zaczerpnięte są z projektów i wdrożeń, które obecnie funkcjonują w zakładach produkcyjnych w Europie i Polsce. Celem artykułu jest przekonanie czytelnika do wszechstronności i wartości płynącej z rozwiązań wizyjnych.
EN
The article is an overview of the potential and possibilities offered by the machine vision systems for quality inspection and control. The article also presents the examples of industrial implementation and also potential solutions. Examples described in the article are taken from the projects and implementations that are currently working in factories in Europe and Poland. The aim of this article is to convince the reader about the versatility and value that comes from vision solutions.
PL
W artykule przedstawiono metodę wyznaczenia położenia i przemieszczenia na podstawie pomiaru globalnej orientacji członów ramienia pomiarowego z wykorzystaniem czujników pola grawitacyjnego i pola magnetycznego. Zaprezentowano metodę wykorzystania filtra Kalmana do uśredniania wyników, przedstawiono stanowisko badawcze i wyniki pomiarów. Wykazano możliwość utworzenia łańcucha kinematycznego, w którym zamiast wyznaczania położenia końcowego członu na podstawie pomiaru kątów w stosunku do poprzednich członów od końca do podstawy, możliwe jest wyznaczenie ich globalnej orientacji poprzez pomiar kątów członów względem wektorów poła grawitacyjnego i pola magnetycznego, czyli globalnego układu współrzędnych.
EN
The paper presents the method of determining the global orientation of links of the measuring arm by gauging the angles of the members relative to the vector of the gravitational and magnetic field using inertial sensors. A method of using Kalman filter to average the results are presented as a test on two-links measuring arm equipped with accelerometers and magnetometers placed on each of the links and analysis of measurement results in terms of repeatability. The ability to create kinematic chain was demonstrated, in which, instead of determining the position of the final link on the basis of the measurement of angles in relation to the previous links from the end to the base of the arm, it is possible to define links global orientation by measuring angles of links in respect to the vectors of the gravity field and the magnetic field, in global coordinate system.
PL
Detekcja obiektów na obrazach RGB jest ważnym zagadnieniem w kontekście postrzegania otoczenia przez autonomiczne roboty. W niniejszej pracy zaproponowano i przetestowano nowe podejście do tego problemu. Podejście to łączy wykorzystanie hierarchii części jako kompaktowej reprezentacji modelu obiektu oraz probabilistycznych modeli grafowych jako metody wnioskowania o obecności obiektów. Hierarchia składa się części, które zostały podzielone na warstwy. Każda część jest kompozycją kilku części z niższej warstwy, wyuczoną na podstawie przykładowych obrazów. Części są współdzielone pomiędzy kategoriami obiektów, co znacznie komplikuje proces wnioskowania, lecz daje wiele korzyści. Zaproponowany system może w przyszłości służyć do wspomagania nawigacji robotów mobilnych, a także z nimi współpracować. Skuteczność zaprezentowanego rozwiązania przetestowano na ogólnie dostępnym zbiorze ETHZ Shape Classes .
EN
Object detection on RGB images is an important problem in a context of an environment perception by mobile robots. In this work I proposed and tested a novel approach to this problem. The approach combines an usage of a parts hierarchy as a compact object model representation with an utilization of probabilistic graphical models to infer about objects existence. The hierarchy is build from parts that are organised as layers. Every part is a composition of several lower layer parts, learned on a basis of sample images presenting objects. Parts are shared among object categories, which significantly complicates inference process, but brings multiple benefits. The proposed system may aid navigation systems of mobile robots in the future and cooperate with them. An efficiency of the solution was tested on a publicly available ETHZ Shape Classes dataset.
PL
Przeanalizowano wpływ wyboru stopnia powiększenia obiektywu telecentrycznego multisensorowej maszyny współrzędnościowej na dokładność wyznaczania średnicy otworów. Do badań użyto specjalnie wykonanej próbki z otworami o różnych średnicach. Wyniki badań wykazały, że stopień powiększenia układu optycznego wpływa na dokładność wyznaczenia średnicy otworów.
EN
The paper presents an impact analysis of selection magnification level of telocentric lens used in multisensor measuring machine at the accuracy of determining holes diameter. A specially designed and manufactured specimen with different holes was used to research. Research results indicate that magnification level of lens impact at accuracy of hole diameters measurement.
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.