Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 53

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  rozpoznawanie obrazu
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
EN
Sorting coal and gangue is important in raw coal production; accurately identifying coal and gangue is a prerequisite for effectively separating coal and gangue. The method of extracting coal and gangue using image grayscale information can effectively identify coal and gangue, but the recognition rate of the sorting process based on image grayscale information needs to substantially higher than that which is needed to meet production requirements. A sorting method of coal and gangue using object surface grayscale-gloss characteristics is proposed to improve the recognition rate of coal and gangue. Using different comparative experiments, bituminous coal from the Huainan area was used as the experimental object. It was found that the number of pixel points corresponding to the highest level grey value of the grayscale moment and illumination component of the coal and gangue images were combined into a total discriminant value and used as input for the best classification of coal and gangue using the GWO-SVM classification model. The recognition rate could reach up to 98.14%. This method sorts coal and gangue by combining surface greyness and glossiness features, optimizes the traditional greyness-based recognition method, improves the recognition rate, makes the model generalizable, enriches the research on coal and gangue recognition, and has theoretical and practical significance in enterprise production operations.
PL
Sortowanie węgla i skały płonnej jest ważne w produkcji węgla surowego; dokładna identyfikacja węgla i skały płonnej jest warunkiem wstępnym skutecznego oddzielenia tych surowców. Metoda rozdzielenia węgla i skały płonnej przy użyciu informacji w skali szarości obrazu może skutecznie identyfikować węgiel i skałę płonną, ale stopień rozpoznawania procesu sortowania w oparciu o te informacje być znacznie wyższy niż wymagany do spełnienia wymagań produkcyjnych. W artykule zaproponowano metodę sortowania węgla i skały płonnej wykorzystującą charakterystykę połysku i skali szarości powierzchni obiektu w celu poprawy szybkości rozpoznawania węgla i skały płonnej. W badaniach wykorzystano próbki węgla kamiennego z obszaru Huainan. Stwierdzono, że liczbę punktów pikseli odpowiadającą najwyższemu poziomowi szarości momentu w skali szarości i składowej oświetlenia obrazów węgla i skały płonnej połączono w całkowitą wartość dyskryminującą i wykorzystano jako dane wejściowe dla najlepszej klasyfikacji węgla i skały płonnej przy użyciu modelu klasyfikacji GWO-SVM. Wskaźnik rozpoznawalności może osiągnąć nawet 98,14%. Ta metoda sortowania węgla i skały płonnej poprzez połączenie cech szarości i połysku powierzchni, optymalizuje tradycyjną metodę rozpoznawania w oparciu o szarość, poprawia współczynnik rozpoznawania, umożliwia uogólnienie modelu, wzbogaca badania nad rozpoznawaniem węgla i skały płonnej, ma znaczenie teoretyczne i praktyczne w operacjach produkcyjnych przedsiębiorstwa.
PL
W artykule zaprezentowano innowacyjny projekt pn. „Opracowanie autonomicznego systemu do zbierania i analizy danych wraz z aplikacją WEB do zarządzania i monitorowania zadań realizowanych w wielostanowiskowej stacji naprawczej samochodów”. Głównym elementem badań w ramach projektu było opracowanie modelu rozpoznawania obrazu, który stał się podstawą opracowania oprogramowania do rozpoznawania numerów rejestracyjnych pojazdów w ramach laboratoryjnego zestawu warsztatowego. Podczas badań wykazano znaczny potencjał rozwiązania, które otrzymano na podstawie prawidłowo zaplanowanych i wykonanych prac badawczych, walidacji wyników oraz realizacji wszystkich głównych i pobocznych celów badawczych.
EN
The paper presents an innovative project entitled “Development of an autonomous sys-tem for data collection and analysis together with a WEB application for managing and monitoring tasks performed in a multi-station car repair station”. The main element of research within the project was to develop a model of image recognition, which became the basis for the development of software for recognition of vehicle registration numbers within a laboratory workshop set. During the research the significant potential of the solution was demonstrated, which was obtained on the basis of properly planned and executed research work, validation of the results and implementation of all main and side research objectives.
PL
Rekonstrukcja i rozpoznawanie obrazów jest typowym problemem występującym w wielu systemach przetwarzania obrazów. Zagadnienie to można sformułować jako rozwiązanie problemu odwrotnego. W artykule zaprezentowano autorski model systemu uczenia maszynowego, który może być wykorzystany do rekonstrukcji i rozpoznawania obrazów na podstawie ich liniowych projekcji.
EN
Image reconstruction and recognition is a common problem found in many image processing systems. This problem can be formulated as a solution to the inverse problem. The article presents the author's model of a machine learning system that can be used for the reconstruction and recognition of images based on their linear projections.
EN
The grain and milling industry deals with the grinding of grain into flour and groats. These processes take place in mills. During the technological process of producing flour and groats, contamination may occur, which reduces the quality of end products. Before the product is introduced into the consumption cycle, the flours and groats are subjected to laboratory analysis, including in terms of product purity. This analysis is based on the organoleptic determination of the amount of contamination in flour and grain products using the sense of sight. The article presents innovative techniques for assessing the quality of the pollution level using image analysis and artificial neural networks (ANNs). Wheat flour was used for laboratory tests.
PL
Przemysł zbożowo-młynarski zajmuje się przemiałem zboża na mąkę i kasze. Procesy te odbywają się w młynach. W czasie procesu technologicznego produkcji mąki oraz kasz, może dojść do zanieczyszczeń, co powoduje obniżenie jakości produktów końcowych. Przed wprowadzeniem produktu do obiegu konsumpcyjnego, mąki i kasze poddawane są analizie laboratoryjnej, między innymi pod względem czystości produktu. Analiza ta polega na organoleptycznym określeniu za pomocą zmysłu wzroku ilości zanieczyszczeń w mące i przetworach zbożowych. W artykule przedstawiono innowacyjne techniki oceny jakości poziomu zanieczyszczeń wykorzystujące analizę obrazu oraz sztuczne sieci neuronowe (SSN). Do badań laboratoryjnych wykorzystano mąkę pszenną.
EN
The paper describes the possibility of using, building, and implementing an image recognition system in a company performing remanufacturing processes. It is based on a thesis prepared with the help of Wabco Reman Solutions. The tests were conducted using one of the parts remanufactured by the company – a manifold. The research focuses on different variants of the obtained image recognition models in order to identify differences that may affect their effectiveness and possible application in real work conditions. The environment used to build the models is Jupyter Notebook, and convolutional neural networks were implemented.
PL
W artykule opisano możliwości wykorzystania, budowy i wdrożenia systemu rozpoznawania obrazu w firmie realizującej proces regeneracji. Artykuł powstał na podstawie pracy magisterskiej przygotowanej przy pomocy Wabco Reman Solutions. Przeprowadzone testy zostały wykonane na jednej z regenerowanych części w firmie - kolektorze. W badaniach skupiono się na różnych wariantach powstałych modeli rozpoznawania obrazów w celu dostrzeżenia różnic, które mogą wpłynąć na ich skuteczność i możliwość zastosowania w rzeczywistych warunkach pracy. Do budowy modeli, w których zaimplementowano konwolucyjne sieci neuronowe, wykorzystano środowisko Jupyter Notebook.
PL
W niniejszym artykule przedstawiono koncepcję i implementację modelu do rozpoznawania ras psów na podstawie zdjęcia. Do realizacji zadania wykorzystano model głębokiej sieci neuronowej bazujący na strukturze InceptionV3. Sieć została wytrenowana i przetestowana na zbiorze przypadków uczących liczącym ponad 20 tys. zdjęć 120 ras psów z zastosowaniem transferu wiedzy. Zbadano również wpływ jakości zdjęć na wyniki klasyfikacji. Sieć uzyskała bardzo dobre rezultaty zarówno w przypadku analizy typowych, jak i nietypowych zdjęć.
EN
This article presents the concept and implementation of a model for recognizing dog breeds based on an input image. The task was performed with the use of a deep neural network model based on the InceptionV3 structure. The neural network has been trained and tested on a dataset counting more than 20,000 images of 120 dog breeds using transfer learning technique. The impact of image quality on classification results was also examined. The model obtained very good results in the analysis of both typical and unusual input images.
7
EN
The identity of a language being spoken has been tackled over the years via statistical models on audio samples. A drawback of these approaches is the unavailability of phonetically transcribed data for all languages. This work proposes an approach based on image classification that utilized image representations of audio samples. Our model used Neural Networks and deep learning algorithms to analyse and classify three languages. The input to our network is a Spectrogram that was processed through the networks to extract local visual and temporal features for language prediction. From the model, we achieved 95.56 % accuracy on the test samples from the 3 languages.
8
Content available remote Design of a R-ID in order to determine the position of the vehicle
EN
In this article, we design a road identifier (R-ID). The R-ID must be easily and quickly recognizable by a camera mounted on the vehicle. The camera captures this R-ID and then calculates the position information from it. The article describes the decision-making procedure for the design of an R-ID using camera recognition of geometric shapes. Parameters such as the uniqueness of the R-ID also play a role in this recognition, so that it is not interchangeable with other traffic signs. Another parameter is the percentage needed for the R-ID to be correctly recognized by the camera to obtain the necessary data from the overlay image. The outcome of this article is therefore a road identifier (a pattern) placed on the road which will be captured by the camera mounted on the vehicle.
9
Content available remote A Social Robot-based Platform towards Automated Diet Tracking
EN
Diet tracking via self-reports or manual taking of meal photos might be difficult, time-consuming, and discouraging, especially for children, which limits the potential of long-term dietary assessment. We present the design and development of a proof of concept of an automated and unobtrusive system for diet tracking integrating: a) a social robot programmed to automatically capture photos of food and motivate children, b) a deep learning model based on Google Inception V3, applied for the use case of image-based fruit recognition, c) a RESTful microservice architecture deployed to deliver the model outcomes to a platform aiming at childhood obesity prevention. We illustrate the feasibility and virtue of this approach, towards the development of the next-generation computer-assisted systems for automated diet tracking.
EN
Augmented reality (AR) is a modern technology which integrates 3D virtual objects into the real environment in real time. It can be used for many purposes, which should improve different processes in daily life. The paper will analyze the areas in which this technology is currently used. First, the history of the development of augmented reality will be recalled. Then, this technology will be compared to virtual reality because these terms are often incorrectly used interchangeably. This paper describes the tools and popular platform solutions related to augmented reality. The most common problems related to the use of this technology will be discussed, including popular approaches concerning optical and video combining methods. The existing applications and their potential in solving everyday problems will be analyzed. Finally, the perspectives for the development of augmented reality and its possibilities in the future will be discussed. This paper provides a starting point for using and learning about augmented reality for everyone.
EN
This article describes the architecture of the Hamming-Lippmann neural network and the math of the modified learning-recognition algorithm and presents some practical aspects for using it for solving an image recognition task. We have created software using C# programming language, that utilized this network as an additional error-correcting procedure, and have solved the task of recognition highly corrupted QR codes (with a connection to the database). Experimental results, of finding the optimal parameters for this algorithm, are presented. This neural network doesn’t require time-consuming computational procedures and large amounts of memory, even for high-resolution and big size images.
PL
W tym artykule opisano architekturę sieci neuronowej Hamminga-Lippmanna oraz matematykę zmodyfikowanego algorytmu rozpoznawania uczenia się, a także przedstawiono kilka praktycznych aspektów korzystania z niej w celu rozwiązania zadania rozpoznawania obrazu. Stworzyliśmy oprogramowanie wykorzystujące język programowania C #, który wykorzystał tę sieć jako dodatkową procedurę korekty błędów i rozwiązaliśmy zadanie rozpoznawania wysoce uszkodzonych kodów QR (w połączeniu z bazą danych). Przedstawiono wyniki eksperymentalne poszukiwania optymalnych parametrów dla tego algorytmu. Opisywana neuronowa nie wymaga czasochłonnych procedur obliczeniowych i dużej ilości pamięci, nawet w przypadku obrazów o wysokiej rozdzielczości i dużych rozmiarach.
PL
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania, ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także rezultaty testów tych algorytmów.
EN
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers.
PL
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania, ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także rezultaty testów tych algorytmów.
EN
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers.
14
Content available remote Three-dimensional reconstruction of hand using stereoscopic images
EN
This article is devoted to works on using natural user interfaces (NUI) in computer support systems of aircraft service. The concept of such interfaces involves the usage in human-machine communication the same measures as in the communication between people, that is sound or gesture. In the case of gesture communication, it is indispensable to adopt methods related to computer vision algorithms. One of them is a three-dimensional reconstruction of objects based on processing techniques of a pair of two-dimensional images. The above method and the results of its application were presented to obtain a three-dimensional cloud of points describing the hand shape. The obtained software will constitute an element of gesture classifier based on the analysis of the spatial location of the acquired points of the cloud.
PL
Artykuł dotyczy prac nad wykorzystaniem naturalnych interfejsów użytkownika w komputerowych systemach wspomagania obsługi statków powietrznych. Koncepcja tego typu interfejsów zakłada wykorzystanie w komunikacji człowiek-komputer takich samych środków jak w komunikacji między ludźmi, a więc głosu lub gestu. W przypadku komunikacji za pomocą gestów konieczne jest zastosowanie metod związanych z algorytmami komputerowego widzenia. Jedną z nich jest trójwymiarowa rekonstrukcja obiektów oparta na technikach przetwarzania pary dwuwymiarowych obrazów. Przedstawiono tę metodę oraz wyniki jej zastosowania w celu uzyskania trójwymiarowej chmury punktów opisujących kształt dłoni. Uzyskane oprogramowanie będzie stanowić element klasyfikatora gestów opartego na analizie lokalizacji przestrzennej otrzymanych punktów chmury.
PL
Celem artykułu jest porównanie dwóch metod rozpoznawania gatunków grzybów. W artykule zostały opisane dwie metody oparte na jednych z najpopularniejszych rozwiązań w dziedzinie image recognition, czyli Tensorflow oraz OpenCV. Do przeprowadzenia badań stworzono aplikację mobilną, w której obie metody zostały zaimplementowane oraz przetestowane. Dodatkowo aplikację wyposażono w mechanizmy ułatwiające zbieranie danych o aplikacji oraz algorytmach. Rezultaty badań wykazały, iż metoda oparta o Tensorflow o 9% skuteczniej rozpoznaje gatunki grzybów.
EN
The aim of the article is to compare two methods for identifying mushroom species. In article, two methods based on one of the most popular solutions in the field of image recognition, Tenosorflow and OpenCV, have been described. A research application was created to carry out the research, in which both algorithms were implemented and tested. In addition, the application was equipped with mechanisms facilitating the collection of application data and algorithms. The results of the research have show that the method based on Tensorflow by 9% more effectively recognizes mushroom species.
EN
Although the unimodal biometric recognition (such as face and palmprint) has higher convenience, its security is also relatively weak. The recognition accuracy is easy affected by many factors such as ambient light and recognition distance etc. To address this issue, we present a weighted multimodal biometric recognition algorithm with face and palmprint based on histogram of contourlet oriented gradient (HCOG) feature description. We employ the nonsubsampled contour transform (NSCT) to decompose the face and palmprint images, and the HOG method is adopted to extract the feature, which is named as HCOG feature. Then the dimension reduction process is applied on the HCOG feature and a novel weight value computation method is proposed to accomplish the multimodal biometric fusion recognition. Extensive experiments illustrate that our proposed weighted fusion recognition can achieve excellent recognition accuracy rates and outmatches the unimodal biometric recognition methods.
EN
Human Activity Recognition (HAR) is an important area of research in ambient intelligence for various contexts such as ambient-assisted living. The existing HAR approaches are mostly based either on vision, mobile or wearable sensors. In this paper, we propose a hybrid approach for HAR by combining three types of sensing technologies, namely: smartphone accelerometer, RGB cameras and ambient sensors. Acceleration and video streams are analyzed using multiclass Support Vector Machine (SVM) and Convolutional Neural Networks, respectively. Such an analysis is improved with the ambient sensing data to assign semantics to human activities using description logic rules. For integration, we design and implement a Framework to address human activity recognition pipeline from the data collection phase until activity recognition and visualization. The various use cases and performance evaluations of the proposed approach show clearly its utility and efficiency in several everyday scenarios.
EN
Due to the advances made in recent years, methods based on deep neural networks have been able to achieve a state-of-the-art performance in various computer vision problems. In some tasks, such as image recognition, neural-based approaches have even been able to surpass human performance. However, the benchmarks on which neural networks achieve these impressive results usually consist of fairly high quality data. On the other hand, in practical applications we are often faced with images of low quality, affected by factors such as low resolution, presence of noise or a small dynamic range. It is unclear how resilient deep neural networks are to the presence of such factors. In this paper we experimentally evaluate the impact of low resolution on the classification accuracy of several notable neural architectures of recent years. Furthermore, we examine the possibility of improving neural networks’ performance in the task of low resolution image recognition by applying super-resolution prior to classification. The results of our experiments indicate that contemporary neural architectures remain significantly affected by low image resolution. By applying super-resolution prior to classification we were able to alleviate this issue to a large extent as long as the resolution of the images did not decrease too severely. However, in the case of very low resolution images the classification accuracy remained considerably affected.
EN
The article concerns the issue of applying computer-aided systems of the maintenance of technical objects in difficult conditions. Difficult conditions shall be understood as these in which the maintenance takes place in a specific location making it hard or even preventing from using a computer. In these cases computers integrated with workwear should be used, the so-called wearable computers, with which the communication is possible by using hand gestures. The results of the analysis of the usefulness of one of methods of image recognition based on Viola-Jones algorithm were described. This algorithm enables to obtain the model of recognised image which might be used as a pattern in the application programme detecting a certain image.
PL
Artykuł dotyczy problematyki wykorzystania komputerowych systemów wspomagania obsługi obiektów technicznych w warunkach trudnych. Pod pojęciem warunków trudnych należy rozumieć takie warunki, w których obsługa odbywa się w specyficznej lokalizacji, utrudniającej lub wręcz uniemożliwiającej wykorzystanie komputera. W takich przypadkach należy stosować komputery zintegrowane z odzieżą roboczą operatora, tzw. komputery do noszenia (wearable computers), z którymi komunikacja odbywa się za pomocą gestów dłoni. Przedstawiono wyniki analizy przydatności jednej z metod detekcji obrazu opartej na algorytmie Violi-Jonesa. Algorytm ten pozwala na uzyskanie modelu rozpoznawanego obrazu, który może być wykorzystany następnie jako wzorzec w aplikacji wykrywającej dany obraz.
EN
In this paper, non-invasive method of recognition of finger skin was proposed. A plan of study of images of finger skin was proposed. Researches were carried out for three kinds of images: 60 h after injury, 160 h after injury, 450 h after injury. Proposed technique of recognition used methods of signal processing: extraction of magenta color, calculation of histogram, image filtration, calculation of perimeter, and K-NN classifier. A pattern creation process was conducted using 15 training images of finger skin. In the identification process 60 test images were used. The advantage of the presented method is analysis of the finger skin using a smartphone. The proposed approach will help to diagnose pathologies of human skin.
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.