Omnidirectional cameras are widely used almost everywhere especially in robotics and security. These kinds of cameras providecircular images that can be difficult to be interpreted by humans. Hence it must be transformed to be understandable by humans or to be treated with usual systems.This transformation is called unwrapping. The unwrapping may be time consuming and can decrease the performance of the real-time systems. Besides, the unwrapping can affect the quality of obtained images. To overcome these problems, we present an efficient parallel omnidirectional image unwrapping approach based on image partitioning. Experimental results indicate that our unwrapping approach has fast processing and gives better qualityof unwrapped panoramic images.
PL
Kamery dookólne są szeroko stosowane niemal wszędzie, zwłaszcza w robotyce i bezpieczeństwie. Tego rodzaju kamery dostarczająokrągłe obrazy, które mogą być trudne do zinterpretowania przez ludzi. W związku z tym muszą one zostać przekształcone, aby były zrozumiałe dla ludzi lub mogły być przetwarzane przez zwykłe systemy. Transformacja ta nazywana jest rozpakowywaniem. Rozpakowywanie może być czasochłonne imoże obniżyć wydajność systemów czasu rzeczywistego. Ponadto, rozpakowywanie może wpływać na jakość uzyskanych obrazów. Aby przezwyciężyć te problemy, przedstawiamy wydajne równoległe podejście do rozpakowywania obrazów dookólnych oparte na dzieleniu obrazów. Wyniki eksperymentów wskazują,że nasze podejście do rozpakowywania zapewnia szybkie przetwarzanie i lepszą jakość rozpakowanych obrazów panoramicznych.
Employing vision-based hand gesture recognition for the interaction and communication of disabled individuals is highly beneficial. The hands and gestures of this category of people have a distinctive aspect, requiring the adaptation of a deep learning vision-based system with a dedicated dataset for each individual. To achieve this objective, the paper presents a novel approach for training gesture classification using few-shot samples. More specifically, the gesture classifiers are fine-tuned segments of a pre-trained deep network. The global framework consists of two modules. The first one is a base feature learner and a hand detector trained with normal people hand’s images; this module results in a hand detector ad hoc model. The second module is a learner sub-classifier; it is the leverage of the convolution layers of the hand detector feature extractor. It builds a shallow CNN trained with few-shot samples for gesture classification. The proposed approach enables the reuse of segments of a pre-trained feature extractor to build a new sub-classification model. The results obtained by varying the size of the training dataset have demonstrated the efficiency of our method compared to the ones of the literature.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.