Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl

PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Czasopismo
2024 | T. 103, nr 12 | 1479--1482
Tytuł artykułu

Zastosowanie komunikacji głosowej do generowania elastycznych wzorców obiektów chwytanych przez robota współpracującego

Autorzy
Treść / Zawartość
Warianty tytułu
EN
Application of voice communication for creation of flexible contour templates of the objects grasped by a collaborative robot
Języki publikacji
PL
Abstrakty
PL
W ostatnich latach roboty współpracujące odgrywają coraz istotniejszą rolę, także w przemyśle chemicznym. Ich praca jest często związana z chwytaniem obiektów identyfikowanych za pomocą systemu wizyjnego. Jedna z metod klasyfikacji obiektów na podstawie sygnatur ich zarysów zakłada tworzenie elastycznych wzorców konturów (FECT), umożliwiających automatyczne generowanie danych wejściowych do sieci neuronowej. Jej wadą jest pracochłonność opracowywania FECT przez użytkownika. Przedstawiono metodę efektywnego generowania FECT poprzez wykorzystanie interakcji multimodalnej (mowa, wskazywanie, tekst), uwzględniającej quasi-naturalny charakter fraz wypowiadanych przez użytkownika.
EN
A method for efficiently creating flexible contour templates (FECT) using multimodal interaction (speech, pointing, text) was developed, taking into account the quasi-natural character of the phrases spoken by the user. The use of multimodal commands provides significant time savings in creating a flexible FECT pattern.
Wydawca

Czasopismo
Rocznik
Strony
1479--1482
Opis fizyczny
Bibliogr. 10 poz., rys.
Twórcy
  • Zakład Automatyzacji i obróbki Skrawaniem, Instytut Technik Wytwarzania, Wydział Mechaniczny Technologiczny, Politechnika Warszawska, ul. Narbutta 86, pok. ST405, 02-524 Warszawa , adam.rogowski@pw.edu.pl
Bibliografia
  • [1] R. Matthew, R. McGee, K. Roche, S. Warreth, N. Papakostas, Appl. Sci. 2022, 12, 10895.
  • [2] M. Ulbrich, V. Aggarwal, J. Bus. Chem. 2019, 16, nr 2, 76.
  • [3] B. Burger, P. Maffetone, V. Gusev, C. Aitchison, Y. Bai, X. Wang, X. Li, B. Alston, B. Li, R. Clowes, N. Rankin, B. Harris, R. Sprick, A. Cooper, Nature 2020, 583, 237.
  • [4] M. Hardner, D. Schneider, Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. - ISPRS Arch. 2019, XLII-2/W18, 67.
  • [5] H. Elsalamony, Measurement 2017, 104, 50.
  • [6] A. Barman, P. Dutta, Pattern Recognit. Lett. 2021, 145, 254.
  • [7] A. Rogowski, P. Skrobek, Sensors 2020, 20, 177.
  • [8] S. Xue, X. Kou, S. Tan, Comput. Aided Des. Appl. 2009, 6, 125.
  • [9] A. Rogowski, K. Bieliszczuk, J. Rapcewicz, Sensors 2020, 20, 7287.
  • [10] A. Rogowski, Sensors 2022, 22, 9520.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.baztech-2cd53c1a-fab4-4530-9f06-7c062992c75a
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.