PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi

Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
Safety System for an Industrial Cooperating Robot Based on Depth Cameras
Języki publikacji
PL
Abstrakty
PL
W artykule zarysowano problematykę robotyzacji małych przedsiębiorstw, w szczególności aspekt robotyzacji z uwzględnieniem robotów współpracujących. Szeroko omówiono zagadnienie robotów współpracujących oraz bezpieczeństwa człowieka podczas takiej współpracy. Przedstawiono również najbardziej popularne systemy bezpieczeństwa w odniesieniu do obowiązujących norm. W głównej części artykułu przedstawiono Cooperating Automaton System with Stereovision Invigilating the Environment (CASSIE), system dedykowany do monitorowania bezpieczeństwa robotów kooperacyjnych za pomocą multimodalnych sensorów głębi. Ukazano również efekt działania takiego systemu.
EN
This article outlines the problems of robotization in small production enterprises, in particular the aspect of their robotization with colaborating robots. The issue of cobots, especially the human security aspect in such a cooperation has been presented. The most popular safety systems in relation to applicable standards has been also presented. The main part of the article shows the Cooperating Automaton System with Stereovision Invigilating the Environment (CASSIE), a system dedicated for safety monitoring of cobot environment using multimodal depth sensors. The effect of such a system has also been shown.
Rocznik
Strony
41--46
Opis fizyczny
Bibliogr. 28 poz., rys.
Twórcy
  • Intema Sp z o .o., ul. Siennicka 25a, 80-758 Gdańsk
  • Intema Sp z o .o., ul. Siennicka 25a, 80-758 Gdańsk
  • Politechnika Gdańska, Wydział Elektroniki, Telekomunikacji i Informatyki, ul. Gabriela Narutowicza 11/12, 80-980 Gdańsk
Bibliografia
  • 1. Eurostat (2019): Job vacancies between 2017 and 2019.
  • 2. Dhiraj A.B., Countries with the Most Industrial Robots per 10,000 Employees, ”Ceoworld Magazine”, 14. 03. 2018.
  • 3. Kowalczuk Z., Czubenko M., Przegląd robotów humanoidalnych, ”Pomiary Automatyka Robotyka”, R. 19, Nr 4, 2015, 33-42, DOI: 10.14313/PAR_218/33.
  • 4. Kulik J., Wojtczak Ł., Bezpieczna interakcja człowieka z robotem - realna potrzeba czy chwilowy trend wśród krajowych MSP, ”Pomiary Automatyka Robotyka”, R. 22, Nr 1, 2018, 67-74, DOI: 10.14313/PAR_227/67.
  • 5. Kowalczuk Z., Czubenko M., Computational approaches to modeling artificial emotion–an overview of the proposed solutions, ”Frontiers in Robotics and AI, 21, 2016, DOI: 10.3389/frobt.2016.00021.
  • 6. Colgate JE., Peshkin M.A., Cobots, US Patent 5,952,796, 1999.
  • 7. IFR International Federation of Robotics, Demystifying Collaborative Industrial Robots, 2018.
  • 8. Michalos G., Makris S., Tsarouchi P., Guasch T., Kontovrakis D., Chryssolouris G., Design Considerations for Safe Human-robot Collaborative Workplaces, ”Procedia CIRP”, Vol. 37, 2015, 248-253, DOI: 10.1016/j.procir.2015.08.014.
  • 9. Long P., Chevallereau C., Chablat D., Girin A., An industrial security system for human-robot coexistence, ”Industrial Robot: An International Journal”, Vol. 45, No. 2, 2018, 220-226, DOI: 10.1108/IR-09-2017-0165.
  • 10. Kowalczuk Z., Czubenko M., Intelligent decision-making system for autonomous robots, ”International Journal of Applied Mathematics and Computer Science”, Vol. 21, No. 4, 2011, 671-684, DOI: 10.2478/v10006-011-0053-7.
  • 11. Cobotsguide, Cobot Comparison Chart, 2019.
  • 12. Yen S.-H., Tang P.-C., Lin Y.-C., Lin C.-Y., Development of a Virtual Force Sensor for a Low-Cost Collaborative Robot and Applications to Safety Control, ”Sensors”, Vol. 19, No. 11, 2019, DOI: 10.3390/s19112603.
  • 13. Albu-Schäffer A., Haddadin S., Ott C., Stemmer A., Wimböck T., Hirzinger G., The DLR lightweight robot: design and control concepts for robots in human environments, ”Industrial Robot: An International Journal”, Vol. 5, 2007, 376-385, DOI: 10.1108/01439910710774386.
  • 14. Popov D., Klimchik A., Mavridis N., Collision detection, localization & classification for industrial robots with joint torque sensors, [in:] 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), IEEE, 2017, 838-843, DOI: 10.1109/ROMAN.2017.8172400.
  • 15. Halme R.-J., Lanz M., Kämäräinen J., Pieters R., Latokartano J., Hietanen A., Review of vision-based safety systems for human-robot collaboration, ”Procedia CIRP”, Vol. 72, 2018, 111-116, DOI: 10.1016/j.procir.2018.03.043.
  • 16. Winkler A., Suchý J., Vision based collision avoidance of industrial robots, ”IFAC Proceedings Volumes”, Vol. 44, No. 1, 2011, 9452-9457, DOI: 10.3182/20110828-6-IT-1002.00472.
  • 17. Kaldestad K.B., Haddadin S., Belder R., Hovland G., Anisi D.A., Collision avoidance with potential fields based on parallel processing of 3D-point cloud data on the GPU, [in:] International Conference on Robotics and Automation (ICRA), IEEE, 2014, 3250-3257, DOI: 10.1109/ICRA.2014.6907326.
  • 18. Yang S., Xu W., Liu Z., Zhou Z., Pham D.T., Multi-source vision perception for human-robot collaboration in manufacturing, [in:] 15th International Conference on Networking, Sensing and Control (ICNSC), IEEE, 2018, 1-6, DOI: 10.1109/ICNSC.2018.8361333.
  • 19. Saveriano M., Lee D., Distance based dynamical system modulation for reactive avoidance of moving obstacles, [in:] International Conference on Robotics and Automation (ICRA), IEEE, 2014, 5618-5623, DOI: 10.1109/ICRA.2014.6907685.
  • 20. Ahmad R., Plapper P., Human-Robot Collaboration: Two-fold strategy algorithm to avoid collisions using ToF sensor, ”International Journal of Materials, Mechanics and Manufacturing”, Vol. 4, No. 2, 2015, 144-147, DOI: 10.7763/IJMMM.2016.V4.243.
  • 21. Varhegyi T., Melik-Merkumians M., Steinegger M., Halmetschlager-Funek G., Schitter G., A Visual Servoing Approach for a Six Degrees-of-Freedom Industrial Robot by RGB-D Sensing, ”Automation and Robotics”, 2017, DOI: 10.3217/978-3-85125-524-9-14.
  • 22. Grunnet-Jepsen A., Winer P., Takagi A., Sweetser J., Zhao K., Khuong T., Nie D., Woodfill J., Using the Intel RealSense Depth cameras D4xx in Multi-Camera Configurations. Intel.
  • 23. Stefańczyk M., Kornuta T., Akwizycja obrazów RGBD: metody, ”Pomiary Automatyka Robotyka”, R. 18, Nr 1, 2014, 82-90, DOI: 10.14313/PAR_203/82.
  • 24. Kowalczuk Z., Merta T., Wizualizacja obrazu stereowizyjnego w systemie VISROBOT, ”Pomiary Automatyka Kontrola”, R. 60, Nr 10, 2014, 803-808.
  • 25. Kowalczuk Z., Merta T., Three-dimensional mapping for data collected using variable stereo baseline, [in:] 21st International Conference on Methods and Models in Automation and Robotics (MMAR), IEEE, 2016, 1082-1087, DOI: 10.1109/MMAR.2016.7575288.
  • 26. Merta T., Odwzorowanie obiektów ograniczonego środowiska na trójwymiarowej mapie cyfrowej z wykorzystaniem robotów mobilnych zaopatrzonych w stereowizje, Praca doktorska, Politechnika Gdańska, Gdańsk 2019.
  • 27. Redmon J., Farhadi A., YOLOv3: An incremental improvement, ”arXiv preprint arXiv:1804.02767”, 2018.
  • 28. Cao Z., Hidalgo G., Simon T., Wei S.-E., Sheikh Y., OpenPose: realtime multi-person 2D pose estimation using Part Affnity Fields, “arXiv preprint arXiv:1812.08008”, 2018.
Uwagi
PL
2. Opracowanie rekordu ze środków MNiSW, umowa Nr 461252 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2020).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-da418838-dfa6-42d2-bee1-c6fd5750947e
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.