PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

How camera temperature may affect marker visibility in motion capture systems: a case study

Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Wpływ temperatury na widoczność markerów w systemach przechwytywania ruchu: studium przypadku
Języki publikacji
EN
Abstrakty
EN
“Please warm up the system to the operating temperature before use. The temperature may affect the measurement” – this simple statement cannot be simply explained. Manufacturers of motion capture systems warn users that temperature may affect the test, but they do not describe how. This is crucial if repeatable and comparable tests are to be performed in a reliable way. This paper is the result of experience gained from thousands of tests that should have been repeatable, but not always were. The authors try to answer not only if the camera temperature affects the system, but how it affects the system. For this purpose several different scenarios have been considered, including warming up and cooling down the cameras, and gathering data related to the visibility of the markers and how their area changes. As a result, except valuable conclusions, the simple software dedicated to the OptiTrack motion capture system has been implemented and presented. Since it is often not possible to control the camera temperature at a high level, the program should be treated as an auxiliary tool.
PL
„Przed użyciem proszę rozgrzać system do temperatury roboczej. Temperatura może mieć wpływ na dokładność pomiarów” – to proste sformułowanie nie może być w prosty sposób wytłumaczone. Producenci systemów przechwytywania ruchu informują użytkowników, że temperatura kamer może mieć wpływ na testy, jednak nie wyjaśniają w jaki sposób. Ta informacja jest kluczowa w kontekście wykonywania powtarzalnych i porównywalnych testów. Artykuł ten stanowi podsumowanie doświadczeń zebranych na przestrzeni tysięcy testów, których wyniki w założeniach miały być porównywalne, jednak nie zawsze takie były. Autorzy podejmują próbę odpowiedzi nie tylko na pytanie czy temperatura faktycznie ma wpływ na działanie systemu, ale w jaki sposób na niego wpływa. W tym celu rozważono kilka różnych scenariuszy, w tym przeanalizowano proces nagrzewania kamer, chłodzenia kamer i zebrano dane odnoszące się do widoczności markerów oraz zmian ich pola powierzchni. Jako efekt końcowy, oprócz wartościowych wniosków, zaproponowano proste rozwiązanie – program dedykowany dla systemu OptiTrack, który wspomaga kontrolę temperatury kamer.
Rocznik
Strony
183--188
Opis fizyczny
Bibliogr. 15 poz., rys., tab.
Twórcy
  • Institute of Robotics and Machine Intelligence, Faculty of Automatic Control, Robotics and Electrical Engineering, Poznan University of Technology Piotrowo 3a street, 60-965 Poznań, Poland
  • Institute of Robotics and Machine Intelligence, Faculty of Automatic Control, Robotics and Electrical Engineering, Poznan University of Technology Piotrowo 3a street, 60-965 Poznań, Poland
  • Institute of Robotics and Machine Intelligence, Faculty of Automatic Control, Robotics and Electrical Engineering, Poznan University of Technology Piotrowo 3a street, 60-965 Poznań, Poland
  • Institute of Robotics and Machine Intelligence, Faculty of Automatic Control, Robotics and Electrical Engineering, Poznan University of Technology Piotrowo 3a street, 60-965 Poznań, Poland
Bibliografia
  • [1] Guo Y., Zhong C., Motion Capture Technology and Its Applications in Film and Television Animation, Advances in Multimedia, (2022), 1-10, DOI: 10.1155/2022/6392168
  • [2] Vincent A. C., Furman H., Slepian R. C., Ammann K. R.,Maria C. D.,Chien J. H., Siu K.-C., Slepian M. J., Smart Phone-Based Motion Capture and Analysis: Importance of Operating Envelope Definition and Application to Clinical Use, Applied Sciences, 12 (2022), No. 12, Art. No. 6173, DOI: 10.3390/app12126173
  • [3] Uslu T., Gezgin E., Ozbek S., Guzin D., Can F. C., Cetin L., Utilization of low cost motion capture cameras for virtual navigation Procedures: Performance evaluation for surgical navigation, Measurement, 181 (2021), Art. No. 109624, DOI: 10.1016/j.measurement.2021.109624
  • [4] Manns M., Otto M., Mauer M., Measuring Motion Capture Data Quality for Data Driven Human Motion Synthesis, Procedia CIRP, 41 (2016), 945-950, DOI: 10.1016/j.procir.2015.12.068
  • [5] Pueo B., Jimenez-Olmedo J. M., Application of motion capture technology for sport performance analysis, Retos, 32 (2017), No. 32, 241-247, DOI: 10.47197/retos.v0i32.56072
  • [6] Field M., Stirling D., Naghdy F., Pan Z., Motion capture in robotics review, In: 2009 IEEE International Conference on Control and Automation, (2009), 1697-1702, DOI: 10.1109/icca.2009.5410185
  • [7] Hoermann T. J., Mills S., Paulin M., Reusenzehn S., The design and calibration of a 3D motion capture system for arthropods, In: 2013 28th International Conference on Image and Vision Computing New Zealand (IVCNZ 2013), (2013), 265-269, DOI: 10.1109/ivcnz.2013.6727027
  • [8] Popescu M., Mronga D., Bergonzani I., Kumar S., Kirchner F., Experimental Investigations into Using Motion Capture State Feedback for Real-Time Control of a Humanoid Robot, Sensors, 22 (2022), No. 24, Art. No. 9853, DOI: 10.3390/s22249853
  • [9] Skurowski P., Pawlyta M., On the Noise Complexity in an Optical Motion Capture Facility, Sensors, 19 (2019), No. 20, Art. No. 4435, DOI: 10.3390/s19204435
  • [10] NaturalPoint Inc., Quick Start Guide: Precision Capture, Camera Temperature, (2024), Accessed on: 12.06.2024
  • [11] Herda L., Fua P., Plänkers R., Boulic R., Thalmann D., Using skeleton-based tracking to increase the reliability of optical motion capture, Human Movement Science, 20 (2001), No. 3, 313-341, DOI: 10.1016/S0167-9457(01)00050-1
  • [12] Piszczek M., Positioning of objects for real-time application of virtual reality, Przeglad Elektrotechniczny, 92 (2016), No. 11, 81-84, DOI: 10.15199/48.2016.11.20
  • [13] Aissaoui A., Ouafi A., Pudlo P., Gillet C., Baarir Z.-E., Taleb-Ahmed A., Designing a camera placement assistance system for human motion capture based on a guided genetic algorithm, Virtual Reality, 22 (2017), No. 1, 13-23, DOI: 10.1007/s10055-017-0310-7
  • [14] Wang X., Zhang H., Gu H., Solving Optimal Camera Placement Problems in IoT Using LH-RPSO, IEEE Access, 8 (2020), 4088140891, DOI: 10.1109/access.2019.2941069
  • [15] Kim J., Ham Y., Chung Y., Chi S., Camera Placement Optimization for Vision-based Monitoring on Construction Sites, In: Proceedings of the International Symposium on Automation and Robotics in Construction (IAARC), (2018), 748-752, DOI: 10.22260/isarc2018/0102
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-2b8ddc1f-2585-445b-9215-57353407871d
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.