PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!
  • Sesja wygasła!
  • Sesja wygasła!
Tytuł artykułu

Calculating the position of the observer in 3D using 2D images for the interactive presentation of virtual objects

Autorzy
Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Określanie usytuowania widza w przestrzeni 3D na podstawie obrazów 2D w zastosowaniu do interaktywnej prezentacji obiektów wirtualnych
Języki publikacji
EN
Abstrakty
EN
The article presents the initial approach to the implementation of the video tracking system. We are going to use such system for the implementation of interactive virtual presentation of objects. We assumed, that tracking is done with video cameras only, and the location of the user in 3d space is estimated using methods of computer vision. The position of the user within the scene changes, and is observed by a set of cameras. The aim is to determine the place where that user is located, and then generate stereoscopic images for this viewpoint. A review of the literature on methods of user-tracking was done, and a simple experiment on reconstruction of a point in 3D space based on a set of images was described.
PL
W ramach prac prowadzonych w projekcie badawczym Wirtualne Muzeum przygotowano oprogramowanie służące do wizualizacji siatek powierzchniowych z wykorzystaniem urządzeń stereoskopowych, takich jak projektor oraz monitory 3D. Siatki powierzchniowe są cyfrową reprezentacją rzeczywistych obiektów przestrzennych, takich jak np. eksponaty muzealne. Obecnie wizualizacja generowana jest dla arbitralnie dobranego punktu widokowego i nie uwzględnia przemieszczania się widza względem prezentowanego obiektu. W wyniku tego występuje wrażenie poruszania się obrazu wraz ze zmianą pozycji przez użytkownika. Efekt taki jest nienaturalny i utrudnia obserwację prezentowanych siatek. Dlatego zaplanowano rozbudowę oprogramowania i bazy sprzętowej w taki sposób, by prezentowany obraz stereoskopowy był generowany z uwzględnieniem miejsca, w którym znajduje się widz. Oznacza to, że widz przemieszczając się wokół wirtualnego obiektu widzi go w podobny sposób jak widziałby rzeczywisty obiekt, tj. może zajrzeć za niego, bądź do jego wnętrza. W niniejszym artykule opisano wstępne założenia dla wizyjnego systemu śledzenia użytkownika, który w połączeniu z istniejącąjuż baząsprzętowąoraz oprogramowaniem pozwoli na realizację opisanych wyżej zamierzeń. Dokonano przeglądu stosowanych wcześniej metod lokalizacji oraz śledzenia obiektów i użytkowników, ze szczególnycm uwzględnieniem metod wizyjnych. Następnie zaproponowano przykładowy sposób rozmieszczenia znaczników na nakryciu głowy użytkownika i wskazano proponowane metody kalibracji kamer, wstępnego przetwarzania obrazów i detekcji znaczników w obrazie. Przeprowadzono także eksperyment ilustrujący sposób działania projektowanego systemu oraz zaproponowano kierunek dalszych prac.
Słowa kluczowe
Rocznik
Strony
177--186
Opis fizyczny
Bibliogr. 26 poz., rys.
Twórcy
autor
  • The Institute of Theoretical and Applied Informatics of the Polish Academy of Sciences
Bibliografia
  • 1. I. E. Sutherland: A head-mounted three dimensional display, Proceedings of the 1968 Fall Joint Computer Conference, AFIPS Conference Proceedings, Washington, D.C.: Thompson Books, 33, 1968, 757-764.
  • 2. D. K. Bhatnagar: Position trackers for Head Mounted Display systems: A survey. Technical Report TR93-010, University of North Carolina at Chapel Hill, 1993.
  • 3. G. Burdea and P. Coiffet: Virtual Reality Technology (First ed.), 1994.
  • 4. K. Meyer, and H. Applewhite, and F. Biocca: A Survey of Position Trackers. Presence, a publication of the Center for Research in Journalism and Mass Communication, 1992.
  • 5. A. Mulder: Human Movement Tracking Technology, Technical Report TR 94-1. School of Kinesiology, Simon Fraser University, 1994.
  • 6. A. Mulder: Human Movement Tracking Technology: Resources, [HTML]. Available:http://www.cs.sfu.ca/people/ResearchStaff/amulder/personal/vmi/HMTT.add.html,School of Kinesiology, Simon Fraser University, 1994.
  • 7. A. Mulder: Human Movement Tracking Technology, [HTML]. Available:http://www.cs.sfu.ca/people/ResearchStaff/amulder/personal/vmi/HMTT.pub.html,School of Kinesiology, Simon Fraser University, 1998.
  • 8. Ascension Technology Corporation. Site www, Available: http://www.ascensiontech.com/, 2010.
  • 9. Polhemus, Site www, Available: http://www.polhemus.com, 2010.
  • 10. E. Foxlin, and M. Harrington, and G. Pfeifer: ConstellationTM: A Wide-Range Wireless Motion-Tracking System for Augmented Reality and Virtual Set Applications. In M. F. Cohen (Ed.), Computer Graphics (SIGGRAPH 98 Conference Proceedings ed., Orlando,FL USA: ACM Press, Addison-Wesley, 1998, 371-378.
  • 11. Intersense Inc., Intersense IS-900, [html], Available: http://www.isense.com, 2010.
  • 12. R. P. Burton: Real-Time Measurement of Multiple Three-Dimensional Positions, University of Utah, Salt Lake City, UT USA, 1973.
  • 13. R. P. Burton and I. E. Sutherland: Twinkle Box: Three-Dimensional Computer-Input Devices,Proceedings of the National Computer Conference, Chicago 1974.
  • 14. H. J. Woltring: New Possibilities for Human Motion Studies by Real-Time Light Spot Position Measurement, Biotelemetry, 1, 1974, 132-146.
  • 15. Image Guided Technologies, http://www.imageguided.com/.
  • 16. Ascension Technology Corporation, http://www.ascension-tech.com/.
  • 17. Motion Analysis Corporation, Real-Time Movement Analysis Techniques and Concepts for the New Millennium in Sports Medicine, [HTML], Available:http://www.motionanalysis.com/html/movement/movement.html, Motion Analysis Corporation,Santa Rosa, CA USA, 2000.
  • 18. OptiTrack, Optical Motions Capture Solutions [HTML], Available:http://www.naturalpoint.com/optitrack/, 2010.
  • 19. University of North Carolina, HiBall Tracking System [HTML], Available:http://www.cs.unc.edu/ tracker/, 2000.
  • 20. NDI Digital, Site www, Available: http://www.ndigital.com, 2010.
  • 21. IO Tracker, Site www, Available: http://www.iotracker.com, 2010.
  • 22. A.R.T. tracking systems, Site www, Available: http://www.ar-tracking.de, 2010.
  • 23. NaturalPoint, TrackIR, Available: http://www.naturalpoint.com/trackir/, 2010.
  • 24. R. Tsai: An eficient and accurate camera calibration technique for 3D machine vision, in IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, Florida,June 1986.
  • 25. M. Brady, H. Wang: Real-time corner detection algorithm for motion estimation. Image and Vision Computing, 13 (9), 1995, 695-703.
  • 26. M. Gattass, L. Teixeira, W. Celes: Accelerated Corner Detector Algorithms. Proceedings of British Machine Vision Conference (BMVC), Leeds, UK. 2008.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-BUJ8-0012-0023
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.