Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl

PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2024 | nr 4 | 183--186
Tytuł artykułu

Tworzenie wielowidokowych sekwencji dla wizji wszechogarniającej

Warianty tytułu
EN
Creating multiview sequences for immersive video
Konferencja
Konferencja Radiokomunikacji i Teleinformatyki (11-13.09.2024 ; Poznań, Polska)
Języki publikacji
PL
Abstrakty
PL
Wielowidokowe sekwencje wizyjne są niezbędne do rozwoju technologii wykorzystywanych dla celów wizji wszechogarniającej. Szczególnie ważną częścią tych badań są prace nad nowymi normami kompresji. W tym artykule przedstawiono przegląd metod, których użycie w procesie tworzenia sekwencji ma korzystny wpływ na ich końcową jakość, co potwierdzają wyniki przeprowadzonych badań eksperymentalnych. Proces tworzenia wielowidokowej sekwencji został przedstawiony na przykładzie sekwencji Choreo, obecnie wykorzystywanej w pracach ISO/IEC MPEG Implicit Neural Visual Representation.
EN
Multiview sequences are essential to develop technologies utilized for immersive video purposes. Especially important part of this research involves work on the new compression standards. This article provides an overview of methods that positively influence the final result of the test sequence creation process, as confirmed by results of conducted experiments. The process of multiview sequence acquisition was presented using the example of the Choreo sequence which is now used in the work of ISO/IEC MPEG Implicit Neural Visual Representation.
Wydawca

Rocznik
Tom
Strony
183--186
Opis fizyczny
Bibliogr. 29 poz., rys.
Twórcy
Bibliografia
  • [1] H. Boukamcha. i in. 2017. "Robust auto calibration technique for stereo camera". ICEMIS 2017.
  • [2] Boyce J. M. i in. 2021. “MPEG Immersive Video Coding Standard”. Proc. of the IEEE 109: 1521-1536
  • [3] Buades A. 2005. “A non-local algorithm for image denoising”. CVPR 2005: 60–65.
  • [4] Cui H. i in. 2023. “MCSfM: Multi-Camera Based Incremental Structure-From-Motion”. IEEE Transac- tions on Image Processing, 32: 6441 - 6456.
  • [5] Domanski M. i in. 2016. „New results in free-view-point television systems for horizontal virtual navigation”. ICME 2016.
  • [6] Dziembowski A. i in. 2021. „Color Correction for Immersive Video Applications”. IEEE Access 9: 75626-75640.
  • [7] Dziembowski A. i in. 2022. „IV-PSNR–the objective quality metric for immersive video applications”. IEEE T. Circ. & Sys. Vid. Tech. 32 (1): 7575-7591.
  • [8] Ghorbanzadeh D. i in. 2024. “Enhancing destination image through virtual reality technology: the role of tourists’ immersive experience”. Curr. Psych: 1-13.
  • [9] Hinds T. A. i in. 2023. “Immersive Media and the Metaverse”. IEEE Comm. Magazine 61: 48-54.
  • [10] ISO/IEC SC29/WG04, 2024, “Manual of the Extrinsic Camera Parameters Calibration framework”. 146 MPEG meeting, Rennes, Francja.
  • [11] Jianzhu H. i in. 2023. “A Review and Comparative Study of Close-Range Geometric Camera Calibration Tools”. arXiv:2306.09014.
  • [12] Kang Y. i in. 2010. “High-quality multi-view depth generation using multiple color and depth cameras”. ICME 2010, pp. 1405–1410.
  • [13] Klóska D. i in. 2024. „Proposal of new natural content – Choreo”. MPEG 146, Rennes, Francja.
  • [14] Kolmogorov V. i in. 2004 “What Energy Functions Can Be Minimized via Graph Cuts?”. IEEE Tr. on Pattern Analysis and Machine Int. 26.2: 147–159.
  • [15] Liu R. i in. 2009. “Stereo Cameras Self-Calibration Based on SIFT”. Int. Conf. on Measuring Tech. and Mechatronics Automation, 1: 352-355.
  • [16] Meng X. i in. 2018. “Dense RGB-D SLAM with Multiple Cameras”. Sensors, 18 (7): 2118.
  • [17] Mieloch D. i in. 2020. ,,Depth map estimation for free-viewpoint television and virtual navigation”. IEEE Access 8: 5760–5776.
  • [18] Mueller K. i in. 2011. „3-D Video Representation Using Depth Maps”. Proc. of the IEEE 99: 643–656.
  • [19] Pengwei Z. i in. 2024. “Meta-Calib: A generic, robust and accurate camera calibration framework with ArUco-encoded meta-board”. ISPRS Journal of Photogrammetry & Remote Sensing 212: 357-380.
  • [20] Stankiewicz O. i in. 2018. “A Free-Viewpoint Television System for Horizontal Virtual Navigation”. IEEE Transactions on Multimedia 20 (8): 2182-2195.
  • [21] Stankiewicz O. i in. 2018. “Multiview video: Acquisition, processing, compression and virtual view rendering”. Acad. Press Lib. in Sig. Proc. 6: 3-74.
  • [22] Stankowski J. i in. 2024. „Miara podobieństwa strukturalnego dla wizji wszechogarniającej”. KRiT 2024.
  • [23] Szydełko B. i in. 2024. „ECPC – versatile multi-camera system calibration framework for immersive video applications”. SoftwareX, 26 (101669).
  • [24] Wei Z. i in. 2023. „Research on the Current Situation and Future Development Trend of Immersive VR in the Field of Education”. Sustainability, 15, 7531.
  • [25] Wien M. i in. 2019. “Standardization Status of Immersive Video Coding”. IEEE J on Emerging & Selected Topics in Circuits & Systems 9 (1): 5-17.
  • [26] Xiang S. i in. 2013. ,,A gradient-based approach for interference cancelation in systems with multiple Kinect cameras”. ISCAS 2013.
  • [27] Yao Y. i in. 2018. ,,MVSNet: Depth Inference for Unstructured Multiview Stereo”. ArXiv1804.02505.
  • [28] Zhang Z. 2000. “A Flexible New Technique for Camera Calibration”. IEEE Transactions on Pattern Analysis & Machine Intelligence. 22 (11): 1330 - 1334.
  • [29] Zizhuang W. i in. 2021. ,,AA-RMVSNet: Adaptive Aggregation Recurrent Multiview Stereo Network”. ArXiv, 2108.03824.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.baztech-589b5494-3067-43b8-80e6-b633b105cff7
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.