PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Deep learning for automatic LiDAR point cloud processing

Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Głębokie uczenie w automatycznym przetwarzaniu chmury punktów skanowania laserowego
Języki publikacji
EN
Abstrakty
EN
The paper presents the method of automatic point cloud classification that has been developed by OPEGIEKA. The method is based on deep learning techniques and consists of an in- house developed algorithm of point cloud transformation to a regular array accompanied by internally designed convolutional neural network architecture. The developed workflow as well as experiences from its application during the execution of the CAPAP project are described. Results obtained on real project data as well as statistics obtained on the ISPRS 3D semantic labelling benchmark with the use of OPEGIEKA's method are presented. The achieved results place OPEGIEKA in the top 3 of the classification accuracy rating in the ISPRS benchmark. The implementation of OPEGIEKA's solution into LiDAR point clouds classification workflow allowed to reduce the amount of necessary manual work.
PL
W artykule przedstawiono metodę automatycznej klasyfikacji chmur punktów opracowaną przez firmę OPEGIEKA. Metoda opiera się na technice głębokiego uczenia i składa się z opracowanego przez autorów algorytmu transformacji chmury punktów do regularnej macierzy, któremu towarzyszy wewnętrznie zaprojektowana architektura konwolucyjnej sieci neuronowej. W tekście opisano opracowany ciąg technologiczny uwzględniający metodykę na przykładzie doświadczenia podczas realizacji projektu CAPAP. Przedstawiono wyniki uzyskane na rzeczywistych danych projektowych oraz statystyki uzyskane na benchmarku ISPRS dotyczącego etykietowania semantycznego z wykorzystaniem metody OPEGIEKA. Osiągnięte wyniki plasują OPEGIEKA w pierwszej 3 rankingu dokładności klasyfikacji w benchmarku ISPRS. Wdrożenie rozwiązania OPEGIEKA do przepływu pracy klasyfikacji chmur punktów LiDAR pozwoliło zmniejszyć ilość niezbędnej pracy manualnej.
Rocznik
Tom
Strony
13--22
Opis fizyczny
Bibliogr. 20 poz.
Twórcy
  • OPEGIEKA Sp. Z o. o., Elbląg, Poland
  • OPEGIEKA Sp. Z o. o., Elbląg, Poland
  • OPEGIEKA Sp. Z o. o., Elbląg, Poland
Bibliografia
  • 1. Axelsson, P. (2000). DEM generation from laser scanner data using adaptive TIN models. International archives of photogrammetry and remote sensing, 33(4), 110-117.
  • 2. Hu, X., & Yuan, Y. (2016). Deep-learning-based classification for DTM extraction from ALS point cloud. Remote sensing, 8(9), 730.
  • 3. Huang, J., & You, S. (2016). Point cloud labeling using 3D convolutional neural network. In 2016 23rd International Conference on Pattern Recognition (ICPR) ) (pp. 2670-2675). IEEE.
  • 4. ISPRS. 2012: https://www2.isprs.org/commissions/comm2/wg4/benchmark/3d-semantic- labeling (access: 12/2020)
  • 5. Kraus, K., & Pfeifer, N. (2001). Advanced DTM generation from LIDAR data. International Archives of Photogrammetry Remote Sensing and Spatial Information Sciences, 34(3/W4), 23-30.
  • 6. Maturana, D., & Scherer, S. (2015). Voxnet: A 3D convolutional neural network for real- time object recognition. In 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (pp. 922-928). IEEE.
  • 7. Maas, H. G., & Vosselman, G. (1999). Two algorithms for extracting building models from raw laser altimetry data. ISPRS Journal of photogrammetry and remote sensing, 54(2-3), 153-163.
  • 8. Qi, C. R., Su, H., Mo, K., & Guibas, L. J. (2017a). Pointnet: Deep learning on point sets for 3d classification and segmentation. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 652-660).
  • 9. Qi, C. R., Yi, L., Su, H., & Guibas, L. J. (2017b). Pointnet++: Deep hierarchical feature learning on point sets in a metric space. arXiv preprint arXiv:1706.02413.
  • 10. Rizaldy, A., Persello, C., Gevaert, C. M., & Oude Elberink, S. J. (2018a). Fully convolutional networks for ground classification from LiDAR point clouds. ISPRS Annals of Photogrammetry, Remote Sensing & Spatial Information Sciences, 4(2).
  • 11. Rizaldy, A., Persello, C., Gevaert, C., Oude Elberink, S., & Vosselman, G. (2018b). Ground and multi-class classification of airborne laser scanner point clouds using fully convolutional networks. Remote sensing, 10(11), 1723.
  • 12. Rottensteiner, F., & Briese, C. (2003). Automatic generation of building models from LIDAR data and the integration of aerial images.
  • 13. Rottensteiner, F., Sohn, G., Jung, J., Gerke, M., Baillard, C., Benitez, S., & Breitkopf, U. (2012). The ISPRS benchmark on urban object classification and 3D building reconstruction. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences I-3, Nr. 1, 1(1), 293-298.
  • 14. Su, H., Jampani, V., Sun, D., Maji, S., Kalogerakis, E., Yang, M. H., & Kautz, J. (2018). Splatnet: Sparse lattice networks for point cloud processing. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 2530-2539).
  • 15. Tchapmi, L., Choy, C., Armeni, I., Gwak, J., & Savarese, S. (2017, October). Segcloud: Semantic segmentation of 3d point clouds. In 2017 international conference on 3D vision (3DV) (pp. 537-547). IEEE
  • 16. Wen, C., Yang, L., Li, X., Peng, L., & Chi, T. (2020). Directionally constrained fully convolutional neural network for airborne LiDAR point cloud classification. ISPRS Journal of Photogrammetry and Remote Sensing, 162, 50-62.
  • 17. Yang, Z., Jiang, W., Xu, B., Zhu, Q., Jiang, S., & Huang, W. (2017). A convolutional neural network-based 3D semantic labeling method for ALS point clouds. Remote Sensing, 9(9), 936.
  • 18. Yang, Z., Tan, B., Pei, H., & Jiang, W. (2018). Segmentation and multi-scale convolutional neural network-based classification of airborne laser scanner data. Sensors 18(10), 3347.
  • 19. Yousefhussien, M., Kelbe, D. J., Ientilucci, E. J., & Salvaggio, C. (2018). A multi-scale fully convolutional network for semantic labeling of 3D point clouds. ISPRS journal of photogrammetry and remote sensing, 143, 191-204.
  • 20. Zhou, Y., & Tuzel, O. (2018). Voxelnet: End-to-end learning for point cloud based 3d object detection. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 4490-4499).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-aff4f634-c93e-4a8e-868e-f0290ad2d291
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.