PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Analiza porównawcza wydajności architektury głębokiego uczenia się w klasyfikacji obrazów podwodnych

Identyfikatory
Warianty tytułu
EN
Comparative performance analysis of deep learning architectures in underwater image classification
Konferencja
Konferencja Radiokomunikacji i Teleinformatyki (11-13.09.2024 ; Poznań, Polska)
Języki publikacji
EN
Abstrakty
EN
In this study, we assess the performance of the VGG-16, EfficientNetB0, and SimCLR models in classifying 5,000 underwater images. The dataset was split into 75 perceent for training and 25 percent for testing, with manual labeling ensuring accurate ground truth. We used K-means clustering to segment the dataset based on similarity, and PCA to reduce dimensionality while maintaining the semantic structure. The diverse dataset boosts the models’ ability to generalize across various conditions. We evaluated clustering and classification using the silhouette score, Davies-Bouldin index, and Calinski-Harabasz index. The results reveal each model’s strengths and weaknesses, providing insights for future improvments in underwater image analysis.
PL
W tym badaniu oceniamy wydajność modeli VGG-16, EfficientNetB0 i SimCLR w klasyfikacji 5000 podwodnych zdjęć. Zbiór danych podzielono na 75 procent do celów szkoleniowych i 25 procent do testów, przy czym ręczne etykietowanie zapewniało dokładne odwzorowanie podstaw. Zastosowaliśmy grupowanie K-średnich do segmentacji zbioru danych na podstawie podobieństwa oraz PCA w celu zmniejszenia wymiarowości przy jednoczesnym zachowaniu struktury semantycznej. Zróżnicowany zbiór danych zwiększa zdolność modeli do uogólniania w różnych warunkach. Oceniliśmy grupowanie i klasyfikacje za pomocą wyniku sylwetki, wskaźnika Daviesa-Bouldina i wskaźnika Calinskiego-Harabasza. Wyniki ujawniają mocne i słabe strony każdego modelu, dostarczając informacji na temat przyszłych ulepszeń w analizie obrazów podwodnych.
Rocznik
Tom
Strony
187--190
Opis fizyczny
Bibliogr. 7 poz., wykr.
Twórcy
autor
  • AGH University of Science and Technology, Krakow
autor
  • AGH University of Science and Technology, Krakow
autor
  • Xi’an Jiaotong University, Xi’an, China
  • AGH University of Science and Technology, Krakow
Bibliografia
  • [1] Qayyum, W.; Ehtisham, R.; Bahrami, A. R. Assessment of Convolutional Neural Network pre-trained in 2023 materials, MDPI pages 1-16.
  • [2] Krizhevsky, A.; Sutskever, I.; Hinton, G. E. ImageNet classification with deep neurons proceedings in NeuraIPS 2024.pages 1-9
  • [3] Tan, M.; Le, Q. V. Efficient Net: Rethinking model scaling for Convolutional Neural Networks in 2020 in arxiv journal , pages 1-11
  • [4] Howard, A. G.; Zhu, M.; Chen, B. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision in MobileNets 2017, page 1-9
  • [5] Shah, S. R.; Qadri, S.; Bibi, H.; Shah, S. M. W.; Sharif, M. I.; Marinello, F. Comparing inception v3, VGG-16, VGG 19, CNN, and ResNet 50: A case study on early detection of a rice disease in agronomy, MDPI in 2023,pages 1-13.
  • [6] Katari, R.; Kaza, S. A Comparative Analysis of Variant Deep Learning Models for COVID-19 Protective Face Mask Detection in 2021 in Turkish Journal of Computer and Mathematics Education, page 1-8
  • [7] Shi, C.; Wei, B.; Wei, S.; Wang, W.; Liu, H.; Liu, J. A quantitative discriminant method of elbow point for the optimal number of clusters in Clustering Algorithm - EURASIP Journal on Wireless Communications and networking in 2021 in EURASIP Journal on wireless communication and networking, pages 1- 16
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki (2025).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-f98eabff-3bf9-49b2-9f55-cc7218eb39e3
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.