Powiadomienia systemowe
- Sesja wygasła!
Tytuł artykułu
Autorzy
Treść / Zawartość
Pełne teksty:
Identyfikatory
Warianty tytułu
Analiza porównawcza grad-CAM i LIME pod kątem możliwej do wyjaśnienia sztucznej inteligencji w opartej na CNN klasyfikacji otworów wierconych w płycie wiórowej pokrytej melaminą
Języki publikacji
Abstrakty
In the furniture industry, precision in drilling holes in melamine-faced chipboard is crucial to maintaining product quality and minimizing financial losses. Manual monitoring of drill conditions, while somewhat effective, is inefficient and imprecise. This paper presents a comparative analysis of two Explainable AI (XAI) techniques-Gradient-weighted Class Activation Mapping (Grad-CAM) and Local Interpretable Model-Agnostic Explanations (LIME)—applied to a Convolutional Neural Network (CNN) based approach for automated tool condition monitoring (TCM). By leveraging the VGG16 pretrained network, we classify the condition of drilled holes into three categories: Green, Yellow, and Red. Both Grad-CAM and LIME provide visual explanations for the model’s predictions, enhancing the transparency and reliability of the system. Our comparative study highlights the strengths and limitations of each method in interpreting the CNN model’s decisions, ultimately aiming to improve the effectiveness and trustworthiness of automated TCM systems. The proposed approach shows significant potential for industrial applications, where understanding the decision-making process of AI models is as critical as their accuracy.
W przemyśle meblarskim precyzja w wierceniu otworów w płycie wiórowej laminowanej melaminą jest kluczowa dla utrzymania jakości produktu i minimalizacji strat finansowych. Ręczne monitorowanie stanu wierteł, choć do pewnego stopnia skuteczne, jest nieefektywne i mało precyzyjne. W niniejszym artykule przedstawiono porównawczą analizę dwóch technik wyjaśnialnej sztucznej inteligencji (XAI) — Gradient-weighted Class Activation Mapping (Grad-CAM) i Local Interpretable Model-Agnostic Explanations (LIME) — zastosowanych w podejściu opartym na konwolucyjnej sieci neuronowej (CNN) do automatycznego monitorowania stanu narzędzi (TCM). Wykorzystując wstępnie wytrenowaną sieć VGG16, klasyfikujemy stan wywierconych otworów na trzy kategorie: zielony, żółty i czerwony. Zarówno Grad-CAM, jak i LIME dostarczają wizualnych wyjaśnień dla predykcji modelu, zwiększając przejrzystość i niezawodność systemu. Nasze porównawcze badanie podkreśla mocne i słabe strony każdej metody w interpretacji decyzji modelu CNN, mając na celu poprawę efektywności i wiarygodności zautomatyzowanych systemów TCM. Proponowane podejście wykazuje znaczący potencjał w zastosowaniach przemysłowych, gdzie zrozumienie procesu decyzyjnego modeli AI jest tak samo krytyczne jak ich dokładność.
Wydawca
Czasopismo
Rocznik
Tom
Strony
194--198
Opis fizyczny
Bibliogr. 22 poz., rys., tab.
Twórcy
autor
- Department of Artificial Intelligence, Institute of Information Technology, Warsaw University of Life Sciences
autor
- Department of Artificial Intelligence, Institute of Information Technology, Warsaw University of Life Sciences
autor
- Department of Artificial Intelligence, Institute of Information Technology, Warsaw University of Life Sciences
autor
- Department of Artificial Intelligence, Institute of Information Technology, Warsaw University of Life Sciences
autor
- Department of Mechanical Processing of Wood, Institute of Wood Sciences and Furniture, Warsaw University of Life Sciences
autor
- Department of Artificial Intelligence, Institute of Information Technology, Warsaw University of Life Sciences
Bibliografia
- [1] Hu, J., Song, W., Zhang, W., Zhao Y., Yilmaz A. (2019). Deep learning for use in lumber classification tasks. Wood Science and Technology, 53(2), 505-517. DOI: https://doi.org/10.1007/s00226-019-01086-z.
- [2] Ibrahim, I., Khairuddin, A. S. M., Talip, M. S. A., Arof, H., Yusof, R. (2017). Tree species recognition system based on macroscopic image analysis. Wood Science and Technology, 51(2), 431-444.
- [3] Jemielniak, K., Urbański, T., Kossakowska, J., Bombiński, S. (2012). Tool condition monitoring based on numerous signal features. International Journal of Advanced Manufacturing Technology, 59, 73-81. DOI: https://doi.org/10.1007/s00170- 011-3504-2.
- [4] Kuo, R. (2000). Multi-sensor integration for on-line tool wear estimation through artificial neural networks and fuzzy neural network. Engineering Applications of Artificial Intelligence, 13, 249-261. DOI:https://doi.org/10.1016/S0952-1976(00)00008-7.
- [5] Kurek, J., Antoniuk, I., Górski, J., Jegorowa, A., Świderski, B., Kruk, M., Wieczorek, G., Pach, J., Orłowski, A., Aleksiejuk- Gawron, J. (2019a). Data Augmentation Techniques for Transfer Learning Improvement in Drill Wear Classification Using Convolutional Neural Network. Machine Graphics and Vision, 28, 3-12.
- [6] Kurek, J., Antoniuk, I., Górski, J., Jegorowa, A., Świderski, B., Kruk, M., Wieczorek, G., Pach, J., Orłowski, A., Aleksiejuk- Gawron, J. (2019b). Classifiers ensemble of transfer learning for improved drill wear classification using convolutional neural network. Machine Graphics and Vision, 28, 13-23.
- [7] Kurek, J., Kruk, M., Osowski, S., Hoser, P., Wieczorek, G., Jegorowa, A., Górski, J., Wilkowski, J., Śmietańska, K., Kossakowska, J. (2016). Developing automatic recognition system of drill wear in standard laminated chipboard drilling process. Bulletin of the Polish Academy of Sciences. Technical Sciences, 64, 633-640. DOI: https://doi.org/10.1515/bpasts- 2016-0071.
- [8] Kurek, J., Świderski, B., Jegorowa, A., Kruk, M., Osowski, S. (2017a). Deep learning in assessment of drill condition on the basis of images of drilled holes. In International Conference on Graphic and Image Processing. ICGIP. DOI: https://doi.org/10.1117/12.2266254.
- [9] Kurek, J., Wieczorek, G., Świderski, B., Kruk, M., Jegorowa, A.,Osowski, S. (2017b). Transfer learning in recognition of drill wear using convolutional neural network. In International Conference on Computational Problems of Electrical Engineering. IEEE. DOI: https://doi.org/10.1109/CPEE.2017.8093087.
- [10] Dosovitskiy, A., Beyer, L., Kolesnikov, A., et al. (2021). An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. In International Conference on Learning Representations (ICLR).
- [11] Tolstikhin, I., Houlsby, N., Kolesnikov, A., et al. (2021). MLPMixer: An all-MLP Architecture for Vision. arXiv preprint arXiv:2105.01601.
- [12] Steiner, A., Kolesnikov, A., Zhai, X., et al. (2021). How to train your ViT? Data, Augmentation, and Regularization in Vision Transformers. arXiv preprint arXiv:2106.10270.
- [13] Chen, X., Hsieh, C., Gong, B. (2021). When Vision Transformers Outperform ResNets without Pretraining or Strong Data Augmentations. arXiv preprint arXiv:2106.01548.
- [14] Zhuang, J., Gong, B., Yuan, L., et al. (2022). Surrogate Gap Minimization Improves Sharpness-Aware Training. In International Conference on Learning Representations (ICLR).
- [15] Jegorowa, A., Górski, J., Kurek, J., Kruk, M. (2020). Use of nearest neighbors (K-NN) algorithm in tool condition identification in the case of drilling in melamine faced particleboard. Maderas. Cienciay tecnología, 22, 189-196. DOI: https://doi.org/10.4067/S0718-221X2020005000205.
- [16] Jegorowa, A., Kurek, J., Antoniuk, I., et al. (2021). Deep learning methods for drill wear classification based on images of holes drilled inmelamine faced chipboard. Wood Science and Technology, 55, 271-293. DOI: https://doi.org/10.1007/s00226- 020-01245-7.
- [17] Świderski, B., Osowski, S., Gwardys, G., et al. (2022). Random CNN structure: tool to increase generalization ability in deep learning. EURASIP Journal on Image and Video Processing, 2022(1). DOI:https://doi.org/10.1186/s13640-022-00580-y.
- [18] Kurek, J., Antoniuk, I., ´ Swiderski, B., Jegorowa, A., Bukowski, M. (2020). Application of siamese networks to the recognition of the drill wear state based on images of drilled holes. Sensors, 20(23), 6978. DOI: https://doi.org/10.3390/s20236978.
- [19] Selvaraju, R.R., Cogswell, M., Das, A., et al. (2020). Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization. International Journal of Computer Vision, 128(2), 336-359. DOI:https://doi.org/10.1007/s11263-019-01228-7.
- [20] Song, D., Yao, J., Jiang, Y., et al. (2023). A new xAI framework with feature explainability for tumors decision-making in Ultrasound data: comparing with Grad-CAM. Computer Methods and Programs in Biomedicine, 235, 107527. DOI: https://doi.org/10.1016/j.cmpb.2023.107527.
- [21] Hsu, C., Morsalin, S., Reyad, M., Shakib, N. (2024). Artificial Intelligence Model Interpreting Tools: SHAP, LIME, and Anchor Implementation in CNN Model for Hand Gestures Recognition. In Technologies and Applications of Artificial Intelligence (pp. 16- 29).
- [22] Castillo Torres, G., Roig-Maimó, M., Mascaró-Oliver, M., et al. (2023). Understanding How CNNs Recognize Facial Expressions: A Case Study with LIME and CEM. Sensors, 23(1), 131. DOI: https://doi.org/10.3390/s23010131.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-d919443b-25aa-4af3-bad7-253235e88701
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.