In the furniture industry, precision in drilling holes in melamine-faced chipboard is crucial to maintaining product quality and minimizing financial losses. Manual monitoring of drill conditions, while somewhat effective, is inefficient and imprecise. This paper presents a comparative analysis of two Explainable AI (XAI) techniques-Gradient-weighted Class Activation Mapping (Grad-CAM) and Local Interpretable Model-Agnostic Explanations (LIME)—applied to a Convolutional Neural Network (CNN) based approach for automated tool condition monitoring (TCM). By leveraging the VGG16 pretrained network, we classify the condition of drilled holes into three categories: Green, Yellow, and Red. Both Grad-CAM and LIME provide visual explanations for the model’s predictions, enhancing the transparency and reliability of the system. Our comparative study highlights the strengths and limitations of each method in interpreting the CNN model’s decisions, ultimately aiming to improve the effectiveness and trustworthiness of automated TCM systems. The proposed approach shows significant potential for industrial applications, where understanding the decision-making process of AI models is as critical as their accuracy.
PL
W przemyśle meblarskim precyzja w wierceniu otworów w płycie wiórowej laminowanej melaminą jest kluczowa dla utrzymania jakości produktu i minimalizacji strat finansowych. Ręczne monitorowanie stanu wierteł, choć do pewnego stopnia skuteczne, jest nieefektywne i mało precyzyjne. W niniejszym artykule przedstawiono porównawczą analizę dwóch technik wyjaśnialnej sztucznej inteligencji (XAI) — Gradient-weighted Class Activation Mapping (Grad-CAM) i Local Interpretable Model-Agnostic Explanations (LIME) — zastosowanych w podejściu opartym na konwolucyjnej sieci neuronowej (CNN) do automatycznego monitorowania stanu narzędzi (TCM). Wykorzystując wstępnie wytrenowaną sieć VGG16, klasyfikujemy stan wywierconych otworów na trzy kategorie: zielony, żółty i czerwony. Zarówno Grad-CAM, jak i LIME dostarczają wizualnych wyjaśnień dla predykcji modelu, zwiększając przejrzystość i niezawodność systemu. Nasze porównawcze badanie podkreśla mocne i słabe strony każdej metody w interpretacji decyzji modelu CNN, mając na celu poprawę efektywności i wiarygodności zautomatyzowanych systemów TCM. Proponowane podejście wykazuje znaczący potencjał w zastosowaniach przemysłowych, gdzie zrozumienie procesu decyzyjnego modeli AI jest tak samo krytyczne jak ich dokładność.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.