This paper presents the application of Kolmogorov-Arnold Networks (KAN) in classifyingmetal surface defects. Specifically, steel surfaces are analyzed to detectdefects such as cracks, nclusions, patches, pitted surfaces, and scratches. Drawingon the Kolmogorov-Arnold theorem, KAN provides a novel approach compared to conventional multilayer perceptrons (MLPs), facilitatingmore efficient function approximation by utilizingspline functions. The results show that KAN networks can achieve better accuracy than convolutional neural networks (CNNs) with fewer parameters, resulting in faster convergence and improved performance in image classification.
PL
W niniejszej pracy przedstawiono zastosowanie sieci Kolmogorov-Arnold (KAN) w klasyfikacji defektów powierzchni metali. W szczególności badane są powierzchnie stali pod kątem wykrywania takich wad, jak pęknięcia, wtrącenia, łaty, powierzchnie z wżerami i zarysowania. Sieci KAN, oparte na twierdzeniu Kolmogorova-Arnolda, stanowią innowacyjną alternatywę dla tradycyjnych wielowarstwowych perceptronów (MLP), umożliwiając efektywniejsze aproksymowanie funkcji poprzez zastosowanie funkcji sklejanych. Wyniki badań wskazują, że sieci KAN mogą osiągać lepszą dokładność niż konwolucyjne sieci neuronowe (CNN) przy mniejszej liczbie parametrów, co skutkuje szybszą zbieżnością i lepszymi wynikami w klasyfikacji obrazów.
The Transformer is an important addition to the rapidly increasing list of different Artificial Neural Networks (ANNs) suited for extremely complex automation tasks. It has already gained the position of the tool of choice in automatic translation in many business solutions. In this paper, we present an automated approach to optimizing the Transformer structure based upon Simulated Annealing, an algorithm widely recognized for both its simplicity and usability in optimization tasks where the search space may be highly complex. The proposed method allows for the use of parallel computing and time-efficient optimization, thanks to modifying the structure while training the network rather than performing the two one after another. The algorithm presented does not reset the weights after changes in the transformer structure. Instead, it continues the training process to allow the results to be adapted without randomizing all the training parameters. The algorithm has shown a promising performance during experiments compared to traditional training methods without structural modifications. The solution has been released as open-source to facilitate further development and use by the machine learning community.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.