PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

SACNN: Spatial Adversarial Convolutional Neural Network for Textile Defect Detection

Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Zastosowanie systemu „Spatial Adversarial Convolutional Neural Network” (SACNN) do wykrywania wad tekstyliów
Języki publikacji
EN
Abstrakty
EN
Constructing textile defect detection systems is significant for quality control in industrial production, but it is costly and laborious to label sufficient detailed samples. This paper proposes a model called ‘spatial adversarial convolutional neural network’ which tries to solve the problem above by only using the image-level label. It consists of two parts: a feature extractor and feature competition. Firstly, a string of convolutional blocks is used as a feature extractor. After feature extraction, a maximum greedy feature competition is taken among features in the feature layer. The feature competition mechanism can lead the network to converge to the defect location. To evaluate this mechanism, experiments were carried on two datasets. As the training time increases, the model can spontaneously focus on the actual defective location, and is robust towards an unbalanced sample. The classification accuracy of the two datasets can reach more than 98%, and is comparable with the method of labelling samples in detail. Detection results show that defect location from the model is more compact and accurate than in the Grad-CAM method. Experiments show that our model has potential usage in defect detection in an industrial environment.
PL
Konstruowanie systemów wykrywania wad tekstyliów ma duże znaczenie dla kontroli jakości w produkcji przemysłowej, ale etykietowanie wystarczająco szczegółowych próbek jest kosztowne i pracochłonne. W artykule zaproponowano model zwany „przestrzenną przeciwstawną splotową siecią neuronową”, który próbuje rozwiązać powyższy problem jedynie przy użyciu etykiety na poziomie obrazu. Składa się z dwóch części: ekstraktora fabuły i konkursu fabularnego. Po pierwsze, ciąg bloków splotowych jest używany jako ekstraktor cech. Po wyodrębnieniu cech dochodzi do maksymalnej zachłannej konkurencji między funkcjami w warstwie cech. Mechanizm współzawodnictwa cech może doprowadzić do konwergencji sieci do lokalizacji defektu. Aby ocenić ten mechanizm, przeprowadzono eksperymenty na dwóch zbiorach danych. Wraz ze wzrostem czasu szkolenia model może spontanicznie skupić się na rzeczywistej wadliwej lokalizacji i jest odporny na niezrównoważoną próbkę. Dokładność klasyfikacji obu zbiorów danych może sięgać ponad 98% i jest porównywalna ze szczegółową metodą znakowania próbek. Wyniki detekcji pokazują, że lokalizacja defektu z modelu jest bardziej zwarta i dokładna niż w metodzie Grad-CAM. Eksperymenty pokazują, że zaprezentowany model ma potencjalne zastosowanie do wykrywania defektów w środowisku przemysłowym.
Rocznik
Strony
127--133
Opis fizyczny
Bibliogr. 22 poz., rys.
Twórcy
autor
  • University of Chinese Academy of Sciences, School of Artificial Intelligence, Beijing, China
  • Chinese Academy of Sciences, Institute of Automation, Research Center of Precision Sensing and Control, Beijing, China
autor
  • Chinese Academy of Sciences, Institute of Automation, Research Center of Precision Sensing and Control, Beijing, China
autor
  • Chinese Academy of Sciences, Institute of Automation, Research Center of Precision Sensing and Control, Beijing, China
autor
  • University of Chinese Academy of Sciences, School of Artificial Intelligence, Beijing, China
  • Chinese Academy of Sciences, Institute of Automation, Research Center of Precision Sensing and Control, Beijing, China
Bibliografia
  • 1. Chunlei Li, Guangshuai Gao, Zhoufeng Liu, Di Huang, Sheng Liu, Miao Yu. Defect Detection for Patterned Fabric Images Based on GHOG and Low-Rank Decomposition. 2017, [Online]. Available: https://arxiv.org/abs/1702.05555.
  • 2. Qizi Huang, Hong Zhang, Xiangrong Zeng, Wenwei Huang. Automatic Visual Defect Detection Using Texture Prior and Low-Rank Representation. IEEE Access 2018;6: 37965-37976.
  • 3. Navarro Pedro J, Isla Carlos Fernández, Alcover Pedro María, Suardíaz Juan. Defect Detection in Textures through the Use of Entropy as a Means for Automatically Selecting the Wavelet Decomposition Level. Sensors (Basel, Switzerland) 2016; 16, 8: 1178.
  • 4. Carrera Diego, Manganini Fabio, Boracchi Giacomo, Lanzarone Ettore. Defect Detection in SEM Images of Nanofibrous Materials. IEEE Transactions on Industrial Informatics 2017; 13, 2: 551-561.
  • 5. Hui Kong, Jian Yang, Zhihua Chen. Accurate and Efficient Inspection of Speckle and Scratch Defects on Surfaces of Planar Products. IEEE Transactions on Industrial Informatics 2017; 13, 4:1855-1865.
  • 6. Haiyong Chen, Yue Pang, Qidi Hu, Kun Liu. Solar Cell Surface Defect Inspection Based on Multispectral Convolutional Neural Network. Journal of Intelligent Manufacturing 2018; 1-16.
  • 7. Ali Rebhi, Issam Benmhammed, Sabeur Abid, Farhat Fnaiech. Fabric Defect Detection Using Local Homogeneity Analysis and Neural Network. Journal of Photonics 2015; 2015: 1-9.
  • 8. Bergmann P, Lowe S, Fauser M, Sattlegger David, Carsten Steger. Improving Unsupervised Defect Segmentation by Applying Structural Similarity to Autoencoders. 2018, [Online]. Available: http://arxiv.org/abs/1807.02011.
  • 9. Hui Lin, Bin Li, Xinggang Wang, Yufeng Shu, Shuanglong Niu. Automated Defect Inspection of LED Chip Using Deep Convolutional Neural Network. Journal of Intelligent Manufacturing 2018. DOI: 10.1007/s10845-018-1415-x.
  • 10. Xian Tao, Dapeng Zhang, Zihao Wang, Xilong Liu, Hongyan Zhang, De Xu. Detection of Power Line Insulator Defects Using Aerial Images Analyzed with Convolutional Neural Networks. IEEE Transactions on Systems, Man, and Cybernetics: Systems, pp. 1-13, Oct 2018.
  • 11. Qin Zou, Zheng Zhang, Qingquan Li, Xianbiao Qi, Qian Wang, Song Wang. DeepCrack: Learning Hierarchical Convolutional Features for Crack Detection. IEEE Transactions on Image Processing 2019; 28, 3: 1498-1512.
  • 12. Junwen Chen, Zhigang Liu, Hongrui Wang, Alfredo Núñez, Zhiwei Han. Automatic Defect Detection of Fasteners on the Catenary Support Device Using Deep Convolutional Neural Network. IEEE Transactions on Instrumentation and Measurement 2018; 67, 2: 257-269.
  • 13. Zhiyang Yu, Xiaojun Wu, Xiaodong Gu. Fully Convolutional Networks for Surface Defect Inspection in Industrial Environment. International Conference on Computer Vision Systems 2017: Oct, 417-426.
  • 14. Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, Li Fei-Fei. Imagenet: A Large-Scale Hierarchical Image Database IEEE Conference on Computer Vision and Pattern Recognition, 2009.
  • 15. Nobuyuki Otsu. A Threshold Selection Method from Gray-Level Histograms. IEEE Trans. Syst., Man, Cybern. 1979; SMC-9(1): 62-66.
  • 16. Alexander Neubeck, Luc J. Van Gool. Efficient Non-Maximum Suppression. 18th International Conference on Pattern Recognition (ICPR 2006) 2006; 20-24 Aug, Hong Kong, China.
  • 17. Ramprasaath R. Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, Dhruv Batra. Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization. 2017 IEEE International Conference on Computer Vision (ICCV), Venice, Italy, 2018: 618-626.
  • 18. Gardner WA. Learning Characteristics of Stochastic-Gradient-Descent Algorithms: A General Study, Analysis, and Critique. Signal Processing 1984; 6, 2: 113-133.
  • 19. Krizhevsky Alex, Sutskever Ilya, Hinton Geoffrey E. ImageNet Classification with Deep Convolutional Neural Networks. Neural Information Processing Systems, 2012.
  • 20. Hertel Lars, Barth Erhardt, Käster Thomas, Martinetz Thomas. Deep Convolutional Neural Networks as Generic Feature Extractors. International Symposium on Neural Networks 2015; pp. 1-4,.
  • 21. Seunghyeon Kim, Wooyoung Kim, Yung-Kyun Noh, Frank C. Park. Transfer Learning for Automated Optical Inspection. International Joint Conference on Neural Networks IEEE, 2017.
  • 22. Timm Fabian, Barth Erhardt. Non-Parametric Texture Defect Detection Using Weibull Features. Proc. SPIE 7877, Image Processing: Machine Vision Applications IV, 2011.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-f96ef901-ec4d-48ce-bb29-7f0be1060282
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.