Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  sieć głęboka
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Artykuł zawiera opis jednej z metod automatycznego wykrywania treści nielegalnych typu CSAM, którą przetestowano podczas badań przeprowadzanych w projekcie APAKT. Zaproponowane rozwiązanie wykorzystuje klasyfikator Temporal Shift Module (TSM), model sieci głębokiej do wydajnego rozpoznawania aktywności na plikach wideo. Zastosowano metodę z transferem wiedzy, żeby stosunkowo niedużą liczbą danych uczących nauczyć model skutecznego rozpoznawania treści pornograficznych i nielegalnych na filmach. Przeprowadzono testy skuteczności klasyfikacji na danych neutralnych legalnej i nielegalnej pornografii. W artykule wskazano również związane z tym tematem badawczym problemy, które wynikają z charakterystyki danych. Ponadto zwrócono uwagę na konieczność dalszych prac nad zapewnianiem bezpieczeństwa dzieci w cyberprzestrzeni.
EN
The paper describes one of the methods of automatic recognition of CSAM materials, which was tested during the research under the APAKT project. The proposed solution is based on Temporal Shift Module (TSM), a model of a deep neural network created for efficient human activities rocognition in video. We applied transfer learning method for training the model with a relatively small number of training data to succesfully rocognize films with pornografic and illegal content. We conducted some tests of classification of films from three categories: neutral films, legal pornography and illegal pornografic videos (CSAM). In this paper we present problems that are connected with this research topic that come from the characteristic of the data. We also show that further works are needed to keep children safe in cyberspace.
EN
Background and objective: Retinal image quality assessment is an essential task for the diagnosis of retinal diseases. Recently, there are emerging deep models to grade quality of retinal images. However, current models either directly transfer classification networks originally designed for natural images to quality classification of retinal images or introduce extra image quality priors via multiple CNN branches or independent CNNs. The purpose of this work is to address retinal image quality assessment by a simple deep model. Methods: We propose a dark and bright channel prior guided deep network for retinal image quality assessment named GuidedNet. It introduces dark and bright channel priors into deep network without extra parameters increasing and allows for training end-to-end. In detail, the dark and bright channel priors are embedded into the start layer of a deep network to improve the discriminate ability of deep features. Moreover, we re-annotate a new retinal image quality dataset called RIQA-RFMiD for further validation. Results: The proposed method is evaluated on a public retinal image quality dataset Eye-Quality and our re-annotated dataset RIQA-RFMiD. We obtain the average F-score of 88.03% on Eye-Quality and 66.13% on RIQA-RFMiD, respectively. Conclusions: We investigate the utility of the dark and bright channel priors for retinal image quality assessment. And we propose a GuidedNet by embedding the dark and bright channel priors into CNNs without much model burden. Moreover, to valid the GuidedNet, we re-create a new dataset RIQA-RFMiD. With the GuidedNet, we achieves state-of-the-art performances on a public dataset Eye-Quality and our re-annotated dataset RIQA-RFMiD.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.