Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 617

Liczba wyników na stronie
first rewind previous Strona / 31 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  klasyfikacja
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 31 next fast forward last
PL
W artykule dokonano analizy czynników agresywnych w stosunku do betonu w zamkniętych obiektach gospodarki ściekowej na przykładzie czterech różnych grup obiektów zlokalizowanych w różnych regionach Polski. Na podstawie analiz chemicznych ścieków, ich osadów i skroplin na ścianach i stropach oraz atmosfery ponad ściekami, a także oceny stanu powierzchniowych warstw betonu i zbrojenia, sformułowano wnioski dotyczące agresywności środowiska panującego w komorach oraz wytycznych do projektowania ochrony przeciwkorozyjnej takich obiektów.
EN
In the paper the analysis of agents aggressive to concrete in the covered reinforced concrete chambers and channels for sewage disposal. The examples of four different objects localized in different part of Poland are presented. On the basis of chemical tests of sewage, their sludge and condensate on the walls and covers, the air above the sewage as well as the assessment of the surface of concrete, the conclusions are formulated concerning the aggressiveness in such objects and the recommendations for their anticorrosive protection.
PL
Celem pracy jest ocena jakości modelu oparta na Maszynie Wektorów Nośnych SVM pod kątem jej przydatności w wirtualnym uruchomieniu - do zastosowania na potrzeby wirtualnego bliźniaka. Przedstawione wyniki badań są ściśle skorelowane z Przemysłem 4.0, którego główną ideą jest integracja inteligentnych maszyn, systemów i informatyki. Jednym z celów jest wprowadzenie możliwości elastycznej zmiany asortymentu oraz zmian w systemach produkcyjnych. Wirtualne uruchomienie może zostać użyte do stworzenia modelu symulacyjnego obiektu, na potrzeby szkolenia operatorów. Jednym z działów wirtualnego rozruchu jest cyfrowy bliźniak. Jest to wirtualna reprezentacja instalacji lub urządzenia, czy też maszyny. Dzięki zastosowaniu wirtualnego bliźniaka, możliwe jest odwzorowanie różnych procesów w celu obniżenia kosztów procesu i przyspieszenia procesu testowania. W pracy zaproponowano współczynnik oceny jakości modelu oparty na SVM. Współczynnik ten bierze pod uwagę wiedzę ekspercką oraz metody używane do oceny jakości modelu - Znormalizowany Błąd Średniokwadratowy NRMSE (ang. Normalized Root Mean Square Error) oraz Znormalizowany Maksymalny Błąd ME (ang. Maximum Error). Wspomniane metody są powszechnie stosowane do oceny jakości modelu, jednak dotychczas nie były używane równocześnie. W każdej z metod uwzględniany jest inny aspekt dotyczący modelu. Zaproponowany współczynnik umożliwia podjęcie decyzji, czy dany model może zostać użyty do stworzenia wirtualnego bliźniaka. Takie podejście pozwala na testowanie modeli w sposób automatyczny lub półautomatyczny.
EN
This paper proposes a model quality assessment method based on Support Vector Machine, which can be used to develop a digital twin. This work is strongly connected with Industry 4.0, in which the main idea is to integrate machines, devices, systems, and IT. One of the goals of Industry 4.0 is to introduce flexible assortment changes. Virtual commissioning can be used to create a simulation model of a plant or conduct training for maintenance engineers. One branch of virtual commissioning is a digital twin. The digital twin is a virtual representation of a plant or a device. Thanks to the digital twin, different scenarios can be analyzed to make the testing process less complicated and less time-consuming. The goal of this work is to propose a coefficient that will take into account expert knowledge and methods used for model quality assessment (such as Normalized Root Mean Square Error - NRMSE, Maximum Error - ME). NRMSE and ME methods are commonly used for this purpose, but they have not been used simultaneously so far. Each of them takes into consideration another aspect of a model. The coefficient allows deciding whether the model can be used for digital twin appliances. Such an attitude introduces the ability to test models automatically or in a semi-automatic way.
EN
The leaf is one of the plant organs, contains chlorophyll, and functions as a catcher of energy from sunlight which is used for photosynthesis. Perfect leaves are composed of three parts, namely midrib, stalk, and leaf blade. The way to identify the type of plant is to look at the shape of the leaf edges. The shape, color, and texture of a plant's leaf margins may influence its leaf veins, which in this vein morphology carry information useful for plant classification when shape, color, and texture are not noticeable. Humans, on the other hand, may fail to recognize this feature because they prefer to see plants solely based on leaf form rather than leaf margins and veins. This research uses the Wavelet method to denoise existing images in the dataset and the Convolutional Neural Network classifies through images. The results obtained using the Wavelet Convolutional Neural Network method are equal to 97.13%.
EN
Purpose: The objective of the study is to use selected data mining techniques to discover patterns of certain recurring mechanisms related to the occurrence of occupational accidents in relation to production processes. Design/methodology/approach: The latent class analysis (LCA) method was employed in the investigation. This statistical modeling technique enables discovering mutually exclusive homogenous classes of objects in a multivariate data set on the basis of observable qualitative variables, defining the class homogeneity in terms of probabilities. Due to a bilateral agreement, Statistics Poland provided individual record-level real data for the research. Then the data were preprocessed to enable the LCA model identification. Pilot studies were conducted in relation to occupational accidents registered in production plants in 2008-2017 in the Wielkopolskie voivodeship. Findings: Three severe accident patterns and two light accident patterns represented by latent classes were obtained. The classes were subjected to descriptive characteristics and labeling, using interpretable results presented in the form of probabilities classifying categories of observable variables, symptomatic for a given latent class. Research limitations/implications: The results from the pilot studies indicate the necessity to continue the research based on a larger data set along with the analysis development, particularly as regards selecting indicators for the latent class model characterization. Practical implications: The identification of occupational accident patterns related to the production process can play a vital role in the elaboration of efficient safety countermeasures that can help to improve the prevention and outcome mitigation of such accidents among workers. Social implications: Creating a safe work environment comprises the quality of life of workers, their families, thus affirming the enterprises' principles and values in the area of corporate social responsibility. Originality/value: The investigation showed that latent class analysis is a promising tool supporting the scientific research in discovering the patterns of occupational accidents. The proposed investigation approach indicates the importance for the research both in terms of the availability of non-aggregated occupational accident data as well as the type of value aggregation of the variables taken for the analysis.
PL
Artykuł przedstawia zarys problemu antropogenicznych anomalii grawitacyjnych. W odróżnieniu od innych prac, koncentrujących się głównie na anomaliach pochodzenia górniczego, podjęto w nim próbę całościowego ujęcia tematu. W początkowej części artykułu zwrócono uwagę na problemy związane z wyznaczeniem przyspieszenia siły ciężkości oraz znaczenie tej wielkości dla konstrukcji geoidy i dokładności pomiarów geodezyjnych. Zdefiniowano antropogeniczną anomalię grawitacyjną i podano opracowaną przez autora systematyczną klasyfikację jej źródeł. Sformułowano uproszczone modele obliczeniowe dla charakterystycznych typów źródeł. Używając tych modeli, oszacowano wartości anomalii grawitacyjnych, powodowanych przez wymienione w klasyfikacji, reprezentatywne przykłady źródeł i przedyskutowano ich znaczenie.
EN
This article presents the outline of the anthropogenic gravity anomalies problem. In contrast to other papers concerning mining-related anomalies, here a holistic approach to the subject was attempted. In the introductory part of the article, the attention is given to the problems with determination of the gravity acceleration, and the importance of this estimation to the geoid construction and accuracy of measurements in land surveying. An anthropogenic gravity anomaly was defined and a systematic classification of its sources was developed and given by the author. Simplified computational models for the characteristic source types were formulated. Using those models, the values of gravity anomalies were estimated. The anomalies are caused by enumerated in the classification representative examples of sources and their significance was discussed.
10
Content available remote CNN application in face recognition
EN
The paper presents application of the convolutional neural network (CNN) in face recognition. The CNN is regarded nowadays as the most efficient tool in image analysis. This technique was applied to recognition of two databases of faces: the own base containing 68 classes of very different variants of face composition (grey images) and 244 classes of color face images represented as RGB images (MUCT data base). This paper will compare different solutions of classifiers applied in CNN, autoencoder and the traditional approach relying on classical feature generation methods and application of support vector machine classifier. The numerical results of experiments performed on the face image database will be presented and discussed.
PL
Praca przedstawia zastosowanie sieci CNN w rozpoznaniu obrazów twarzy. Twarze poddane eksperymentom pochodzą z dwu baz danych. Jedna z nich jest własną bazą zawierającą 68 klas reprezentowanych w postaci obrazów w skali szarości i drugą (MUCT) zawierającą 244 klasy reprezentujące obrazy kolorowe RGB. Zbadano i porównano różne metody rozpoznania obrazów. Jedna z nich polega na zastosowaniu konwolucyjnej sieci neuronowej CNN z dwoma różnymi klasyfikatorami końcowymi (softmax i SVM). Inne głębokie podejście stosuje autoenkoder do generacji cech i SVM jako klasyfikator. Wyniki porównano z klasycznym podejściem wykorzystującym transformację PCA w połączeniu z klasyfikatorem SVM.
EN
In the article, an approach based on clustering is proposed, according to which the influence of an individual model is inversely proportional to the volumes of aggregated groups. With this approach, the influence of an individual solution of the model, which differs from others, is significantly increased. Aggregation of groups is made in direct proportion to the correlation of decisions. Moreover, the aggregation of groups of models is performed according to the hierarchical structure of the ensemble. The solutions of strongly correlated groups of models are replaced by a single cluster solution. This solution at the next level can be grouped with other closest groups of models. Due to this architecture, the level of influence of a single solution of the model is increased. The main advantage of the proposed approach is the determination of the structure of the ensemble depending on the correlation of model decisions. Clusterization of decisions for features of similarity enhances the role of diversity and allows levelling out the error of an individual decision at a local level and to provide acceptable global indicators of cluster efficiency. Advantage of the proposed approach is the possibility of building an ensemble based on the properties of the correlation parameters.
PL
W artykule zaproponowano podejście oparte na grupowaniu, zgodnie z którym wpływ modelu indywidualnego jest odwrotnie proporcjonalny do wielkości grup zagregowanych. Dzięki takiemu podejściu wpływ indywidualnego rozwiązania modelu, różniącego się od innych, jest znacząco zwiększony. Agregacja grup jest dokonywana w sposób wprost proporcjonalny do korelacji decyzji. Ponadto agregacja grup modeli odbywa się zgodnie z hierarchiczną strukturą zespołu. Rozwiązania silnie skorelowanych grup modeli są zastępowane przez jedno rozwiązanie klastrowe. Rozwiązanie to na kolejnym poziomie może być grupowane z innymi najbliższymi grupami modeli. Ze względu na taką architekturę zwiększa się poziom wpływu pojedynczego rozwiązania modelu. Główną zaletą proponowanego podejścia jest określenie struktury zespołu w zależności od korelacji decyzji modelowych. Klasteryzacja decyzji dla cech podobieństwa zwiększa rolę różnorodności i pozwala na wyrównanie błędu pojedynczej decyzji na poziomie lokalnym oraz zapewnienie akceptowalnych globalnych wskaźników efektywności klastra. Zaletą proponowanego podejścia jest możliwość budowania zespołu w oparciu o właściwości parametrów korelacji.
PL
Epidemiologia jaskry. Jaskra, obok AMD, jest jedną z głównych przyczyn nieodwracalnej utraty wzroku na świecie. Szacunkowe dane epidemiologiczne pokazały, że w 2010 roku łączna liczba chorych na jaskrę pierwotną otwartego kąta (JPOK, ang. primary open-angle glaucoma, POAG) oraz na jaskrę pierwotną zamkniętego kąta (JPZK, ang. primary angle-closure glaucoma, PACG) wynosiła 60,5 mln [1]. Przeważającą liczbę przypadków stanowi JPOK. Badania przeprowadzone na populacji w Stanach Zjednoczonych, Irlandii oraz Australii wykazały, że znaczna liczba przypadków jaskry pozostaje niezdiagnozowana. Ponad 50% uczestników badania nie była świadoma, że choruje na jaskrę. Odsetek ten szczególnie wzrastał w populacji latynoskiej w Stanach Zjednoczonych i zawierał się pomiędzy 62% a 75%. Z kolei w Singapurze był on większy niż 70%, a w populacji japońskiej, koreańskiej, indyjskiej i afrykańskiej wynosił ponad 90% [2].
13
Content available remote Kleje żelowe – cechy szczególne
PL
Powołując się na normę PN-EN 12004-1, autor przedstawia klasyfikację klejów do płytek ceramicznych i okładzin kamiennych. Wyjaśnia specyfikę klejów żelowych, a także zwraca uwagę na konieczność przestrzegania zasad sztuki budowlanej podczas przyklejania płytek.
EN
Referring to the PN-EN 12004-1 standard, the author presents the classification of adhesives for ceramic tiles and stone cladding. He explains the specifics of gel adhesives, and he also draws attention to the need to follow the best construction practices when laying tiles.
EN
The aim of this article was to determine the effect of principal component analysis on the results of classification of spongy tissue images. Four hundred computed tomography images of the spine (L1 vertebra) were used for the analyses. The images were from fifty healthy patients and fifty patients diagnosed with osteoporosis. The obtained tissue image samples with a size of 50x50 pixels were subjected to texture analysis. As a result, feature descriptors based on a grey level histogram, gradient matrix, RL matrix, event matrix, autoregressive model and wavelet transform were obtained. The results obtained were ranked in importance from the most important to the least important. The first fifty features from the ranking were used for further experiments. The data were subjected to the principal component analysis, which resulted in a set of six new features. Subsequently, both sets (50 and 6 traits) were classified using five different methods: naive Bayesian classifier, multilayer perceptrons, Hoeffding Tree, 1-Nearest Neighbour and Random Forest. The best results were obtained for data on which principal components analysis was performed and classified using 1-Nearest Neighbour. Such an algorithm of procedure allowed to obtain a high value of TPR and PPV parameters, equal to 97.5%. In the case of other classifiers, the use of principal component analysis worsened the results by an average of 2%.
PL
Celem niniejszego artykułu było określenie wpływu analizy głównych składowych na wyniki klasyfikacji obrazów tkanki gąbczastej. Do analiz wykorzystano czterysta obrazów tomografii komputerowej kręgosłupa (kręg L1). Obrazy pochodziły od pięćdziesięciu zdrowych pacjentów oraz pięćdziesięciu pacjentów ze zdiagnozowaną osteoporozą. Uzyskane próbki obrazowe tkanki o wymiarze 50x50 pikseli poddano analizie tekstury. W wyniku tego otrzymano deskryptory cech oparte na histogramie poziomów szarości, macierzy gradientu, macierzy RL, macierzy zdarzeń, modelu autoregresji i transformacie falkowej. Otrzymane wyniki ustawiono w rankingu ważności od najistotniejszej do najmniej ważnej. Pięćdziesiąt pierwszych cech z rankingu wykorzystano do dalszych eksperymentów. Dane zostały poddane analizie głównych składowych wskutek czego uzyskano zbiór sześciu nowych cech. Następnie oba zbiory (50 i 6 cech) zostały poddane klasyfikacji przy użyciu pięciu różnych metod: naiwnego klasyfikatora Bayesa, wielowarstwowych perceptronów, Hoeffding Tree, 1-Nearest Neighbour and Random Forest. Najlepsze wyniki uzyskano dla danych, na których przeprowadzono analizę głównych składowych i poddano klasyfikacji za pomocą 1-Nearest Neighbour. Taki algorytm postępowania pozwolił na uzyskanie wysokiej wartości parametrów TPR oraz PPV, równych 97,5%. W przypadku pozostałych klasyfikatorów zastosowanie analizy głównych składowych pogorszyło wyniki średnio o 2%.
EN
The work combines methods of multidimensional polarization microscopy, statistical processing of data and inductive modeling with the purpose of constructing a methodology for creation of intelligent systems for multi-level forensic medical monitoring based on the example of the post-mortem diagnosis of coronary heart disease and acute coronary insufficiency. The task of classifying the results of the study of biological materials for obtaining a diagnosis was solved. To obtain informative features, a model of biological tissue of the myocardium was developed and the main diagnostic parameters were determined (statistical moments of 1–4 orders of coordinate distributions of the values of azimuths and the ellipticity of polarization and their autocorrelation functions, as well as wavelet coefficients of the corresponding distributions), which are dynamic due to its necrotic changes. The classification of these data was provided by constructing a deciding rule in the multi –raw algorithm of the GMDH. The effectiveness of the described methodology has been experimentally proved.
PL
Praca łączy metody wielowymiarowej mikroskopii polaryzacyjnej, statystycznego przetwarzania danych i modelowania indukcyjnegow celu skonstruowania metodologii tworzenia inteligentnych systemów wielopoziomowego monitorowania w medycyniesądowej na przykładzie pośmiertnej diagnozy choroby wieńcowej i ostrej niewydolności wieńcowej. Wykonano zadanie sklasyfikowania wyników badań materiałów biologicznych w celu uzyskania diagnozy. Aby uzyskać cechy informacyjne, opracowano model tkanki biologicznej mięśnia sercowego i określono główne parametry diagnostyczne (momenty statystyczne 1–4 rzędów współrzędnych rozkładów wartości azymutów i eliptyczności polaryzacji oraz ich funkcji autokorelacji,a także jako współczynniki falkowe odpowiadających im rozkładów), które są dynamiczne z powodu jego zmian nekrotycznych. Klasyfikacja tych danych została zapewniona przez skonstruowanie decydującej reguły w algorytmie multi-raw GMDH. Skuteczność opisanej metodologii została eksperymentalnie udowodniona.
16
EN
The dynamic development of digital technology allows for fast processing of geospatial information for military and civilian applications. Updating geospatial information is an important source of development for today’s economy, based on the freedom of access to databases, and obtaining data using images in different ranges of the electromagnetic spectrum is a comprehensive solution for spatial analysis. Dissemination of research on image acquisition and image processing allows placing sensors at different heights above the Earth’s surface [Dąbrowski et al. 2010]. Technological progress allows greater flexibility in the implementation of commissions that enable, over time, obtaining data in an increasingly economical way. An example of technological optimization is the UAV – the unmanned aerial vehicle – technique, which makes it possible to compete with traditional imaging tasks using aerial photographs [Bareth et al. 2015]. Remote sensing applications are becoming more and more common. This is due to the increase in the capacity of photosensitive matrices, which translates into an increase in image resolution. Due to the tendency towards improvement, better image quality, and increasingly sophisticated algorithms for multispectral image analysis, remote sensing applications will constitute an increasing range of services. The factor favouring the satellite technique is the occurrence of continuous shooting in a short time interval, which affects the popularization of this technique due to the gathering and updating of the collection. By using various techniques, a quantitative and qualitative analysis will be made, coupled with an assessment of the accuracy of the location of objects, costs and efficiency for each method. Remote sensing is based on the classification of objects. Classes represent the respective values from the intervals, in which different wavelengths interact with the object through reflection, absorption or transmission.
PL
Dynamiczne rozwijanie się techniki cyfrowej pozwala na szybkie przetwarzanie informacji geoprzestrzennej, pod kątem militarnego jak i cywilnego zastosowania. Aktualizowanie informacji geoprzestrzennych stanowi ważne źródło rozwoju dzisiejszej gospodarki, opartej na swobodzie dostępu do baz danych, a pozyskanie danych za pomocą obrazów w różnych zakresach spektrum elektromagnetycznego stanowi kompleksowe rozwiązanie do analiz przestrzennych. Rozpowszechnianie się badań naukowych na temat pozyskania i przetwarzania obrazów pozwala na umieszczania sensorów na różnych wysokościach nad powierzchnią Ziemi [Dąbrowski i inni, 2010]. Postęp technologiczny pozwala na większą elastyczność przy realizacji zamówień, które z biegiem czasu pozwalają na coraz korzystniejszą ekonomię pracy w pozyskiwaniu danych. Przykładem optymalizacji technologicznej staje się technika bezzałogowych statków powietrznych UAV, która pozwala konkurować z tradycyjnymi zadaniami wykonywania obrazów za pomocą zdjęć lotniczych [Bareth i inni, 2015]. Zastosowania teledetekcyjne stają się coraz bardziej powszechne. Wynika to ze wzrostu pojemności matryc światłoczułych, co przekłada się na wzrost rozdzielczości. Dzięki tendencji polepszania, jakości obrazów oraz algorytmów do analiz obrazów wielospektralnych, zastosowania teledetekcyjne będą stanowić coraz większy zakres usług. Czynnikiem sprzyjającym dla techniki satelitarnej jest występowanie ciągłości wykonywania zdjęć w niewielkim odstępie czasowym, co wpływa na popularyzowanie tej techniki ze względu na gromadzenie i uaktualnianie zbioru. Dzięki zastosowaniu różnych technik, zostanie dokonana analiza ilościowa i jakościowa, ocena dokładności położenia obiektów, kosztów i efektywności dla każdej z metod. Teledetekcja opiera się na klasyfikacji obiektów. Klasy reprezentują odpowiednie wartości z przedziałów, w których różne długości fal wchodzą w interakcje z danym obiektem poprzez odbicie, absorpcję lub transmisję.
PL
Od momentu wejścia Polski do Unii Europejskiej wprowadzona została europejska klasyfikacja kominów i systemów kominowych. Wprowadzone zostały podstawowe wymagania dla kominów jako wyrobów budowlanych, w tym m.in. wymagania dotyczące bezpieczeństwa konstrukcji, bezpieczeństwa pożarowego, odpowiedniej izolacyjności kominów. Wprowadzono również klasy temperaturowe i klasy ciśnieniowe kominów. W artykule przedstawiono klasyfikację oraz wymagania dla kominów i systemów kominowych jakie obowiązują na terenie Unii Europejskiej.
EN
Since Poland's accession to the European Union, a European classification of chimneys and chimney systems has been introduced. Basic requirements for chimneys as construction products have been introduced, including requirements for structural safety, fire safety, adequate insulation of chimneys. Chimney temperature and pressure classes were also introduced. The article presents the classification and requirements for chimneys and chimney systems that are in force in the European Union.
EN
The traditional education quality detection method is too single and unreasonable, which is not suitable to evaluate students' ability comprehensively. In this paper, the probabilistic neural network (PNN) algorithm is used to detect the education quality by considering the important impact between the various achievements of students. PNN algorithm originates from Bayesian decision rule, and it uses the non-linear Gaussian Parzen window as the probability density function. As PNN model has the virtues of strong nonlinear and anti-interfering ability, it is fit to detect the education quality by classifying the students' achievements. Besides, the influences of different evaluation models on classification accuracy and efficiency are also discussed in this paper. Furthermore, the effect of spread value on PNN model is also discussed. Finally, the actual data are used to detect the education quality. Experimental results show that the detection accuracy can reach 95%, and the detection time is only 0.0156s based on the proposed method. That is to say, the method is a very practical detection algorithm with high accuracy and efficiency. Moreover, it also provides a reference for how to further improve the teaching quality.
PL
W artykule sklasyfikowano źródła energii i metody konwersji odnawialnych źródeł energii. Przedstawiono oraz porównano wybrane z nich, takie jak: fotowoltaika, siłownie wiatrowe, pompy ciepła oraz biomasy.
EN
The article classifies energy sources and conversion methods for renewable energy sources. Selected of them, such as photovoltaics, wind farms, heat pumps and biomass were presented and compared.
EN
Electroencephalogram (EEG) signal of two healthy subjects that was available from literature, was studied using the methods of machine learning, namely, decision trees (DT), multilayer perceptron (MLP), K-nearest neighbours (kNN), and support vector machines (SVM). Since the data were imbalanced, the appropriate balancing was performed by Kmeans clustering algorithm. The original and balanced data were classified by means of the mentioned above 4 methods. It was found, that SVM showed the best result for the both datasets in terms of accuracy. MLP and kNN produce the comparable results which are almost the same. DT accuracies are the lowest for the given dataset, with 83.82% for the original data and 61.48% for the balanced data.
first rewind previous Strona / 31 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.