Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  analiza automatyczna
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The paper presents research on storing text cytogenetic tests data conducted with GTG and FISH methods for browsing and automatic processing of its string results. It presents analysis of the text cytogenetic test result and a two proposal structures of the databases (the storing data and the analytical one) used for anonymised text GTG and FISH cytogenetic test results storing and their processing. Presented structures were queried with known chromosome aberrations for T-cell acute lymphoblastic leukaemia (T-ALL), B-cell acute lymphoblastic leukaemia (B-ALL) and both T-ALL and B-ALL in the proposed database. Additionally, the analytical database was filled with the set of Mittelman database results and browsed with non-standard queries. Conducted tests demonstrated that the proposed analitical structure is useful for GTG and FISH cytogenetic test results text mining.
EN
Real time monitoring of engineering structures in case of an emergency of disaster requires collection of a large amount of data to be processed by specific analytical techniques. A quick and accurate assessment of the state of the object is crucial for a probable rescue action. One of the more significant evaluation methods of large sets of data, either collected during a specified interval of time or permanently, is the time series analysis. In this paper presented is a search algorithm for those time series elements which deviate from their values expected during monitoring. Quick and proper detection of observations indicating anomalous behavior of the structure allows to take a variety of preventive actions. In the algorithm, the mathematical formulae used provide maximal sensitivity to detect even minimal changes in the object’s behavior. The sensitivity analyses were conducted for the algorithm of moving average as well as for the Douglas-Peucker algorithm used in generalization of linear objects in GIS. In addition to determining the size of deviations from the average it was used the so-called Hausdorff distance. The carried out simulation and verification of laboratory survey data showed that the approach provides sufficient sensitivity for automatic real time analysis of large amount of data obtained from different and various sensors (total stations, leveling, camera, radar).
3
Content available remote Fast, accurate and robust retinal vessel segmentation system
EN
The accurate segmentation of the retinal vessel tree has become the prerequisite step for automatic ophthalmological and cardiovascular diagnosis systems. Aside from accuracy, robustness and processing speed are also considered crucial for medical purposes. In order to meet those requirements, this work presents a novel approach to extract blood vessels from the retinal fundus, by using morphology-based global thresholding to draw the retinal venule structure and centerline detection method for capillaries. The proposed system is tested on DRIVE and STARE databases and has an average accuracy of 95.88% for single-database test and 95.27% for the cross-database test. Meanwhile, the system is designed to minimize the computing complexity and processes multiple independent procedures in parallel, thus having an execution time of 1.677 s per image on CPU platform.
PL
Artykuł stanowi kontynuację cyklu badań związanych z wykorzystaniem algebraicznych metod identyfikacji słów kluczowych w dokumentach tekstowych. Jego celem jest teoretyczna analiza i empiryczna weryfikacja przydatności użycia metod identyfikacji słów kluczowych opartej na dekompozycji SVD w naukowych tekstach polskojęzycznych.
EN
The article is a continuation of the cycle of studies related to the use of algebraic methods for keywords identification in text documents. Its purpose is to theoretical analysis and empirical verification of the suitability of the use of methods for keywords identification based on SVD decomposition of scientific in Polish texts.
PL
Rozwój społeczeństwa informacyjnego oraz technologii informatycznych pociągnął za sobą w sposób naturalny powstanie zautomatyzowanych systemów wspomagających wyszukiwanie i porządkowanie informacji. W nadmiarze informacji przechowywanych w dokumentach tekstowych dużego znaczenia nabiera możliwość automatycznego identyfikowania słów kluczowych. Artykuł rozpoczyna cykl poświęcony badaniu metod algebraicznych wykorzystywanych do identyfikacji słów kluczowych w polskojęzycznych tekstach naukowych.
EN
Development of the information society and information technology entailed an a natural creation of automated systems supporting find and organize information. Too much information stored in text documents is extremely important to for automatic keywords identification. Article begins a series dedicated to the study of algebraic methods used to for keywords identification in scientific Polish texts.
EN
The article presents the results of search for a text-comparison method applicable for identifying same or similar job of ers. This is done by calculating pairwise similarity metrics between offers using well known metrics (i.e. Levenshtein, Jaro-Winkler and Jaccard). The article assesses the ef ectiveness of the algorithms and their applicability to the task. Issues related to processing of data of the web pages and computational requirements are also discussed.
PL
W artykule przedstawione zostały rezultaty oceny możliwości zastosowań algorytmów porównywania tekstu dla potrzeb identyfikacji identycznych lub podobnych ogłoszeń o pracę. Do porównań wykorzystano klasyczne metryki (Levenshteina, Jaro-Winklera i Jaccarda). Oceniona została skuteczność i możliwość zastosowania tych algorytmów do przedstawionego zadania. Omówione zostały też kwestie analizy danych pobieranych ze stron www oraz niezbędnych nakładów obliczeniowych.
PL
Automatyzacja analizy sygnałów chromatograficznych jest, w ogólnym przypadku, trudnym zadaniem wieloetapowym. Jednym z etapów jest wygładzanie sygnału w celu zmniejszenia wariancji zakłóceń losowych. Od jakości wygładzania zależy efektywność wykrywania pików oraz wyznaczania wstępnych ocen ich parametrów metodą analizy przebiegu pochodnych sygnału chromatograficznego. W pracy do wygładzania sygnału rozważa się procedurę wygładzania wielomianowego wg Savitzky'ego i Golay'a (SG). Optymalny dobór parametrów tej procedury, czyli szerokości okna oraz stopnia wielomianu wygładzającego jest kluczowy dla jakości wygładzania. Automatyzacja wymaga określenia kryterium, wg którego dokonuje się doboru tych parametrów. W tym celu zastosowano i przetestowano kryterium Durbina-Watsona.
EN
Automation of analysis of chromatographic signals is a difficult task generally. One of the stage of the analysis is signal smoothing for purpose of eliminate of random noise. Efficiency of peaks detection procedure depends on quality of the smoothing when features of first and second order derivatives are used for peak detection. In the article Savitzky-Golay smoothing procedure is considered. Optimal choosing of parameters of the procedure is a main factor of quality of smoothing. Automation of calculation of smoothing parameters needs to define a criterion. One of the possible is a Durbin-Watson criterion of quality of smoothing, tested in the article.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.