Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  ekstrakcja informacji
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Scratch recognition and analysis of gravity field in Chinese continent
EN
Applying the scratch recognition method to regional gravity fields, we defend the ridge and edge coefficient for delineation of the deformation belts and the tectonic boundaries, which are able to recognize characteristic parameters about crustal scratches contained in regional gravity field. The tests on theoretical models prove that our method is correct and applicable. After performing this procedure to Bouguer gravity field of Chinese continent, we obtain the resulting scratch maps for locating the crustal deformation belts. Finally, by comparing the known deformation belts in Chinese continent with these crustal scratches, we try to find the correlation between these scratches and the Phanerozoic crustal deformation belts. Comparison between the calculated crustal scratches and different types of deformation belts in Chinese continent shows that the strong and long scratches are correlated with most of mature plate collisional zones, strike-slip fault zones and large crustal detachments in Phanerozoic, which have been found by Chinese geologists. Thus, the scratch procedure is meaningful for recognizing the crustal deformation belts and useful for locating tectonic boundaries. However, young and active deformation faults are usually correlated with rather weak scratches as they are not mature enough.
EN
This paper introduces the concept of creating a model for population density prediction and presents the work done so far. The unit of reference in the study is more the population density of a location rather than tracking human movements and habits. Heterogeneous open data, which can be obtained from the World Wide Web, was adopted for the analysis. Commercial telephony data or social networking applications were intentionally omitted. Both for data collection and later for modeling the potential of artificial neural networks was used. The potential of detection models such as YOLO or ResNet was explored. It was decided to focus on a method of acquiring additional data using information extraction from images and extracting information from web pages. The BDOT database and statistical data from the Central Statistical Office (polish: GUS) were adopted for the base model. It was shown that the use of street surveillance cameras in combination with deep learning methods gives an exam.
PL
W niniejszej pracy przedstawiono koncepcję stworzenia modelu do predykcji gęstości ludności oraz przedstawiono wykonane dotychczas prace. Jednostką odniesienia w badaniach jest bardziej gęstość ludności w danym miejscu niż śledzenie ruchów i nawyków człowieka. Do analizy przyjęto heterogeniczne otwarte dane, które można pozyskać z sieci WWW. Celowo pominięto komercyjne dane telefonii czy aplikacji społecznościowych. Zarówno do gromadzenia danych jak i później do modelowania wykorzystano potencjał sztucznych sieci neuronowych. Zbadano potencjał modeli detekcyjnych takich jak YOLO czy ResNet. Postanowiono skupić się na metodzie pozyskiwania dodatkowych danych z wykorzystaniem ekstrakcji informacji z obrazu oraz pozyskiwania informacji ze stron WWW. Do modelu bazowego przyjęto bazę danych BDOT oraz dane statystyczne z GUS. Wykazano, że wykorzystanie kamer monitoringu ulic w połączeniu z metodami głębokiego uczenia daje egzamin.
EN
Recognizing textual entailment (RTE) became a well established and widely studied task. Partial textual entailment -- and faceted textual entailment in particular -- belong to tasks that are derived from RTE. Although there exist many annotated corpora for the original RTE problem, faceted textual entailment is in the sense of easy-accessible corpora highly neglected. In this paper, we present a semi-automatic approach to deriving corpora for faceted entailment task from a general RTE corpus using open information extraction (open IE) tools.
4
EN
The process of Information Extraction (IE) allows us to retrieve different types of information from natural language text by processing them automatically. Ontology-based information extraction (OBIE) is a subfield of information extraction. An increasing number of existing OBIE system may cause a problem with selection the most suitable solution. The general aim of this paper is to provide an approach for OBIE system selection and evaluation. It should ensure knowledge systematization and help users to find a proper solution that meets their needs.
PL
Zastosowanie ekstrakcji informacji pozwala na pozyskiwanie różnych typów informacji w języku naturalnym, jednocześnie umożliwiając automatyczne jego przetwarzanie. Systemy ekstrakcji informacji oparte na ontologiach są poddziedziną ekstrakcji informacji. Rosnąca ich liczba oraz różnorodność podkreślają ważność problemu, jednocześnie wskazując na możliwość występowania problemu związanego z ich doborem. Celem artykułu jest prezentacja podejścia wspierającego proces doboru i oceny systemów ekstrakcji informacji opartego na ontologiach.
PL
W artykule opisano proces projektowania systemu ekstrakcji informacji SEI. Projektowanie tego systemu bazuje na regułach oraz zastosowaniu formalnej analizy pojęć do ich odpowiedniego ułożenia w bazie wiedzy opisywanego systemu.
EN
This article describes a design process of information extraction system IES. The proposed projecting method is based on rules and formal concept analysis.
PL
Tematem niniejszego artykułu jest przegląd metod i narzędzi służących reprezentacji i przetwarzaniu informacji, która jest aktualnie jednym z podstawowych środków budowania i zarządzania w każdej organizacji. Sprawne funkcjonowanie każdej instytucji uzależnione jest od dostępu do przechowywanej w niej wiedzy, jak również możliwości sprawnego jej wyszukiwania, systematyzowania i podejmowania na jej podstawie nowych decyzji.
EN
The theme of this article is to review methods and tools for representing and processing information, which is currently one of the principal means of building and management in any organization. The smooth functioning of any institution is dependent on access to knowledge stored in it, as well as the possibility of an efficient search, structuring and making the new decisions based on it.
PL
W eksploracji danych tekstowych z dużym powodzeniem stosuje się probabilistyczne modele dokumentów. W artykule przedstawiony został jeden z podstawowych, dla tej dziedziny informatyki, sposobów reprezentacji dokumentu za pomocą ukrytych modeli Markowa. Przedstawiono definicję ukrytego modelu Markowa oraz sposób wyznaczenia podstawowych wielkości związanych z wykorzystaniem tego modelu, takich jak prawdopodobieństwo wystąpienia obserwowanej sekwencji symboli (słów), wyszukanie najbardziej prawdopodobnej sekwencji stanów procesu, czy też formuły reestymacji parametrów modelu używane w procesie uczenia modelu.
EN
In the text mining applications probabilistic models of document are widely used. In this paper the Hidden Markov Models were described as a fundamental method for text processing. Definition of the HMM was presented and the algorithms to find parameters of the model. Some of the possible applications of HMM were suggested.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.