Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 46

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  wyszukiwanie informacji
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
1
Content available remote Retrieving Sound Samples of Subjective Interest With User Interaction
EN
This paper concerns the retrieval of audio samples with a high degree of user interaction, motivated by a practical use case. We consider an open set recognition scenario in which the goal is to find all occurrences of a subjectively interesting sound selected by a user within a particular audio file. We use only a single starting example and maintain interaction through yes-no answers from the user, indicating whether any new retrieved sound matches the target pattern. We present a small dataset for this task and evaluate a baseline solution based on Nonnegative Matrix Factorization and greedy feature selection.
2
Content available remote Concept Blueprints Serving More Focused User Queries
EN
Information Retrieval is about user queries and strategies executed by machines to find the documents that best suit the user's information need. However, this need reduced to a couple of words gives the retrieval system (IRS) a lot room for interpretation. In order to zero in on the user's need many a IRS expands the user query by implicitly adding or explicitly recommending the users further useful terms that help to specify their information need. Queries often do not comprise more than a handful of terms, which, in turn, do not sufficiently represent the user's need. In this paper, we propose and demonstrate an approach that enables users to resort to implicitly more complex query expressions. We call these semantic structures concept blueprints. Furthermore, users have the possibility to define the blueprints on their own. The purpose of the blueprints is to spot more precisely the text passage that fits the user's information need.
PL
W pracy zaprezentowano przykłady słów kluczowych wybranych publikacji z zakresu elektromagnetyzmu i bhp zindeksowanych w bazach Web of Science Core Collection i Scopus oraz haseł Elektromagnetyzm i Bezpieczeństwo pracy z języka haseł przedmiotowych KABA i Tezaurusa bezpieczeństwo pracy i ergonomia. Wskazano na związek terminów indeksujących z wyszukiwalnością publikacji oraz pośrednio z oceną autorów i jednostek naukowo-badawczych.
EN
The paper presents examples of keywords appearing in selected publications indexed in Web of Science Core Collection and Scopus databases. Also the headings Electromagnetism and Industrial/Occupational safety in two controlled vocabularies, i.e. KABA subject headings system and Thesaurus occupational safety and ergonomics, were presented. The relationship between indexing headings and the searchability of publications was indicated. This relationship has its indirect association with the assessment of authors and scientific-research units.
4
Content available remote Similarity detection based on document matrix model and edit distance algorithm
EN
This paper presents a new algorithm with an objective of analyzing the similarity measure between two text documents. Specifically, the main idea of the implemented method is based on the structure of the so-called “edit distance matrix” (similarity matrix). Elements of this matrix are filled with a formula based on Levenshtein distances between sequences of sentences. The Levenshtein distance algorithm (LDA) is used as a replacement for various implementations of stemming or lemmatization methods. Additionally, the proposed algorithm is fast, precise, and may be implemented for analyzing very large documents (e.g., books, diploma works, newspapers, etc.). Moreover, it seems to be versatile for the most common European languages such as Polish, English, German, French and Russian. The presented tool is intended for all employees and students of the university to detect the level of similarity regarding analyzed documents. Results obtained in the paper were confirmed in the tests shown in the article.
5
Content available remote Information granule system induced by a perceptual system
EN
Knowledge represented in the semantic network, especially in the Semantic Web, can be expressed in attributive language AL. Expressions of this language are interpreted in different theories of information granules: set theory, probability theory, possible data sets in the evidence systems, shadowed sets, fuzzy sets or rough sets. In order to unify the interpretations of expressions for different theories, it is assumed that expressions of the AL language can be interpreted in a chosen relational system called a granule system. In this paper, it is proposed to use information granule database and it is also demonstrated that this database can be induced by the measurement system of the adequacy of information retrieval, called a perceptual system. It can simplify previous formal description of the information granule system significantly. This paper also shows some examples of inducing rough and fuzzy granule databases by some perceptual systems.
6
EN
In this paper, we explain the development of a new Mizar tokenizer and parser program as a component of a search system that works on the Mizar Mathematical Library. The existing Mizar tokenizer and parser can handle only an article as a whole written in the Mizar language, however, the newly developed program can deal with a snippet of a Mizar article. In particular, since it is possible to handle a snippet of an article without specifying a vocabulary section of an environment part, it is expected that user input efforts will be greatly reduced.
7
Content available remote Automatic assessment of narrative answers using information retrieval techniques
EN
This paper presents a system for automatic assessment of narrative answers using information retrieval algorithms. It is designed to help professors to evaluate the answers that they receive from their students. It is a Java application that communicates through a REST API. This REST API has at its core the Lucene library and exposes all the great functionalities that Lucene has. The application has one UI for the students and one UI for the professor. The student will select the professor, select the question, upload the answer and send it. The professor will evaluate the student answer using the algorithms that will be discussed in this paper. Also in this paper a series of experiments will be presented, and their result will give us a better understanding of the algorithms and have a taste of how they work.
8
EN
Corporate reputation is an economic asset and its accurate measurement is of increasing interest in practice and science. This measurement task is difficult because reputation depends on numerous factors and stakeholders. Traditional measurement approaches have focused on human ratings and surveys, which are costly, can be conducted only infrequently and emphasize financial aspects of a corporation. Nowadays, online media with comments related to products, services, and corporations provides an abundant source for measuring reputation more comprehensively. Against this backdrop, we propose an information retrieval approach to automatically collect reputation-related text content from online media and analyze this content by machine learning-based sentiment analysis. We contribute an ontology for identifying corporations and a unique dataset of online media texts labelled by corporations' reputation. Our approach achieves an overall accuracy of 84.4%. Our results help corporations to quickly identify their reputation from online media at low cost.
PL
W artykule opisano wybrane wyniki badań, przeprowadzonych w latach 2016–2017 w ramach międzynarodowej sieci badawczej IRNet (www.irnet.us.edu.pl) przez naukowców z instytucji partnerskich z różnych krajów. Wyniki te dotyczą analizy profilu działalności badawczej i jej oceny uzyskanej na Uniwersytecie Śląskim (Polska) i Uniwersytecie im. Borysa Grinchenki w Kijowie (Ukraina). Badania były prowadzone wśród wykładowców, doktorantów i studentów studiów I stopnia. Artykuł opisuje pewne aspekty teoretyczne kompetencji w zakresie ICT oraz porusza temat kompetencji miękkich, w tym – dotyczących działalności badawczej ze szczególnym uwzględnieniem wykorzystania narzędzi IT do wyszukiwania informacji. Na końcu zaprezentowane wnioski.
EN
This article describes some of the results of research carried out in 2015-2017 as part of the international research network IRNet (www.irnet.us.edu.pl) by researchers from partner institutions from different countries. These results relate to the analysis and research of the research activity profile and its evaluation obtained at the University of Silesia, Poland and at the Boris Grinchenko Kyiv University in Kyiv, Ukraine among lecturers and students. The article contains the theoretical aspects of competence in the field of ICT as well as soft skills, including competences related to research activities with particular emphasis on the use of IT tools and the results of surveys and their analysis. At the end, the conclusions and comments presented.
10
Content available remote Wyszukiwanie informacji dziedzinowej z zastosowaniem multiwyszukiwarki fasetowej
PL
W artykule przedstawiono problematykę wyszukiwania informacji w obszernych zasobach naukowych, udostępnianych instytucjom badawczym w ramach tzw. licencji krajowych (Elsevier, Springer, Wiley i in.) oraz licencji komercyjnych (IEEE/IET, Proquest). Wyszukiwanie informacji o publikacjach ukierunkowane na określenie aktualnego stanu wiedzy i nadążanie za rozwojem dziedziny jest nieodłącznym elementem pracy badawczej, istotnym na każdym jej etapie. Udostępniana przez dostawców charakterystyka tematyki i zawartości poszczególnych baz, a także prezentowane podziały zasobów wiedzy na dziedziny i poddziedziny, stanowią znaczne ułatwienie dla środowisk naukowych, jednak nie są w pełni wystarczające do trafnego wyznaczenia obszaru wyszukiwań i ich efektywnego prowadzenia. Dostrzegana jest przydatność jednoczesnego przeszukiwania udostępnianych, światowych zasobów wiedzy z możliwością selektywnego zawężania zbioru wyników z wykorzystaniem nawigacji fasetowej i jego dalszą, pogłębioną eksplorację. W referacie przedstawiono zarówno korzyści takiego podejścia, wpływającego pozytywnie na jakość uzyskiwanego zbioru wyników wyszukiwania, m.in. poprzez zmniejszenie ryzyka pominięcia istotnych źródeł informacji, jak i jego ograniczenia, wynikające z uwarunkowań dostępu do narzędzi, nadążaniem za rozwojem technologii, niepewności ekonomicznej w kontekście relatywnie wysokich kosztów dostępu.
EN
The paper presents the problem of searching for information in large scientific resources, made available to research institutions within the so-called national licenses (e.g. Elsevier, Springer, Wiley) and commercial licenses (IEEE/IET, Proquest). Searching for information about publications aimed at determining the current state of knowledge and keeping up with the development of the field is an inseparable element of research work, important at every stage. The characteristics and content description of particular databases provided by providers, as well as the presented divisions of knowledge resources into the fields and subfields, are a significant facilitation for the scientific community, but are not fully sufficient to accurately determine the search area of the domain and carry out the effective search. The usefulness of simultaneous searching of shared, global knowledge resources with the possibility of selective narrowing of the set of results with the use of faceted navigation and its further, deep exploration is perceived. The paper presents both the benefits of such an approach, positively affecting the quality of the obtained set of search results, including reducing of the risk of missing important publications, as well as its limitations, resulting from the conditions of access to tools, keeping up with technology development, economic uncertainty in the context of relatively high costs of the access to services.
PL
Systemy discovery są obecne w bibliotekach polskich od ponad czterech lat i liczba ich wdrożeń rośnie. Na początku 2016 r. takimi systemami dysponowało 40 bibliotek akademickich szkół publicznych (42 wdrożenia). W opinii producentów/dystrybutorów tych narzędzi i przedstawicieli bibliotek w których zostały wdrożone, a wydaje się, że także - użytkowników, tego typu systemy cechuje przyjazność i duża sprawność wyszukiwawcza. Celem przeprowadzonych badań było poznanie możliwości implementowanych systemów w bibliotekach akademickich i próba określenia ich efektywności w zakresie wyszukiwania informacji. Eksploracją objęto 34 systemy: EDS (19), PRIMO (11) i SUMMON (4). Realizując kwerendy wyszukiwawcze zwracano uwagę na czynniki, które mają wpływ na kompletność, dokładność i czas wyszukiwania informacji, tj.: jakość danych (metadanych), możliwości systemu i jego przyjazność dla użytkownika oraz dostęp do informacji o zasobach systemu i instrukcje pomocy. Przeprowadzone badanie jest pierwszą tego typu obserwacją nad efektywnością wdrażanych w bibliotekach polskich najnowszych narzędzi wyszukiwawczych. Eksploracja systemów pozwoliła m.in. na wskazanie przyczyn nie najlepszej (w porównaniu z oczekiwaniami) efektywności wyszukiwania. Należą do nich przede wszystkim słaba reprezentacja polskich zasobów naukowych i jakość indeksowanych metadanych. Negatywny wpływ wywierają także „niedociągnięcia” interfejsu oraz brak rzetelnej kastomizacji serwisów, w tym przyjaznej dla użytkownika informacji o systemie (pomocy) i indeksowanych zasobach.
EN
Discovery systems have been present in Polish libraries for over four years, and the number of implementations is increasing. At the beginning of 2016 there were 42 services in 40 academic libraries of public schools. In the opinion of the manufacturers / distributors of these tools, the representatives of the libraries in which the discovery services were implemented and – as it seems – in the opinion of users, such systems are characterized by friendliness and high efficiency of information retrieval. The aim of the study was to investigate the capabilities of these systems and to determine their effectiveness in terms of information retrieval. Thirty-four systems have been explored: EDS (19), PRIMO (11) and SUMMON (4). While querying the systems, the attention was paid to the factors that influence the recall, precision and information retrieval time, i.e. data (metadata) quality, the capabilities and user friendliness of the systems, access to the information about the resources, and help manuals. The study is the first to investigate the effectiveness of the latest search tools implemented in Polish libraries. The system exploration allowed to indicate the reasons for not fully satisfactory search efficiency. Those reasons include the poor representation of Polish scientific resources, the quality of indexed metadata, the shortcomings of the interface, and the lack of good customisation of the services, including user-friendly information about the system (help instructions) and indexed resources.
EN
The article features an architecture concept of a system to search for information in text documents with the use of natural-language queries. The basic element of the proposed solution is the application of query expansion as a method to improve the quality of achieved results. As there are no such tools for the Polish language, the authors proposed how to prepare suitable assets from input data for this purpose. The prepared system will be applied for information search in specialized documents, such as technical and diagnostic documentation of mining machines.
PL
Artykuł przestawia koncepcję architektury systemu wyszukiwania informacji w dokumentach tekstowych, z wykorzystaniem zapytań w języku naturalnym. Zasadniczym elementem proponowanego rozwiązania jest wykorzystanie metody ekspansji zapytań, jako sposobu na poprawę jakości uzyskiwanych wyników. Ponieważ brak jest tego typu narzędzi dedykowanych dla języka polskiego, zaproponowano także sposób przygotowania odpowiednich do tego celu zasobów z danych wejściowych. Przygotowywany system znajdzie zastosowanie w wyszukiwaniu informacji w dokumentach specjalistycznych, jakimi są dokumentacje techniczne i diagnostyczne maszyn górniczych.
13
Content available remote Retrieval and processing of information with the use of multi-agent system
EN
Today the amount of information available in the world is so large that it exceeds significantly the perceptual capacity of a man. The progress of science and increased access to the media, in particular to the Internet, allows an increasing number of people to create and publish their own content. Refer to the information that can be found in our area of interest is limited to read a very small part of the works on the topic. What’s more the overlooked information can be very useful, but selective viewing of the contents and limited time resources prevent the users to meet their information needs. An attempt to solve this problem are multi-agent systems, using intelligent methods of retrieval and processing of information.
14
Content available Przegląd zastosowań analizy text miningowej
PL
W artykule omówiona została eksploracyjna analiza danych tekstowych ze szczególnym naciskiem na zastosowania analizy text miningowej. We współczesnym świecie istnieje wiele różnych branż biznesowych w których pracownicy stykają się z nadmiarem napływających informacji. Rozwój społeczeństwa informacyjnego oraz technologii informatycznych pociągnął za sobą w sposób naturalny powstanie zautomatyzowanych systemów wspomagających wyszukiwanie i porządkowanie informacji. Techniki text miningu znajdują coraz większe zastosowanie, zaś szeroki przegląd zastosowań wraz ze wskazaniem praktycznym możliwości zastosowania analizy text miningowej został dogłębnie omówiony w artykule.
EN
The article discussed the text mining with particular emphasis on the use of text mining analysis. In the modern world there are many different business industries where workers are in contact with an excess of incoming information. The development of the information society and information technology entailed a natural rise of automated systems to support search and organize information. Text mining techniques are increasingly applied, and a broad overview of applications, together with an indication of the practical possibilities of the use of text mining analysis has been thoroughly discussed in the article.
PL
Artykuł przedstawia zagadnienie zastosowania dokumentów muzycznych utworzonych zgodnie z architekturą IODA (ang. Interactive Open Document Architecture). Dokumenty w architekturze IODA składają się z wielu plików powiązanych ze sobą semantycznie. Zależności te definiowane są w tzw. grzbiecie (ang. spine) dokumentu będącym plikiem w formacie XML (ang. eXtensible Markup Language). Dokumenty muzyczne tworzone zgodnie z architekturą IODA zawierają ścieżki dźwiękowe utworów, słowa piosenek, zapis nutowy melodii i inne rodzaje danych. Zastosowanie dokumentów muzycznych IODA rozszerza możliwości wyszukiwania utworów muzycznych. Dzięki architekturze IODA utwory muzyczne można wyszukiwać między innymi na podstawie fragmentów tekstów śpiewanych w utworach oraz na podstawie zapytań QbH (Query by Humming), które są fragmentami melodii występującymi w utworach.
EN
The paper presents the usage of music documents created with respect to the IODA (Interactive Open Document Architecture) architecture. Documents in the IODA architecture consist of many files which are semantically related to each other. Relations are defined in the spine of the document. The spine is a file in the XML (eXtensible Markup Language) format. Music documents created in the IODA architecture contain music tracks, lyrics of songs, musical notations and other kind of data. Taking advantage of IODA music documents extends possibilities of performing the search for music data. The IODA architecture supports the search for songs on the basis of fragments of lyrics and on the basis of queries by humming (QbH) which are fragments of melodies occurring in songs.
EN
Proposed method, called Probabilistic Nodes Combination (PNC), is the method of 2D data interpolation and extrapolation. Nodes are treated as characteristic points of information retrieval and data forecasting. PNC modeling via nodes combination and parameter γ as probability distribution function enables 2D point extrapolation and interpolation. Two-dimensional information is modeled via nodes combination and some functions as continuous probability distribution functions: polynomial, sine, cosine, tangent, cotangent, logarithm, exponent, arc sin, arc cos, arc tan, arc cot or power function. Extrapolated values are used as the support in data forecasting.
PL
Autorska metoda Probabilistycznej Kombinacji Węzłów- Probabilistic Nodes Combination (PNC) jest wykorzystywana do interpolacji i ekstrapolacji dwuwymiarowych danych. Węzły traktowane są jako punkty charakterystyczne informacji, która ma być odtwarzana lub przewidywana. Dwuwymiarowe dane są interpolowane lub ekstrapolowane z wykorzystaniem różnych funkcji rozkładu prawdopodobieństwa: potęgowych, wielomianowych, wykładniczych, logarytmicznych, trygonometrycznych, cyklometrycznych. W pracy pokazano propozycję metody ekstrapolowania danych jako pomoc w przewidywaniu trendu dla nieznanych wartości.
17
PL
Istnieje wiele metod wyszukiwania informacji. Artykuł przedstawia możliwości połączenia tych metod i skonstruowania uniwersalnego, hybrydowego systemu wyszukiwania. W artykule zaproponowana została architektura personalnego agenta wyszukiwania (PAW). Posiada on cechy systemu ekspertowego, wyszukiwarki oraz agenta komputerowego. PAW pozwala na pozyskiwanie informacji personalnych tj. numery telefonów osób znajomych. Ponadto umożliwia pobieranie informacji z sieci Internet oraz służy do przeszukiwania zasobów Internetu w celu znalezienia informacji wskazanych przez użytkownika, np. księgarnie internetowe oferujące książki w najniższej cenie. Personalny agent wyszukiwania rozszerza możliwości wyszukiwarek internetowych.
EN
Many different methods have been designed to search for information. This paper presents possibilities of merging these methods in order to acquire a universal, hybrid information search system. In the paper, a novel architecture of a personal search agent is introduced. The agent has features of an expert system, search engine and a computer agent. The personal agent makes it possible to retrieve different kinds of information. This information includes personal data such as telephone numbers and data available in the Internet. Moreover, the agent can process and analyze groups of web pages in order to find specific data indicated by the user. For example, an agent can search for the lowest prices of books in online bookstores. The personal search agent expands capabilities of search engines.
PL
Rozwój społeczeństwa informacyjnego oraz technologii informatycznych pociągnął za sobą w sposób naturalny powstanie zautomatyzowanych systemów wspomagających wyszukiwanie i porządkowanie informacji. W nadmiarze informacji przechowywanych w dokumentach tekstowych dużego znaczenia nabiera automatyzacja przetwarzania języka naturalnego. Motywacją do badań nad komputerową analizą języka naturalnego jest nie tylko możliwość dialogu z komputerem w języku naturalnym, ale również i przede wszystkim analiza już istniejących tekstów oraz wydobywanie z nich informacji zapisanej w języku sformalizowanym umożliwiając operowanie nią w sposób automatyczny. W artykule dokonano przeglądu wybranych metod analizy dokumentów tekstowych wykorzystujących znane algorytmy wspomagające ich przetwarzanie. Zaprezentowano także wybrane problemy rozpatrywane na gruncie automatycznego przetwarzania języka naturalnego. Przedstawiono wyniki badań wstępnego przetwarzania dokumentów tekstowych na wybranej próbce danych. Docelowo posłużą one jako podstawa do dalszych badań dotyczących badania skuteczności zastosowania wybranych metod algebraicznych do identyfikacji słów kluczowych w dokumentach polskojęzycznych.
EN
Development of the information society and information technology entailed an a natural creation of automated systems supporting find and organize information. Too much information stored in text documents is extremely important to for automatic natural language processing. The motivation for research on computer analysis of natural language is not only an possibility of dialogue with the computer in natural language, but also and above all an analysis of already existing texts and extracting from them the information recorded in the formal language allowing it to operate automatically. In the article reviews of selection methods of analysis of text documents using natural language processing techniques. It also presents some problems dealt with automatic natural language processing. Presents the results of preprocessing of text documents on a selected sample of data. Ultimately, they serve as a basis for further assessment of method effectiveness for keyword identification in Polish texts.
19
EN
In web search engines, such as Google, the ranking of a particular keyword is determined by mathematical tools, e.g., Pagerank or Hits. However, as the size of the network increases, it becomes increasingly difficult to use keyword ranking to quickly find the information required by an individual user. One reason for this phenomenon is the interference of superfluous information with the link structure. The World Wide Web can be expressed as an enormous directed graph. The purpose of the present study is to provide tools for studying the web as a directed graph in order to find clues to the solution of the problem of interference from superfluous information, and to reform the directed graph to clarify the relationships between the nodes.
EN
The main goal of this paper is to discuss the research on heuristic evaluation of visualization in the semantic search of economic information. It is already the fourth experiment with participants. This time in the research we used two applications built in Protégé 4.1: for analysis of Return on Investment (ROI) indicator according to Du Pont model and for multidimensional early warning system. In the article we briefly described semantic networks as visual interface and premises of conducted study. Then we analysed and compared results of these experiments. Finally, we presented conclusions.
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.