Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  search engines
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Search Result Clustering Based on Query Context
EN
This paper introduces a novel, interactive and exploratory, approach to information retrieval (search engines) based on clustering. Presented method allows users to change the clustering structure by applying a free-text clustering context query that is treated as a criterion for documentto- cluster allocation. Exploration mechanisms are delivered by redefining the interaction scenario in which the user can interact with data on the level of topic discovery or cluster labeling. In this paper, the presented idea is realized by a graph structure called the Query-Summarize Graph. This data structure is useful in the definition of the similarity measure between the snippets as well as in the snippet clustering algorithm. The experiments on real-world data are showing that the proposed solution has many interesting properties and can be an alternative approach to interactive information retrieval.
2
Content available remote Old and New Algorithms for Minimal Coverability Sets
EN
Many algorithms for computing minimal coverability sets for Petri nets prune futures. That is, if a newmarking strictly covers an old one, then not just the old marking but also some subset of its successor markings is discarded from search. In this publication, a simpler algorithm that lacks future pruning is presented and proven correct. Its performance is compared with future pruning. It is demonstrated, using examples, that neither approach is systematically better than the other. However, the simple algorithm has some attractive features. It never needs to re-construct pruned parts of the minimal coverability set. It automatically gives most of the advantage of future pruning, if the minimal coverability set is constructed in depth-first or most tokens first order, and if so-called history merging is applied. Some implementation aspects of minimal coverability set construction are also discussed. Some measurements are given to demonstrate the effect of construction order and other implementation aspects.
3
Content available remote A Sweep-Line Method for Büchi Automata-based Model Checking
EN
The sweep-line method allows explicit state model checkers to delete states from memory on-the-fly during state space exploration, thereby lowering the memory demands of the verification procedure. The sweep-line method is based on a least-progress-first search order that prohibits the immediate use of standard on-the-fly Büchi automata-based model checking algorithms that rely on a depth-first search order in the search for an acceptance cycle. This paper proposes and experimentally evaluates an algorithm for Büchi automata-based model checking compatible with the search order and deletion of states prescribed by the sweep-line method.
EN
The paper is concerned with a new type of user interface to search engines. Instead of presenting search results in a form of a ranked list, the results are presented in radial arrangement. In the center of the interface the most relevant web page is presented. Other web pages are located around the central one. The location of a web page depends on two factors: its relevance to the query and its content. The relevance has influence on the pages' proximity to the center and the content determines the direction in which web pages are located. The proposed interface has many features which support users in exploring search results including keywords that inform about the subjects of the web pages located in different directions. The design of the interface borrows from Self Organizing Maps (SOM), however the interface has advantages of a typical ranked list.
PL
Artykuł opisuje nowy rodzaj interfejsu do wyszukiwarek internetowych. Wyniki wyszukiwania są na nim ułożone wzdłuż rozchodzących się promieni. W środku interfejsu znajduje się strona internetowa uznana przez wyszukiwarkę za najbardziej adekwatną do zapytania użytkownika. Pozostałe strony są umieszczone wokół niej. Lokalizację strony internetowej na interfejsie określają przez dwa czynniki: adekwatność do zapytania oraz temat, z jakim strona jest związana. Adekwatność ma wpływ na odległość strony od środka interfejsu, natomiast temat strony wpływa na kierunek, w którym strona zostaje umieszczona. Opracowany interfejs zawiera wiele opcji ułatwiających użytkownikom korzystanie z niego. Między innymi umieszczone są słowa kluczowe wskazujące na to, jakiego rodzaju strony umieszczone są w poszczególnych kierunkach. Struktura interfejsu wywodzi się z tzw. map samoorganizujących się (ang. Self Organizing Maps), jednak interfejs posiada również zalety stosowanych powszechnie w wyszukiwarkach list zawierających wyniki wyszukiwania.
5
Content available remote Internetowe mapy biznesowe - badania w obszarze automatyki i pomiarów
PL
W artykule przedstawiono niestandardowy sposób wykorzystania zasobów Internetu do znajdowania nowych i odkrywania istniejących kontaktów biznesowych - kontrahentów, kooperantów, dystrybutorów. Znane z badań marketingowych i nauk o sieciach społecznych metody zastosowano do badania linków internetowych. Analizie poddano grupę 37 firm działających na polskim rynku w obszarze automatyki i pomiarów - i ich stron internetowych. Badania przeprowadzono z wykorzystaniem powszechnie stosowanych internetowych systemów wyszukiwawczych - Google, Yahoo! oraz Live Search Microsoft. Wykorzystano metodę skalowania wielowymiarowego, która pozwoliła wizualizować wyniki na mapie 2D.
EN
The article presents a non-standard technique of using the Internet resources for finding new and discovering existing business contacts - contractors, partners and distributors. In the survey to identify web link connections, methods used in marketing research and social network sciences have been employed. The analysis has been based on 37 enterprises trading on the Polish market in the field of automation and measurement systems and their web pages. The research has been conducted using the most popular Internet search engines - Google, Yahoo! and Live Search Microsoft. Multidimensional scaling method allowed to visualize the results achieved in the form of a 2D maps.
EN
With the rapid expansion of the World Wide Web, the need for efficient data retrieval strategies becomes stronger and will be still growing. Unfortunately classical information retrieval techniques, developed for well-organized collections of textual data do not seem to be able to cope with diversity and amount of information available throughout the Internet. This paper presents some of the newest approaches to information retrieval in large, unstructured hypertext spaces - such as WWW - that focus more on latent information embedded in hyperlinks and document structure, then on actual understanding of Web pages textual content. These techniques, that are marking the new trends and prospects for the Internet technology, have been given recently the name "Web mining", as in fact they are examples of unsupervised machine learning similar to data mining and text mining. Here we discuss methods belonging to the following three groups: link topology analysis, statistical text analysis and query languages and systems design.
PL
Wraz z gwałtownym zwiększaniem się zasobów WWW wzrasta również potrzeba opracowania efektywnych strategii wyszukiwania danych. Klasyczne metody dostosowane do dobrze zorganizowanych struktur danych tekstowych wydają się być niewystarczające w przypadku danych zawartych w Internecie. Niniejszy artykuł prezentuje najnowsze podejścia do wyszukiwania informacji dostępnej w dużych hipertekstowych strukturach danych jak WWW i skupia się na informacji dostępnej w połączeniach pomiędzy stronami WWW oraz rozumieniu zawartości tekstowej stron WWW. Prezentowane metody uzyskały ostatnio angielską nazwę "Web mining" i są przykładem samodzielnego pozyskiwania wiedzy przez maszyny. Dyskutowane metody należą do trzech grup: analizy topologii połączeń, analizy statystycznej tekstu i języków zapytań oraz projektowania systemów.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.