Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  wydobywanie danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
"Data scraping" is a term usually used in Web browsing to refer to the automated process of data extraction from websites or interfaces designed for human use. Currently, nearly two thirds of Net traffic are generated by bots rather than humans. Similarly, Deep Convolutional Neural Networks (CNNs) can be used as artificial agents scraping cities for relevant contexts. The convolutional filters, which distinguish CNNs from the Fully-connected Neural Networks (FNNs), make them very promising candidates for feature detection in the abundant and easily accessible smart-city data consisting of GIS and BIM models, as well as satellite imagery and sensory outputs. These new, convolutional city users could roam the abstract, digitized spaces of our cities to provide insight into the architectural and urban contexts relevant to design and management processes. This article presents the results of a query of the state-of-the-art applications of Convolutional Neural Networks as architectural “city scrapers” and proposes a new, experimental framework for utilization of CNNs in context scraping in urban scale.
PL
„Data scraping” to termin używany zazwyczaj w kontekście ruchu sieciowego, oznaczający proces automatycznej ekstrakcji danych ze stron internetowych i interfejsów, zaprojektowanych do stosowania przez człowieka. Obecnie blisko dwie trzecie ruchu internetowego jest generowanych przez boty, a nie przez ludzi. Na podobnej zasadzie głębokie splotowe sieci neuronowe (CNN) mogą być stosowane jako narzędzia wyszukujące w miastach stosowne konteksty urbanistyczne. Filtry splotowe, odróżniające CNN od sieci w pełni połączonych (FNN), sprawiają, że są one obiecującymi kandydatami do wykrywania cech ukrytych w zasobnych i łatwo dostępnych danych smart city, składających się z modeli GIS i BiM oraz obrazów satelitarnych oraz innych danych sensorycznych. Filtry splotowe mogą przemierzać abstrakcyjne, cyfrowe przestrzenie naszych miast, dostarczając kontekstów przydatnych w projektowaniu oraz zarządzaniu architektoniczno-urbanistycznym. Artykuł prezentuje wyniki kwerendy źródeł dotyczących najnowszych zastosowań splotowych sieci neuronowych w wydobywaniu danych miejskich i proponuje nowe, eksperymentalne ramy dla wykorzystania CNN w ekstrakcji kontekstów urbanistycznych.
2
Content available remote Thespis: Causally-consistent OLTP
EN
Data Consistency defines the validity of a data set according to some set of rules, and different levels of data consistency have been proposed. Causal consistency is the strongest type of consistency possible when data is stored in multiple locations, and fault tolerance is desired. Thespis is a middleware that leverages the Actor model to implement causal consistency over a DBMS, whilst abstracting complexities for application developers behind a REST interface. ThespisTRX is an extension that provides read-only transaction capabilities, whilst ThespisDIIP is another extension that handles distributed integrity invariant preservation. Here, we analyse standard transactional workloads on the relational data model, which is richer than the key-value data model supported by the Thespis interface. We show the applicability of the Thespis approach for this data model by designing new operations for the Thespis interface, which ensure correct execution of such workloads in a convergent, causally consistent distributed environment.
EN
The aim of the study was to evaluate the possibility of applying different methods of data mining to model the inflow of sewage into the municipal sewage treatment plant. Prediction models were elaborated using methods of support vector machines (SVM), random forests (RF), k-nearest neighbour (k-NN) and of Kernel regression (K). Data consisted of the time series of daily rainfalls, water level measurements in the clarified sewage recipient and the wastewater inflow into the Rzeszow city plant. Results indicate that the best models with one input delayed by 1 day were obtained using the k-NN method while the worst with the K method. For the models with two input variables and one explanatory one the smallest errors were obtained if model inputs were sewage inflow and rainfall data delayed by 1 day and the best fit is provided using RF method while the worst with the K method. In the case of models with three inputs and two explanatory variables, the best results were reported for the SVM and the worst for the K method. In the most of the modelling runs the smallest prediction errors are obtained using the SVM method and the biggest ones with the K method. In the case of the simplest model with one input delayed by 1 day the best results are provided using k-NN method and by the models with two inputs in two modelling runs the RF method appeared as the best.
PL
Celem pracy jest ocena możliwości zastosowania różnych metod data mining do modelowania dopływu ścieków do komunalnej oczyszczalni ścieków. Do opracowania modeli statystycznych metodą wektorów nośnych, lasów losowych, k – najbliższego sąsiada i regresji Kernela wykorzystano szeregi pomiarowe dobowych wartości opadów deszczu, stanów wody w odbiorniku oraz dopływów do komunalnej oczyszczalni ścieków w Rzeszowie. Z obliczeń wykonanych metodami SVM, RF, k-NN i K wynika, że dla modeli z jedną zmienną objaśniającą opóźnioną o dobę w stosunku do wartości dopływu, najlepsze wyniki otrzymano modelem autoregresyjnym bazującym na metodzie k-NN a najgorsze regresją Kernela. W przypadku modeli z dwoma zmiennymi objaśniającymi najmniejsze wartości błędów uzyskano, dla modeli uwzględniających dopływ ścieków i całkowitą wysokość opadu deszczu z jednodobowym opóźnieniem; najlepsze wyniki uzyskano metodą RF a najgorsze regresji Kernela. Dla modeli z dwiema zmiennymi objaśniającymi, ale trzema sygnałami wejściowymi, najmniejsze błędy dopływu ścieków do OŚ uzyskano metodą SVM, a najgorsze regresji Kernela. Z wykonanych symulacji stwierdzono, że w większości przypadków najmniejsze wartości błędów dopływu ścieków do oczyszczalni otrzymano metodą SVM a największe metodą K. W przypadku najprostszego modelu z jednym sygnałem wejściowym opóźnionym o 1 dobę najlepsze wyniki obliczeń uzyskano metodą k-NN, a w dwóch przypadkach modeli, gdzie ujęto 2 sygnały wejściowe, najlepsza okazała się metoda RF.
PL
W referacie przedstawiono metodykę oraz wyniki badań wpływu oddziaływań eksploatacji górniczej na zabudowę powierzchni, które zostały przeprowadzone w ostatnich latach w Katedrze Geodezji Inżynieryjnej i Budownictwa AGH. Obejmowały one modelowanie przebiegu zużycia technicznego budynków metodami uczenia maszynowego oraz analizę zakresu i intensywności ich uszkodzeń z zastosowaniem metod eksploracji danych. Uzyskane wyniki potwierdzają przydatność zastosowanych metod do rozwiązywania zagadnień związanych z budownictwem na terenach górniczych.
EN
This paper presents the methodology and results of the studies on the influence of mining impacts on developments located in mining areas, which have been performed in recent years at the Department of Engineering Surveying and Civil Engineering of AGH University of Science and Technology. The studies included modeling the course of technical wear of buildings, by the methods of machine learning, as well as the analysis of the scope and intensity of their damage with the methods of data mining. The obtained results confirm the usefulness of the methods to solve the issues related to construction in mining areas.
PL
W artykule przedstawiony jest system SWAN (Semantic Web Analyzer) wyszukujący w Internecie informacje zapisane w formatach RDF i OWL, stworzonych na potrzeby Internetu Semantycznego. Informacje znalezione przez system SWAN zapisywane są w relacyjnej bazie danych, co umożliwia ich dalsze przetwarzanie i wykorzystanie.
EN
In this article the SWAN system (Semantic Web Analyzer) is presented. This system is designed for searching the Web information stored in RDF and OWL formats developed for the Semantic Web. The data found by SWAN are stored in a relational database, allowing for their further processing and using.
EN
Relational database systems became the predominant technology for storing, handling, and quering data only after great improvement in the efficiency of query evaluation in such systems. The key factor in this improvement was the introduction and development of a number of query optimization techniques. Query optimizers draw upon many sources of information about the database to optimize queries. Among these sources, they employ integrity constraints in the query rewrite process. These rewrites have been seen to offer tremendous cost improvements for certain types of queries in standard, common workloads and databases. A disadvantage of these techniques though is that the semantic characterizations they require are not always available as integrity constraints associated with the database. Our key objective in this work is to discover regularities in stored data using data mining techniques, and then to extract and use them for the purpose of query optimization. We call such regularities soft constraints. Soft constraints are not meant to protect the integrity of the database as do integrity constraints; but like integrity constraints, they do semantically characterize the database. As certain types of integrity constraints are now used in query optimization, soft constraints can be used in the optimizer in the same way. If there are any usefull characterizations of the database valid with respect to the current state of the database and useful for the optimizer with respect to the workload, but which are not truly integrity constraints (that is, the database designer has no reason to specify these as rules), then these could be expressed as soft constraints.
PL
Relacyjne bazy danych stały się dominująca technologią służącą przechowywaniu i przetwarzaniu danych dopiero wówczas, gdy znacząco usprawniono wykonywanie zapytań w takich systemach. Głównym czynnikiem postępu w tej dziedzinie było wprowadzenie i usprawnienie dużej liczby technik służących optymalizacji zapytań. Jedną z takich technik jest semantyczna optymalizacja zapytań. Polega ona na wykorzystaniu informacji semantycznej dostępnej w postaci ograniczeń integralnościowych. Główną przeszkodą, w drodze do pełnego wykorzystania możliwości zawartych w ograniczeniach w procesie optymalizacji jest problem braku ich specyfikacji w rzeczywistych bazach danych. W niniejszej pracy proponujemy zastosowanie w procesie optymalizacji nowego typu ograniczeń integralnościowych, tak zwanych miękkich ograniczeń integralnościowych. Ograniczeniami miękkimi nazywamy ograniczenia wykryte w rzeczywistych bazach danych przy użyciu technik eksploracji danych. Miękkie ograniczenia integralnościowe podobne są w swej formie do tradycyjnych ograniczeń integralnościowych, ale pełnią inną rolę. Nie specyfikują one formalnie legalnych stanów bazy danych i mogą zostać unieważnione przez kolejne operacje aktualizacji bazy danych. Główną ideą tej pracy jest teza, że tak zdefiniowane miękkie ograniczenia integralnościowe mogą być z powodzeniem wykorzystywane w procesie optymalizacji pytań.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.