W artykule przedstawiono zastosowanie mechanizmów aukcyjnych do sterowania przyjęciem i obsługą żądań w serwisie WWW z jakością usług w dostarczaniu pasma o żądanej przepustowości podczas pobierania zasobu z serwisu. Do rozwiązania zdefiniowanego problemu szeregowania żądań, który jest problemem NP-zupełnym, zaproponowano heurystyczną metodę SBO wykorzystującą mechanizm aukcyjny oraz wariantowe algorytmy wyceny. Prace ewaluacyjne wykonano w rzeczywistym serwisie WWW, porównując dwa algorytmy szeregowania i trzy algorytmy wyceny.
EN
This paper presents applying of auction mechanisms in web service request admission control and scheduling to provide a quality of service e.g. guaranteeing a requested bandwidth during transmission of web resource. A heuristic method SBO to solve this NP-complete scheduling and pricing problems were proposed. Experiments comparing two scheduling algorithms and three pricing rules have been performed in real web service.
In this paper spatial econometric methods were applied in the important real-life performance prediction problem. The authors use these methods to create spatial econometric models for Web server’s performance prediction. Data for prediction were obtained from active measurement experiment performed by MWING system. The analysis of results and impact of various factors on the accuracy of prediction were conducted. In conclusions the perspective use of econometric methods in considered field is summarized and future plans of research were given.
PL
W pracy zastosowano metody ekonometrii przestrzennej do problemu predykcji wydajności serwerów webowych. Dane do obliczeń pozyskano z aktywnego eksperymentu pomiarowego opartego na systemie MWING. Przeprowadzono analizę wykonanych prognoz oraz rozpatrzono wpływ różnych czynników na dokładność prognozy. We wnioskach przedstawiono perspektywę dalszych możliwości zastosowań metod ekonometrii przestrzennej do badania wydajności sieci Internet.
W dobie silnego wzrostu komunikacji sieciowej, głównie dzięki mobilności urządzeń, zauważa się duży potencjał rozwoju szybkiego i niezawodnego dostępu do Internetu. Potrzeba ta pociąga za sobą konieczność wykonania prognoz wydajności takich połączeń sieciowych, aby móc w pełni spełnić oczekiwania użytkowników. W pracy zaproponowano przestrzenno-czasową prognozę wydajności sieci Web przy użyciu metody krigingu prostego, jednej z geostatystycznych metod estymacyjnych. Metoda ta przy tworzeniu obszarowo-czasowych prognoz, wymaga minimalnej ilości danych wejściowych, jedynie położenia geograficzne serwerów webowych oraz wydajność pobierania zasobów z serwerów w danym czasie. Dane użyte do badań zostały pozyskane za pomocą aktywnego eksperymentu przez wieloagentowy system pomiarowy MWING. System ten składał się z agentów, których głównym zadaniem było monitorowanie zdefiniowanej grupy serwerów webowych. Wykonano analizę danych pomiarowych, po czym opisano model przestrzennej prognozy czasu ściągania danych z serwerów webowych. Wyniki prognozy zostały przeanalizowane oraz wskazano kierunki przyszłych badań mające wpływ na polepszenie prognoz dotyczących wydajności sieci Web.
EN
In the era of strong growth of network communication, mainly due to mobile devices, there is a great potential for the development of fast, reliable access to the Internet. This need implies the necessity of forecasting performance of such network connections in order to fully meet the demands of users. The paper proposes a spatio-temporal Web performance forecast using simple kriging method, one of the geostatistical estimation methods. This method requires only the minimum amount of input data, the geographical location of Web servers and the download time of a given resource. The data used in the research were acquired from an active experiment conducted by our multi-agent measurement system MWING. This system is composed of agents whose main task is to monitor a defined group of Web servers. In the research, the connections between an agent in Gdansk and European servers were considered. Analysis of measurement data was carried out, and then model of spatial forecast of a total time of downloading data from Web servers was described. Results of forecast were analyzed in detail indicating future directions of research to improve Web performance forecasts
The paper deals with the problem of Quality of Web Service (QoWS) in e-commerce Web servers, i.e. in retail Web stores. It concerns the admission control and scheduling algorithm for a Web server system, which aims at preventing the system from overload to provide high QoWS level and ultimately, to increase Web site's conversion rate, i.e. to turn more visitors into customers. The sensitivity of the algorithm to changes in its basic parameter values was analyzed by using a simulation-based approach. Special attention was paid to evaluation of the parameter impact on conventional and business-related system performance metrics.
5
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The paper brings up the problem of broadening customer relationship management (CRM) in an e-commerce company to an automated mechanism of request service in a Web server system hosting a Business-to-Consumer (B2C) Web site. We propose applying RecencyFrequency-Monetary value (RFM) analysis to automatically compute customer values in a Web store, and using these values in a new admission control and scheduling algorithm for a Web server system. The proposed method and algorithm are discussed, and simulation results of its efficacy compared to the First-In-First-Out (FIFO) scheduling are presented.
6
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
In the paper we present new broker-based HTTP (Hypertext Transfer Protocol) request global distribution method and algorithm called GARDIB (Global Request Distribution with Broker). The method is based on a fuzzy-neural decision-making scheme allowing distributing HTTP requests based on the request response time. The decision at global level is made by the broker which is an intermediate server used by the Web clients to get Web pages. Each HTTP request is redirected by a broker which is located in the neighbor proximity of the user. Several brokers may serve to the same set of Web sites with the fully replicated content. Broker has ability to estimate request response time using own made network broker-to-Web sites latency measurements, as well as load conditions of every local Web sites, collected from local Web switches that locally distributes requests to the target local Web servers. In the paper we assume that localWeb switches are equipped with the FNRD (Fuzzy Neural Request Distribution) algorithm developed by the authors. FRND’s decision-making scheme also is based on fuzzy-neural modeling with request completion time as the performance metrics. GARDiB is evaluated via simulation experiments and compared with other candidates for global distribution, namely RR (Round Robin) andWRR (Weighted Round Robin) policies. The weighting in the latter case can be based on the local load state (WRR-L) or network throughput (WRR-T). Simulation experiments are made by means of CSIM19 software in C++. The results show that GARDiB can be e ectively used for global HTTP distribution exhibiting good performance in the wide range of load.
PL
W artykule prezentowana jest nowa metoda i algorytm globalnej dystrybucji żądań HTTP w sieci WWW nazwana GARDIB (ang. Global Request Distribution with Broker) charakteryzującego się specyficznym rozmyto-neuronalnym schematem decyzyjnym oraz czasem odpowiedzi jako kryterium jakości dystrybucji. Metoda i algorytm mogą znaleźć zastosowanie w rozproszonych systemach dostarczania treści webowych zwanych sieciami CDN (ang. Content Delivery Network). System opiera swoje działanie na ustalonej w metodzie współpracy klientów, serwisów webowych oraz pośredników - serwerów pośredniczących, zwanych brokerami.Klienci - są˛ końcowymi użytkownikami systemu, i w omawianym systemie są źródłem żądań HTTP. Serwisy webowe - zwane Serwisami Lokalnymi (ang. Local Services - LS) są rozproszonymi i autonomicznie działającymi klastrami zestawów serwerowych o konstrukcji: serwer WWW - serwer bazodanowy, wyposażonymi w rozdzielacz sieciowy (przełącznik webowy). Serwery pośredniczące są˛głównymi elementami systemu. Ich rola˛ jest pośredniczenie w komunikacji klient serwer WWW, co jest realizowane w następujący sposób. Użytkownik kieruje swoje żądania HTTP za pośrednictwem brokera zlokalizowanego w najbliższym sąsiedztwie. Zakłada się, że opóźnienie czasowe występujące w tej komunikacji jest pomijalnie małe. Broker korzystając z algorytmu dystrybucji globalnej przekazuje żądanie do realizacji do jednego z ośrodków lokalnych, gdzie rozdzielacz sieciowy dokonuje ostatecznego wyboru serwera docelowego. Odpowiedź od tego serwera wraca do klienta poprzez lokalny rozdzielacz oraz broker. W pracy proponuje się, aby dystrybucja globalna była realizowana z wykorzystaniem algorytmu GARDiB działającego wg rozmyto-neuronalnego schematu decyzyjnego, który każde z przychodzących żądań kieruje do tego lokalnego serwisu webowego, dla którego został wyestymowany najkrótszy czas odpowiedzi. Jest to czas obserwowany z punktu widzenia brokera. Na czas odpowiedzi składa się czas niezbędny do przesłania żądania od brokera do serwisu lokalnego, czas obsługi lokalnej żądania oraz czas transferu odpowiedzi od ośrodka lokalnego do brokera. Możemy przyjąć, że jest to również czas odpowiedzi z punktu widzenia klienta końcowego, ze względu na założoną lokalizację brokerów, których może być odpowiednio dużo zlokalizowanych blisko klientów, np. w ich domenach. Specyfiką tej metody jest zastosowanie po raz pierwszy w literaturze przedmiotu podejścia rozmyto-neuronalnego do globalnej dystrybucji żądań HTTP oraz wykorzystanie czasu odpowiedzi jako kryterium wydajności, co jest również unikatowym indeksem w problemie dystrybucji żądań HTTP, gdzie zazwyczaj stosowane są indeksy charakteryzujące poziom obciążenia serwerów, a celem dystrybucji jest wtedy np. równoważenie obciążeń serwerów.W systemie globalnej dystrybucji żądań GARDiB, w niniejszym artykule proponuje się aby w ośrodkach lokalnych działał autorski lokalny algorytm dystrybucji FNRD (ang. Fuzzy- Neural Request Distribution), który funkcjonuje również wg koncepcji sterownika rozmyto neuronalnego z kryterium czasu wykonania żądania, i który wielokrotnie wykazywał się swoimi dobrymi właściwościami w przeprowadzonych badaniach. W szczególności, wyszedł on obronną ręką w porównaniach ze znanymi algorytmami lokalnej dystrybucji żądań, takimi jak algorytm karuzelowy RR (ang. Round-Robin), LARD (ang. Locality-Aware Request Distribution) oraz CAP (ang. Content-Aware Policy). Dla potrzeb przeprowadzenia badań porównawczych w brokerze zasymulowano karuzelowy algorytm globalnej dystrybucji żądań RR oraz jego uogólnioą wersję z wagami, czyli algorytm WRR (ang. Weighted Round-Robin). W tym ostatnim przypadku badane są˛ dwa warianty algorytmu karuzelowego ważonego, a mianowicie wariant WRR-L - algorytm karuzelowy ważony ze względu na obciążenie Serwisów Lokalnych oraz wariant WRR-T - algorytm karuzelowy ważony ze względu na transfer na trasie pomiędzy LS a serwerem pośredniczącym. Do badań wykorzystane zostało środowisko symulacyjne, stworzone w języku C++ z wykorzystaniem bibliotek CSIM19, służących do programowania zadań symulacji zdarzeń dyskretnych. Artykuł pokazuje, że metoda oraz algorytmGARDiB mogą być z powodzeniem wykorzystywane do globalnej dystrybucji żądań w rozwiązaniach z serwerami pośredniczącymi, oraz że system globalnej dystrybucji treści wykorzystujący zaproponowaną metodę oraz algorytm dostarcza swoim użykownikom żądane treści w zadawalającym czasie - krótszym niż w przypadku pozostałych klasycznych algorytmów dystrybucji.
Various reasons motivate the development of desktop and Web services for Internet documents retrieval. Search engines are used for retrieval document on the World Wide Web whereas the desktop search tools are employed when Internet documents are stored locally. In this paper we present an intermediary service that would help the Web client to gain information from the World Wide Web. We present a Web searching system with text mining functionality that has been developed based on the IBM's Intelligent Miner for Text system. This system can be employed as the search engine in our intermediary service. Another presented system is a new desktop search engine called Needle Desktop Search. It has some unique features such as on-line index update for supervised folders, document structuralization to improve information retrieval and API for preparation own applications using system functions and structures.
8
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Artykuł prezentuje wyniki analizy niezawodności usługi WWW po stronie klienta. Analiza została przeprowadzona na podstawie gromadzonych przez blisko rok danych pomiarowych pochodzących z nasłuchu transakcji webowych pomiędzy klientem a wybraną losowo próbką kilkudziesięciu rozproszonych po całym świecie serwerów WWW. Autorzy prezentują metodykę wyznaczania oraz wartości współczynników niezawodności poszczególnych serwerów WWW. Uwidaczniają też słaby związek niezawodności usługi WWW z charakteryzującymi transakcję webową wielkościami, takimi jak czas transmisji, czy RTT. W ostatniej części pracy prezentowany jest też model "śmiertelności", a więc w pewnym sensie zawodności odnośników webowych w miarę upływu czasu.
EN
In this paper we present the results of the reliability analysis performed for a group of 83 WWW servers located around the world and measured by the Wing measurement system during the period of 47 weeks (from 2 September 2002 to 28 July 2003). The Wing is the measurement distributed computer system developed by the authors and devoted for performing active measurements and monitoring of the transactions sent by the Web browser to a Web server. In our experiments we used the Microsoft's Internet Explorer (IE). Of course, this choice slightly biases our results but we cannot forget that IE is the most popular Web browser as it is used by over than 96 percent of Internet users. It is worth to notice that our testbed can be profiled for monitoring other Web browsers, too. In the measurement experiment that started a year ago we have monitored and traced the HTTP transactions that have been sent periodically by MS IE client localized within our local network. Each time it requested the same file available at alternative URL links. Each web page transaction can be characterizing by many parameters. Usually, the transactions are evaluated by the transaction time (latency) for downloading a total page and/or individual embedded objects. Here we deal with the reliability aspects of the web transactions. In the paper we present the methodology for the determination of the web server reliability and the results of our experiments showing this aspect of WWW service quality. The user is only interested in the transactions, which are successfully ended, i.e. all data is transmitted without any page elements missed. The Wing precisely monitors the transaction and checks whether all page elements are obtained by the browser. The system can allow us to classify each transaction as an event to be either "OK", "PAGE_DEATH", "BROWSER_FAILURE" or "SERWER/INTERNET_FAILURE". Using the event matrix for each web server under consideration we can compute the web server percentage reliability-rate, which is defined as the percentage ratio of the sum of "PAGE_DEATH" and "BROWSER_FAILURE" events to all events. The measurements showed the distribution of reliability rate for WWW servers from our list. We observed that the most reliable server had 98,2% reliability ratio whereas the most unreliable server had 23,7% reliability ratio only. Our measurements also showed the process of death of URL links. We determined the death-rate of our URL link as -0.006, i.e. only about 80% of alternative URLs available in the beginning were still valid in the end of experiment.
Celem projektu jest zademonstrowanie możliwości budowy wyszukiwarki internetowej na bazie systemu IBM Intelligent Miner for Text. W opracowanej wyszukiwarce SearchSystems zaimplementowano zaawansowane metody analizy leksykalnej, a mianowicie ekspansję poprzez synonimy oraz analizę dźwiękową zapytań. System porównano z wyszukiwarką Google
EN
The aim of the project was to find out how the IBM Intelligent Miner for Text can be used to develop a "Google" - like search machine. The system called SearchSystems has been developed and evaluated based on chosen functions.
W artykule została przedstawiona implementacja protokołów RSVP i MPLS na stosie TCP/IP w systemie Linux. Umieszczono krótką charakterystykę wybranych protokołów. Pokazano przykładową konfigurację w środowisku Linux. Wykonano eksperymenty pomiarowe pokazujące wykorzystanie tych protokołów do zarządzania ruchem w przypadku dostępu do serwera WWW.
EN
This paper presents some practical aspects concerning implementation of traffic management functions based on Linux network environment. The main aim is to show how this functionality can improve access to WWW pages.
Powodem spadania wydajności usługi WWW jest niewątpliwie jej ogromna i wciąż rosnąca popularność. Aby odnaleźć źródła problemów, należy poddać analizie zjawiska zachodzące podczas transakcji webowych. W pracy przedstawiono autorski system Wing, którego głównym zadaniem jest pomiar charakterystyk czasowych ruchu HTTP obserwowanego po stronie użytkownika. Analiza zarejestrowanych danych pozwala na diagnozowanie problemów wydajnościowych usłgi WWW w sieci Internet
EN
It is needed to make to measure user-preceived web performance. In this paper the design of the system for such purposes called Wing is presented. Using this system we are able to analyse how web transactions are performed and what are the main time delays in web access time.
Analiza danych z wykorzystaniem metod i narzędzi data miningowych jest wykorzystywana w wielu zastosowaniach. Artykuł omawia możliwości wykorzystania data miningu na potrzeby analizy funkcjonowania podsystemu komunikacyjnego Internetu.
EN
Data mining is used in various application areas and now Internet research meets data mining. Data analysis based on statistical characteristics of collected data has exhaused its capabilities. It is proposed to apply different data mining methods and algorithms to gain our knowledge about the Internet
W pracy przedstawiony został projekt nowego programowego przełącznika webowego WebDispatcher służącego do równoważenia obciążeń klastra serwerów webowych. WebDispatcher jest przełącznikiem zarazem warstwy czwartej, jak i siódmej, przeznaczonym do obsługi wieloserwerowych witryn WWW, dla których wybór serwera może być dokonany z wykorzystaniem statycznego algorytmu round-robin, dynamicznego algorytmu uwzględniającego aktualne ot)ciążenie serwerów i kierującego żądanie do serwera najmniej obciążonego oraz algorytmu dokonującego dystrybucji żądań na podstawie typu żądanego obiektu. W pracy przedstawiono również wybrane wyniki przeprowadzonych pomiarów wydajności.
EN
In this paper we present a new Web software switch design for supporting Web-servers clusters for high-performance and high-available WWW sites. This layer-4 and layer-7 switch provides load balancing to improve the site performance and has three dispatching policies options: static round-robin, server state-aware and content-aware policies. The design of the system was discussed as well as its implementation. The results of evaluation experiments are presented.
14
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
This paper presents the SymLog system, which is at the same time a full featured expert system for execution of expert tasks formulated following the rules of the logic-algebraic method, as well as the simulation tool for studying parallel execution of expert tasks in multiprocessor environments.
W pracy przedstawiono dwa podejścia stosowane przy równoważeniu obciążeń serwerów webowych, a mianowicie rozdział zadań, w którym decyzje o skierowaniu zapytania do określonego serwera zapadają bez znajomości rodzaju zapytania, tj. w warstwie czwartej modelu ISO/OSI oraz rozdział zadań, gdzie takie decyzje zapadają na podstawie znajomości treści zapytania, tj. w warstwie siódmej modelu ISO/OSI. Pierwsze podejście zilustrowano wynikami własnych badań systemu IBM Se-cureWay Network Dispatcher. W ramach prezentacji drugiego podejścia omówiono funkcje i charakterystyki wiodących w tym zakresie produktów: Resonate Central Di-spatch, F5 Networks Big-IP, Radware Web Server Director, Alteon ACEdirector, Foun-dry Networks Serverlron, IBM WebSphere Edge Server oraz Cisco Content Switch.
EN
This paper presents two basic approaches to load balancing of Web servers. In the first approach the decision about the redirection of user's request is made without knowledge of a type of the request. In the second approach the type of the request and content being requested is taken into account in order to make the decision of the redirection of the request. To depict the first solution we present results of tests of IBM SecureWay Network Dispatcher. To present the second solution we discuss functions and characteristic of brand name products, such as: Resonate Central Dispatch, F5 Networks Big-IP, Radware Web Server Director, Alteon ACEdirector, Foundry Networks Serverlron, IBM WebSphere Edge Server and Cisco Content Switch.
W pracy przedstawiono wyniki pomiarów wydajności serwerów WWW pracujących w konfiguracji lokalnego klastra komputerów IBM RS/6000 z równoważeniem obciążeń. Zapytania do serwisu WWW dystrybuowane były pomiędzy poszczególne serwery webowe w klastrze przez system równoważenia obciążeń IBM Network Dispatcher. Badania potwierdziły skuteczność algorytmów równoważenia obciążeń w uzyskiwaniu przez klaster webserwerów wysokiej wydajności przetwarzania zapytań.
EN
This paper presents results from a comprehensive empirical study of Web servers running in cluster configuration with load balancing mechanisms. We also discuss how different attributes of the whole solution, i.e. HTTP protocol, WWW sever design and load balancing strategy influence the system's performance. In particular, we present the result of experiments performed for the clusters of WWW. Apache servers installed on IBM RS/6000 stations under AIX operating systems.
Wydajne servery WWW nie mogą pracować na pojedynczym komputerze ani na kilku mirrorowanych serwerach. Wydajność, skalowalność oraz odporność na awarie mogą być realizowane przez rozproszone serwery WWW, w których zapytania od klientów są w odpowiedni sposób dystrybuowane do poszczególnych serwerów. W artykule prezentujemy klasyfikację znanych podejść do realizacji takich systemów, w której podstawowym kryterium jest miejsce podejmowania decyzji o przydzieleniu zasobu do realizacji zapytania.
EN
In this paper we present an overview of the approaches, methods and algorithms used in load balancing for web servers. This problem is very important for newly built web sites that must be scalable, reliable and fully available in providing WWW services for modern "e-based" Internet information systems. Our review of the state of the art in load balancing pointed out for the most important and valuable approches and solutions.
W pracy omówiono zastosowanie systemu pracy grupowej Lotus Notes w Instytucie Sterowania i Techniki Systemów Politechniki Wrocławskiej. Przedstawiono całokształt funkcji systemu. Szczególną uwagę zwrócono na bazy danych wspierając prace administracyjne dotyczące prowadzonej przez Instytut dydaktyki.
EN
In the paper we present the Lotus Notes groupware system deployment for supporting the basic functioning of the Institute of Control and Systems Engineering at the Technical University of Wrocław.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.