This paper is devoted to the study of the impact of volumetric planning solutions and the main production and technological parameters of a modern warehouse on the effectiveness of its functioning. The object of analysis is a class A warehouse complex located in Almaty. Simulation modeling was utilized to find and substantiate management decisions. The software product AnyLogic was used as the environment for the simulation. This paper develops a generalized algorithm for creating simulation models of warehouse complexes and a simulation model consisting of 114 blocks. The model is presented in the form of a black box, which made it possible to identify and establish correlations and relations between the input and output parameters of the warehouse, as well as its resources. A simulation experiment was conducted consisting of 63 model calculations. Variation parameters were the number of loading and unloading docks, as well as the number of forklifts in the storage area. As a result of the simulation, four options for the operation of the warehouse were established to ensure the unloading and loading of the required number of cars during the day. The optimal variant of the functioning of the warehouse complex was chosen on the basis of the proposed comprehensive criterion.
Artykuł przedstawia analizę porównawczą dwóch aplikacji webowych napisanych w językach: PHP oraz Python. Stworzono aplikacje testowe, które zostały wyposażone w tą samą funkcjonalność wykorzystaną w badaniach polegających na pomiarze czasów odpowiedzi serwera na żądania typu INSERT, SELECT, UPDATE i DELETE –obsługujące operacje na bazie danych. Celem badań było porównanie obydwu języków pod względem wybranych kryteriów. Porównywano ich wydajność, objętość kodu źródłowego oraz popularność
EN
This article presents a comparative analysis of two web applications implemented in PHP and Python. Test applications were created and equipped with the same functionality used in tests consisting in measuring the server response times to INSERT, SELECT, UPDATE and DELETE requests - handling database operations. The purpose of the research was to compare both languages in terms of selected criteria. Their performance, source code volume and popularity were compared.
Driver assistance systems have started becoming a key differentiator in automotive space and all major automotive manufacturers have such systems with various capabilities and stages of implementation. The main building blocks of such systems are similar in nature and one of the major building blocks is road lane detection. Even though lane detection technology has been around for decades, it is still an ongoing area of research and there are still several improvements and optimizations that are possible. This paper offers an Optimized Dynamic Origin Technique (Optimized DOT) for lane detection. The proposed optimization algorithm of optimized DOT gives better results in performance and accuracy compared to other methods of lane detection. Analysis of proposed optimized DOT with various edge detection techniques, various threshold levels, various sample dataset and various lane detection methods were done and the results are discussed in this paper. The proposed optimized DOT lane detection average processing time increases by 9.21 % when compared to previous Dynamic Origin Technique (DOT) and 59.09 % compared to traditional hough transform.
The chapter discusses the performance aspects of intelligent agents in Complex Event Processing (CEP) systems. The contemporary solution for implementing CEP systems is based on available software components (Siddhi) and modern implementation techniques (Kubernetes). However, Siddhi lacks the implementation of modern deep learning algorithms. Hence, the concept of intelligent agent is introduced. A case study with a set of intelligent agents designed to handle real-world events related to environmental data monitoring is presented. The results of the case study discussion indicate a reasonable scale for tuning the Event Processing Element (EPA) topology with correct responses and the required output performance level. These results have important implications for the practical implementation of the EPA structure, i.e., the use of GPUs in CEP systems. Finally, the results of performance analysis of different implementations of intelligent agents are presented and discussed.
5
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
W artykule przedstawiono wyniki badań eksperymentalnych procesu segmentacji sekwencji wizyjnych z wykorzystaniem systemów wbudowanych. Przetestowano wydajność rozwiązań opartych o mikrokomputer Raspberry Pi 4B oraz platformę Nvidia Jetson Nano pod kątem możliwości ich implementacji w platformie pomiarowej do automatycznego badania jakości działania lamp lotniskowych. Porównano szybkość przetwarzania dla różnych rozdzielczości obrazu oraz wymagania związane z zasilaniem modułów.
EN
The article presents the results of experimental research on the video segmentation process using two different embedded systems. The performance of solutions based on the Raspberry Pi 4B microcomputer and the Nvidia Jetson Nano platform was tested for the possibility of their implementation in a measurement platform for automatic testing of the quality of airport lamps. The processing speed for different image resolutions and the module power requirements were compared.
6
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Objectives: To make a clear literature review on state-ofthe-art heart disease prediction models. Methods: It reviews 61 research papers and states the significant analysis. Initially, the analysis addresses the contributions of each literature works and observes the simulation environment. Here, different types of machine learning algorithms deployed in each contribution. In addition, the utilized dataset for existing heart disease prediction models was observed. Results: The performance measures computed in entire papers like prediction accuracy, prediction error, specificity, sensitivity, f-measure, etc., are learned. Further, the best performance is also checked to confirm the effectiveness of entire contributions. Conclusions: The comprehensive research challenges and the gap are portrayed based on the development of intelligent methods concerning the unresolved challenges in heart disease prediction using data mining techniques.
7
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The performance of ultra-dense cellular networks considering both adaptive discrete modulation (ADM) and energy harvesting (EH) is investigated. Particularly, mobile users (MUs) are charged its battery from all ambient radio frequency (RF) signals. Based on the amount of harvested energy as well as the channel conditions, MU will actively choose an appropriate modulation scheme that not only maximizes the rate but also satisfies the quality-of-service (QoS). Moreover, we consider the spatial-temporal correlation at the signal-to-interference-plus-noise ratios (SINRs) of base stations (BSs) which are totally different from work in the literature. Several important metrics are investigated such as, occurrence probabilities of different modulation schemes (Poc), coverage probability (Pcov), and achievable spectral efficiency (ASE). Finally, the results highlight the superiority of the proposed scheme compared to the conventional fixed modulation
Background: In today’s rapidly changing global economy, airports have an important role in the social, cultural, and economic development of societies and in building bridges between interconnected markets. Sustainability requires a balance between economic, social, and environmental processes and performance-based progress in efforts on all three dimensions at an optimum level. Therefore, sustainable performance measurement and management is an important function for the control of airports. The suitability of investments in airports to respond to the increasing needs and expectations of the future can be realized through a rational structure that operates technologically, effectively, and efficiently. The need for this structure to be sustainable with above-average performance further increases the importance of the issue. This study aims to develop a sustainable performance software for airports by conducting a sustainable performance analysis based on multiple variables. Methods: For sustainable performance analysis at airports, it is important to include economic, social, and environmental parameters, which are the three sub-dimensions of sustainability, in all strategic, tactical, and operational processes and decision-making mechanisms. For the performance analysis of airports, the DEMATEL Method, and the Objectives Matrix (OMAX) Method, which evaluates all the criteria together, were used to weight various performance indicators. Results: The most important criterion at Antalya Airport, which is also the most affected by other criteria, is "economic". Sustainable performance scores of Antalya Airport for 2018 and 2019 were calculated. The airport's performance in 2019 is higher compared to 2018. Conclusions: The biggest achievement of this research is thought to be developing a “Sustainable Performance Software” for national and international airports. This study will also contribute to the emergence of studies that will reveal the performances of other airports and compare their past performances with their current and national performances.
PL
Wstęp: We współczesnej, szybko się zmieniającej globalnej gospodarce, lotniska odgrywają ważną rolę w socjalnym, kulturalnym i ekonomicznym rozwoju społeczności oraz w budowaniu nowych mostów pomiędzy różnymi rynkami. Rozwój zrównoważony oznacza zachowanie balansu pomiędzy ekonomicznymi, społecznymi i środowiskowymi procesami oraz postępem we wszystkich tych trzech wymiarach na optymalnym poziomie. Dlatego też pomiar jak i zarządzanie zrównoważonej działalności odgrywa istotną funkcję w kontroli lotnisk. Zachowanie zasada zrównoważonego rozwoju w inwestycjach lotniskowych, będących odpowiedzią na zwiększający się popyt na ich usługi może być realizowany efektywnie w ramach zracjonalizowanej struktury. Struktura ta powinna odpowiadać zasadom rozwoju zrównoważonego, który to będzie odgrywał coraz istotniejszą rolę i zwiększał swoje znaczenie. Celem pracy jest opracowanie oprogramowania oceny rozwoju zrównoważonego lotnisk poprzez analizę działalności zrównoważonej obejmującą wiele zmiennych. Metody: Do przeprowadzenia analizy działalności zrównoważonej lotniska, istotne jest uwzględnienie ekonomicznych, społecznych oraz środowiskowych czynników, które są trzema podwymiarami rozwoju zrównoważonego we wszystkich strategicznych, taktycznych i operacyjnych procesach i mechanizmach decyzyjnych. W celu przeprowadzenia analizy, zastosowano metody DEMATEL oraz OMAX (Objectives Matrix), umożliwiające uwzględnienie tych wszystkich czynników równocześnie, poprzez zastosowanie wskaźników wagowych. Wyniki: Najważniejszym czynnikiem dla lotniska Antalya, jak również o największym znaczeniu, jest czynnik ekonomiczny. Współczynniki działalności zrównoważonych dla lotniska Antalya zostały obliczone dla lat 2018 oraz 2019. Działalność lotniska w 2019 była większa aniżeli w 2018. Wnioski: Największym osiągnięciem tej pracy jest opracowanie “aplikacji oceny działalności zrównoważonej” dla zarówno krajowych jak i międzynarodowych lotnisk. Praca ta przyczynia się również do pogłębienia prac badawczych nad działalnością innych lotnisk oraz porównania ich działania z poprzednimi ich osiągnięciami.
Artykuł przedstawia analizę porównawczą popularnych szkieletów programistycznych ASP.NET Core MVC oraz Symfony 4. W technologiach tych zaimplementowano dwie aplikacje internetowe, zawierające te same funkcjonalności, pełniące funkcję prostego systemu do zarządzania artykułami. Te aplikacje zostały poddane testom wydajności czasowej podczas realizacji typowych operacji wykonywanych za pośrednictwem prostego formularza takich jak wprowadzanie, edycja, wyświetlanie i usuwanie danych. Czynności te były wykonywane automatycznie za pomocą poleceń z biblioteki Puppeteer. Wyszczególnione operacje były powtarzane 10, 100 i 1000 razy w celu uzyskania precyzyjnych średnich czasów. Na podstawie otrzymanych wyników trudno było jednoznacznie stwierdzić, które z porównywanych narzędzi programistycznych jest lepsze. Z dwiema czasochłonnymi operacjami tzn. wprowadzaniem i edycją danych, znacznie lepiej radził sobie framework ASP.NET Core. Jego wyniki pod tym względem (średnia z 1000 powtórzeń) były odpowiednio o około 28% i 25% lepsze w stosunku do szkieletu Symfony 4. Natomiast dla dwóch mniej czasochłonnych operacji, czyli wyświetlania i usuwania artykułów, wyraźnie lepszym okazał się szkielet Symfony 4. Jego wyniki dla wyświetlania i usuwania artykułów (średnia dla 1000 pomiarów) były o 15 i 36 procent odpowiednio niższe w stosunku do drugiego badanego szkieletu.
EN
The article presents a comparative analysis of popular ASP.NET Core MVC and Symfony 4 frameworks. Two web applications, containing the same functionalities and acting as a simple system for managing articles, were implemented in these technologies. The applications underwent time performance tests during typical operations performed by means of a simple form such as entering, editing, viewing and deleting data. These actions were performed automatically using commands from the Puppeteer library. The listed operations were repeated 10, 100 and 1,000 times in order to obtain precise mean times. On the basis of the obtained results, it was difficult to clearly state which of the compared programming tools is better. The ASP.NET Core MVC framework coped much better with two time-consuming operations, i.e. entering and editing data. Its results in this regard (the average from 1,000 repetitions) were respectively approximately 28% and 25% better compared to the Symphony 4 framework. However, for the two less time-consuming operations, i.e. displaying and deleting articles, the Symphony 4 framework proved to be considerably better. Its results with regard to displaying and deleting articles (the average for 1,000 measurements) were respectively 15% and 36% lower compared to the other of the tested frameworks.
Celem pracy było porównanie dwóch technologii do tworzenia aplikacji serwerowych opartych na języku programowania JavaScript. Na potrzeby badań utworzono dwie aplikacje testowe: pierwszą zbudowano na podstawie szkieletu programistycznego Express, a druga została wykonana na bazie szkieletu Hapi. Część kliencką obu aplikacji przygotowano za pomocą biblioteki React. Część kliencka i serwerowa komunikowały się ze sobą za pośrednictwem REST API - uniwersalnego interfejsu HTTP. Aplikacja kliencka wysyłała żądania do aplikacji serwerowej, która następnie wykonywała podstawowe operacje na bazie MongoDB i zwracała rezultat. W ramach pracy opracowano eksperyment składający się z czterech scenariuszy. W każdym scenariuszu operowano na innym typie danych: łańcuchu znaków, tablicy, obiekcie oraz tablicy obiektów. W badaniach skoncentrowano się na aspekcie wydajnościowym - pomiarze czasów obsługi żądań podczas operacji GET, POST, PUT i DELETE. Badania przeprowadzono na dwóch komputerach, a pomiary wykonano dwoma sposobami: za pomocą prostego kodu wbudowanego w aplikacje testowe oraz za pomocą narzędzia Postman. Uzyskane wyniki, po ich uśrednieniu i przeanalizowaniu pozwoliły na sformułowanie wniosku, że szkielet Express okazał się wydajniejszy niż Hapi, ze względu na krótsze czasy obsługi żądań. Tylko w scenariuszu, w którym wykonywano operacje na dużych zbiorach danych, czasy obsługi żądań były na podobnym poziomie.
EN
The aim of the work was to compare two technologies for creating server applications based on the JavaScript pro-gramming language. For the purposes of the research, two test applications were created. The first one was built on the basis of the Express programming framework and the second one on the basis of the Hapi framework. The client part of both applications was prepared using the React library. The client and server parts communicated with each other by means of REST API – the universal HTTP interface. The client application sent requests to the server application which then performed basic operations on the MongoDB basis and returned the result. As part of the work, an experiment consisting of four scenarios was developed. In each scenario, a different type of data was taken into consideration: a string of characters, an array, an object and an array of objects. The research focused on the efficiency aspect – measuring the response time of requests during GET, POST, PUT and DELETE operations. The tests were performed on two computers and the measurements were made in two ways: using a single code embedded in test applications and using the Postman tool. The obtained results, after averaging and analyzing them allowed for the conclusion that the Express framework proved to be more efficient than Hapi due to the shorter response time of requests. Only in the scenario where operations with large datasets were performed was the response time of requests at a similar level.
Przedmiotem tej pracy jest analiza porównawcza trzech szkieletów programistycznych do budowy aplikacji interneto-wych dla języka Java: Spring Boot 2.4.4, Micronaut 2.5.4 oraz Quarkus 1.13.4.Final. Przygotowano aplikacje testowe, wyposażone w tą samą funkcjonalność, które wykorzystano w eksperymencie, polegającym na pomiarze czasów odpowiedzi serwera na żądania typu POST, GET, PUT i DELETE – realizujące operacje na bazie danych. Dla każdej aplikacji testowej, powtórzono pięciokrotnie scenariusz, który miał na celu zmierzyć czas obsługi żądań w różnych warunkach obciążeniowych. Podczas każdego powtórzenia zwiększano wielkość obciążenia, które oznaczało średnią liczbę wysyłanych żądań na sekundę przez wirtualnych użytkowników. Równolegle z badaniami wydajności wykonano pomiary niezawodności aplikacji testowych. Niezawodność zdefiniowano jako odsetek żądań wysyłanych do serwera, które zakończyły się niepowodzeniem. W porównaniach wzięto również pod uwagę objętość kodu aplikacji testowych opartych na wybranych szkieletach. Z przeprowadzonych analiz wynikło, że pod względem większości rozpatrywanych w ramach tej pracy kryteriów najlepszym szkieletem programistycznym okazał się Micronaut.
EN
The aim of the work is a comparative analysis of three frameworks designed for building web applications for the Java programming language: Spring Boot 2.4.4, Micronaut 2.5.4 and Quarkus 1.13.4.Final. Test applications were prepared, equipped with the same functionality as used in the experiment consisting in measuring the server response times to a request of POST, GET, PUT and DELETE performing operations on the database. For each test application, the scenario aimed at measuring the time of handling requests under various load conditions was repeated five times. During each repetition of the scenario, the load which was the average number of requests sent per second by virtual users was increased. In parallel with performance tests, the reliability of the test applications was measured. Reliability was defined as the percentage of requests sent to the server that ended in a failure. The comparative analysis also took into consideration the volume of the code of the test applications based on the selected frameworks. The performed analyses showed that in terms of most of the criteria considered in this work Micronaut proved to be the best framework.
12
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
To identify the causes of performance problems or to predict process behavior, it is essential to have correct and complete event data. This is particularly important for distributed systems with shared resources, e.g., one case can block another case competing for the same machine, leading to inter-case dependencies in performance. However, due to a variety of reasons, real-life systems often record only a subset of all events taking place. To understand and analyze the behavior and performance of processes with shared resources, we aim to reconstruct bounds for timestamps of events in a case that must have happened but were not recorded by inference over events in other cases in the system. We formulate and solve the problem by systematically introducing multi-entity concepts in event logs and process models. We introduce a partial-order based model of a multi-entity event log and a corresponding compositional model for multi-entity processes. We define PQR-systems as a special class of multi-entity processes with shared resources and queues. We then study the problem of inferring from an incomplete event log unobserved events and their timestamps that are globally consistent with a PQR-system. We solve the problem by reconstructing unobserved traces of resources and queues according to the PQR-model and derive bounds for their timestamps using a linear program. While the problem is illustrated for material handling systems like baggage handling systems in airports, the approach can be applied to other settings where recording is incomplete. The ideas have been implemented in ProM and were evaluated using both synthetic and real-life event logs.
In this paper, we present the electrical and electro-optical characterizations of an InAs/GaSb type-2 superlattice barrier photodetector operating in the full longwave infrared spectral domain. The fabricated detectors exhibited a 50% cut-off wavelength around 14 μm at 80 K and a quantum efficiency slightly above 20%. The dark current density was of 4.6×10⁻² A/cm² at 80 K and a minority carrier lateral diffusion was evaluated through dark current measurements on different detector sizes. In addition, detector spectral response, its dark current-voltage characteristics and capacitance-voltage curve accompanied by electric field simulations were analyzed in order to determine the operating bias and the dark current regimes at different biases. Finally, dark current simulations were also performed to estimate a minority carrier lifetime by comparing experimental curves with simulated ones.
Celem artykułu jest porównanie wydajności baz danych MySQL, PostgreSQL, MariaDB i H2 oraz wybór najlepszej z nich. Zbadana zostanie prędkość wykonywania prostych oraz bardziej złożonych zapytań SQL. Odpowiedź na pytanie, która z nich jest bardziej wydajna, zostanie udzielona na podstawie wyników z przeprowadzonych badań.
EN
This article will compare the performance of relational databases MySQL, PostgreSQL, MariaDB and H2. The speed of executing will be tested on simple and more complex SQL queries. The tests results will show which database is more efficient.
Celem artykułu jest porównanie wydajności popularnych frameworków JavaScriptowych Angular i Vue.js w kontekście tworzenia gier oraz wybór lepszego z nich. Kryteria porównawcze są następujące: czas wymiany danych z serwerem oraz renderowania różnych komponentów aplikacji, ilość zajmowanej pamięci podczas odświeżania informacji o przebiegu gry i przywróceniu użytkownika do bieżącej gry, stopień obciążenia przeglądarki oraz rozmiar plików końcowych. Na podstawie wyników z przeprowadzonych badań można stwierdzić, że bardziej wydajny jest framework Vue.js.
EN
The aim of the paper is to compare the performance of popular JavaScript frameworks Angular and Vue.js in the context of game development. The comparative criteria are as follows: time of data exchanging with server and rendering of various application components, memory consumption during refreshing the current game information and restoring the user to the current game, browser load level and size of the final application files. The test results show that the Vue.js framework is more efficient.
Artykuł przedstawia porównanie dwóch technologii do tworzenia aplikacji desktopowych opartych o język C#. Analiza dotycząca wykorzystania procesora, pamięci RAM oraz czasu wykonywania operacji została przeprowadzona na technologiach Windows Presentation Foundation i Windows Forms. Do badań wykorzystano aplikacje o tej samej funkcjonalności w obu technologiach. W analizie porównawczej uwzględniono czasy danych operacji oraz wydajność aplikacji.
EN
The article presents a comparison of two technologies for creating desktop applications based on C#. The analysis conserns the use of the processor, RAM and time of the operation was carried out on the technologies of Windows Presentation Foundation and Windows Forms. The research use applications with the same functionality in both technologies. The comparative analysis took into account the times of operations and application performance.
The paper is focused on the forthcoming IEEE 802.11ax standard and its influence on Wi-Fi networks performance. The most important features dedicated to improve transmission effectiveness are presented. Furthermore, the simulation results of a new transmission modes are described. The comparison with the legacy IEEE 802.11n/ac standards shows that even partial implementation of a new standard should bring significant throughput improvements.
The performance-based analysis of the large-space steel sports hall is presented. Load-bearing structure of the hall consists of spatial long-span truss girders that are made of modern square hollow sections. Both fire development analysis and mechanical response analysis are discussed in detail. Fire Dynamics Simulator and Safir programs are used. Main focus is put on the factors that could affect the final fire resistance of the structure. Uniform and non-uniform heating, different boundary conditions and local imperfections are taken into account. Structures with and without fireproof insulation are considered. Values of the critical temperature, failure modes and fire resistance estimated for various cases are presented. Computer simulations were carried out both for fire growth and decay phase. As a result it is clearly shown that some reductions of the required fireproof insulation are possible. Moreover, the structure without complete traditional fireproof insulation is able to survive not only the direct fire exposure but also the cooling phase.
PL
Aktualne normy europejskie EN 1991-1-2 i EN 1993-1-2 dopuszczają do stosowania różnorodne metody oceny odporności ogniowej, które mogą być wykorzystane zarówno w odniesieniu do pojedynczych elementów jak i całych ustrojów nośnych. Podejście obliczeniowe bazujące na właściwościach danej strefy pożarowej (tzw. performance-based approach) powinno uwzględniać zarówno analizę rozwoju pożaru jak i odpowiedzi mechanicznej konstrukcji. Wykorzystanie tego typu metody może być szczególnie istotne w przypadku obiektów o stosunkowo dużych kubaturach stref pożarowych, takich jak na przykład wielkogabarytowe hale o konstrukcji stalowej. Możliwy jest wówczas nie tylko lepszy wgląd w zachowanie się konstrukcji w warunkach pożaru ale istnieje także możliwość dostosowania izolacji ogniochronnej do rzeczywistego zapotrzebowania. Jednocześnie przeprowadzenie kompletnych symulacji typu "performance-based" jest niezwykle czasochłonne oraz wymaga połączenia wiedzy z zakresu inżynierii pożarowej oraz inżynierii lądowej. Dodatkowo wpływ niektórych czynników (takich jak przykładowo lokalne imperfekcje łukowe) na prognozowaną odporność ogniową nie został do tej pory w pełni rozpoznany. W tej sytuacji w artykule przedstawiono opartą na charakterystyce danej strefy pożarowej analizę odporności ogniowej wielkogabarytowej hali sportowej o konstrukcji stalowej. Rozpatrywana hala charakteryzuje się zarówno znacznymi wymiarami w rzucie (70m x 60m) jak i stosunkowo dużą wysokością (16.5m). Główny ustrój nośny składa się z trójpasowych dźwigarów kratowych o rozpiętości 60m, rozmieszczonych w rozstawie co 6m. Obliczenia rozwoju pożaru wykonano za pomocą programu Fire Dynamics Simulator. Do opracowania analizy odpowiedzi mechanicznej konstrukcji wykorzystano program Safir.
This article examines the performance of massive MIMO uplink system over Rician fading channel. The performance is estimated regarding spectral efficiency versus number of base station antennas utilizing three plans of linear detection, maximum-ratio-combining (MRC), zero forcing receiver (ZF), and minimum mean-square error receiver (MMSE). The simulation results reveal that the spectral efficiency increments altogether with expanding the quantity of base station antennas. Additionally, the spectral efficiency with MMSE is superior to that with ZF, and the last is superior to that with MRC. Furthermore, the spectral efficiency diminishes with expanding the fading parameter.
Artykuł koncentruje się wokół nadchodzącego standardu IEEE 802.11ax i jego wpływu na wydajność pracy sieci Wi-Fi. Omówiono najważniejsze usprawnienia mające podnieść efektywność transmisji w tego typu sieciach. Przedstawiono także wyniki analizy symulacyjnej uwzględniającej nowo wprowadzone tryby transmisji. Porównanie z istniejącymi standardami IEEE 802.11n/ac dowodzi, że nawet częściowe zaimplementowanie nowego standardu w urządzeniach powinno przynieść wyraźne korzyści w kontekście osiąganych szybkości transmisji.
EN
The paper is focused on the forthcoming IEEE 802.11ax standard and its influence on Wi-Fi networks performance. The most important features dedicated to improve transmission effectiveness are presented. Furthermore, the simulation results of a new transmission modes are described. The comparison with the legacy IEEE 802.11n/ac standards shows that even partial implementation of a new standard should bring significant throughput improvements.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.