The challenge of correctly identifying the target in the first frame of continuous sequences and tracking it in succeeding frames is frequently solved by visual tracking. The development of deep neural networks has aided in significant advancement over the past few decades. However, they are still considerable challenges in developing reliable trackers in challenging situations, essentially due to complicated backgrounds, partial or complete occlusion, illumination change, blur and similar objects. In this paper, we study correlation filter and deep learning-based approaches. We have compared the following trackers ECO, SaimRPN, ATOM, DiMP, TRASFUST and TREG. These trackers have been developed based on deep neural networks and are very recent. Performances of trackers have been evaluated on OTB-100, UAV123, VOT 2019, GOT-10k and LaSOT dataset. Results prove the effectiveness of deep neural networks to cope up with object tracking in videos.
PL
Wyzwanie polegające na prawidłowej identyfikacji celu w pierwszej klatce ciągłych sekwencji i śledzeniu go w kolejnych klatkach jest często rozwiązywane przez śledzenie wizualne. Rozwój głębokich sieci neuronowych przyczynił się do znacznego postępu w ciągu ostatnich kilku dekad. Jednak nadal stanowią one poważne wyzwanie w opracowywaniu niezawodnych trackerów w trudnych sytuacjach, głównie ze względu na skomplikowane tła, częściowe lub całkowite przesłonięcie, zmiany oświetlenia, rozmycie i podobne obiekty. W tym artykule badamy filtr korelacji i podejście oparte na głębokim uczeniu się. Porównaliśmy następujące trackery ECO, SaimRPN, ATOM, DiMP, TRASFUST i TREG. Te trackery zostały opracowane w oparciu o głębokie sieci neuronowe i są bardzo nowe. Wydajność trackerów została oceniona na zestawie danych OTB-100, UAV123, VOT 2019, GOT-10k i LaSOT. Wyniki dowodzą skuteczności głębokich sieci neuronowych w radzeniu sobie ze śledzeniem obiektów w filmach.
Niniejsza publikacja przedstawia wielokryterialne porównanie dwóch aplikacji mobilnych zbudowanych przy zastoso-waniu Android oraz Flutter SDK. Pierwsza z nich zaimplementowana została w języku Kotlin, natomiast druga w Dart. Proces porównawczy bada takie czynniki jak czas wykonania oraz użycie procesora podczas operacji dyskowych oraz na danych. Dodatkowo podczas analizy zwrócono uwagę na długość oraz objętość kodu, wsparcie społeczności oraz dostępność bibliotek. Analiza wykazała, że aplikacja napisana przy użyciu Android jest nie tylko często szybsza oraz wydajniejsza ale również posiada większe wsparcie społeczności oraz liczbę dostępnych bibliotek. Ponadto analiza objętości kodu źródłowego wykazała, że Flutter posiada kod bardziej zwięzły lecz trudniejszy do nawigowania od Android.
EN
This publication presents a multi-criteria comparison of two mobile applications built with the use of Android and Flut-ter SDK. The former has been implemented with Kotlin and the latter with Dart. The benchmarking process examines factors such as execution time and CPU usage during data and disk operations. During the analysis, attention was paid to the length and volume the source code, community support and the availability of libraries. The comparative analysis shows that a mobile application written using Android SDK is often not only faster and more efficient, but also has greater community support and the number of libraries available. In addition, an analysis of the source code volume showed that Flutter has more concise but more difficult to navigate code than Android.
Modern industry requires an increasing level of efficiency in a lightweight design. To achieve these objectives, easy-to-apply numerical tests can help in finding the best method of topological optimization for practical industrial applications. In this paper, several numerical benchmarks are proposed. The numerical benchmarks facilitate qualitative comparison with analytical examples and quantitative comparison with the presented numerical solutions. Moreover, an example of a comparison of two optimization algorithms was performed. That was a commonly used SIMP algorithm and a new version of the CCSA hybrid algorithm of topology optimization. The numerical benchmarks were done for stress constraints and a few material models used in additive manufacturing.
Ze względu na nieistnienie uniwersalnego algorytmu optymalizacji rozwiązującego wszystkie problemy naukowotechniczne opracowywanie nowych i wydajniejszych obliczeniowo algorytmów optymalizacyjnych wciąż jest popularnym zadaniem. Przeglądając literaturę z dziedziny optymalizacji można zauważyć trend tworzenia „wymyślnych” algorytmów opartych na procesach naturalnych. W artykule sprawdzono skuteczność nowopowstałych algorytmów meta-heurystycznych zainspirowanych życiem owadów i zwierząt – czarnych wdów (algorytm BWO) oraz szarego wilka (algorytm GWO). Skuteczność działania wybranych algorytmów porównano z klasycznym algorytmem quasi-Newtonowskim BFGS oraz strategią ewolucyjną CMA-ES, które charakteryzują się solidnym uwarunkowaniem matematycznym. W celach porównawczych wykorzystano 3 wybrane funkcje testowe. W ramach badań sprawdzono również wpływ liczby zmiennych decyzyjnych na czas uzyskiwania rozwiązania.
EN
Due to the lack of a universal optimization algorithm which solves all scientific and technical problems, developing new and more computationally efficient optimization algorithms is still a popular challenge. Reviewing the literature on optimization there is a trend to create "fancy" algorithms based on natural processes. The article examines the effectiveness of newly developed meta-heuristic algorithms inspired by insects and animals - black widows (BWO algorithm) and grey wolf (GWO algorithm). The effectiveness of the selected algorithms was compared with the classical quasi-Newtonian BFGS algorithm and the evolutionary strategy CMA-ES, which are characterized by a solid mathematical background. Three selected benchmark functions were used for comparison purposes. The study also included a test of the influence of the number of design variables on the time complexity.
5
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Basic Linear Algebra Subprograms (BLAS) has emerged as a de-facto standard interface for libraries providing linear algebra functionality. The advent of powerful devices for Internet of Things (IoT) nodes enables the reuse of existing BLAS implementations in these systems. This calls for a discerning evaluation of the properties of these libraries on embedded processors. This work benchmarks and discusses the performance and memory consumption of a wide range of unmodified open-source BLAS libraries. In comparison to related (but partly outdated) publications this evaluation covers the largest set of opensource BLAS libraries, considers memory consumption as well and distinctively focuses on Linux-capable embedded platforms (an ARM-based SoC that contains an SIMD accelerator and one of the first commercial embedded systems based on the emerging RISC-V architecture). Results show that especially for matrix operations and larger problem sizes, optimized BLAS implementations allow for significant performance gains when compared to pure C implementations. Furthermore, the ARM platform outperforms the RISC-V incarnation in our selection of tests.
6
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The newly developed self-heating based vibrothermography method is a non-destructive testing method applicable to polymeric and polymer-based composite structures, which is based on the self-heating effect used as thermal excitation of a structure during testing. The mechanical excitation with multiple resonant frequencies causes viscoelastic energy dissipation in the whole structure, which allows the observation of eventual flaws and damage in the form of differences in the surface temperature distribution observed by an infrared camera. The effectiveness of damage detectability depends on the visibility of thermal signatures of potential flaws and damage, which is often masked by measurement noise and artefacts in thermograms. Therefore, it is suitable to apply post-processing procedures that allow the enhancement of damage detectability. The developed set of tools for thermogram post-processing covers primary methods based on statistical features, and more advanced ones like methods based on derivatives, wavelet transform as well as post-processing methods dedicated for thermogram enhancement such as thermographic signal reconstruction, partial least squares regression or principal component thermography. These methods were implemented in the form of an integrated GUI-based benchmark based on Matlab routines, dedicated to the post-processing of thermographic data acquired using self-heating vibrothermography.
PL
Nowo opracowana metoda wibrotermografii oparta na samorozgrzaniu jest metodą nieniszczącą, którą można stosować do struktur polimerowych oraz do kompozytów o osnowie polimerowej, bazującą na efekcie samorozgrzania stosowanym jako wymuszenie cieplne struktury podczas badań. Wymuszenie mechaniczne na wielu częstotliwościach rezonansowych powoduje lepkosprężystą dyssypację energii w całej strukturze, co pozwala na obserwację ewentualnych wad i uszkodzeń w postaci róż-nic rozkładu temperatury na powierzchni widocznych za pomocą kamery termograficznej. Efektywność wykrywalności uszkodzeń zależy od widzialności sygnatur cieplnych potencjalnych wad i uszkodzeń, które często są maskowane przez szum pomiarowy i artefakty w termogramach. Dlatego należy stosować procedury przetwarzania, które pozwalają na zwiększenie wykrywalności uszkodzeń. Opracowany zestaw narzędzi do przetwarzania termogramów zawiera metody podstawowe oparte na cechach statystycznych i bardziej zaawansowane, bazujące na pochodnych temperaturowych, transformacji falkowej oraz metodach przetwarzania dedykowanych dla polepszenia jakości termogramów, jak termograficzna rekonstrukcja sygnału, regresja częściowych najmniejszych kwadratów lub termografia głównych składowych. Te metody zostały zaimplementowane w postaci zintegrowanego benchmarku z interfejsem graficznym opartym na algorytmach Matlaba, dedykowanym przetwarzaniu danych termograficznych pozyskanych z zastosowaniem wibrotermografii bazującej na samorozgrzaniu.
The production capacity of installed wind power greatly increases in worldwide. Hence the interest is focused on the reliability and efficiency of wind turbines; then to reduce the production cost and increase the yield. The main objective of our research in this work is to diagnose wind system. We presented a state of the art of diagnosis approach applied on wind turbines and various occurred faults which should be detected and isolated in the wind turbine parts. After that, an overview on this proposed solution for wind turbines, which opted for a diagnostic strategy based on support vector machines (SVM). A Benchmark of a wind power of 4.5 MW with faults on sensors, actuators and the systems was presented. Defects of the Benchmark are in the pitch system, the drive system, the generator and the converter. We tested then the effectiveness of the used method by visualizing simulation results of diagnosis in two different scenarios.
In induction heating the design of the inductor implies the solution of coupled electromagnetic and thermal fields, along with the use of optimal design procedures to identify the best possible device or process. The benchmark model proposed, a graphite disk heated by means of induction, is optimized using different optimization algorithms. The design aim requires to achieve a prescribed and uniform temperature distribution in the workpiece maximizing the system efficiency.
Celem pracy była analiza i badanie programowej platformy Node.js i frameworka Laravel, a także porównanie wydajności serwisów utworzonych za pomocą tych technologii. Testy wydajności aplikacji przeprowadzono za pomocą oprogramowania Apache Benchmark i Apache JMeter. Analiza obejmuje teoretyczne i praktyczne aspekty ich funkcjonowania.
EN
The aim of this work was the analysis and research of software platform Node.js and the framework Laravel, and comparing the performance of the created sites using Node.js and PHP. The tests were carried out with Apache Benchmark and Apache JMeter. The analysis includes theoretical and practical aspects of their functioning.
Virtualization of operating systems and network infrastructure plays an important role in current IT projects. With the number of services running on different hardware resources it is easy to provide availability, security and efficiency using virtualizers. All virtualization vendors claim that their hypervisor (virtual machine monitor - VMM) is better than their competitors. In this paper we evaluate performance of different solutions: proprietary software products (Hyper-V, ESXi, OVM, VirtualBox), and open source (Xen). We are using standard benchmark tools to compare efficiency of main hardware components, i.e. CPU (nbench), NIC (netperf), storage (Filebench), memory (ramspeed). Results of each tests are presented.
Benchmarking is a management tool successfully used by public and private sector managers and holding its important position in a management toolbox throughout the years. The essence of benchmarking is learning from others and creative adaptation of good practices. It can involve both quantitative and qualitative comparisons which enable not only to learn about the outcomes of the activity but also about the ways these results had been achieved. In the paper the possibility of applying benchmarking in omni-channel logistics is presented. The rising expectations of customers highlighting the convenience of purchase as one of the most important factors determining purchase, forces retailers to change their business strategies. One of the most important factor creating product value is flexible delivery. Therefore this aspect was chosen as an example field for a proposed reference benchmarking methodology.
The importance of non-deterministic polynomial (NP) problems in real world scenarios has compelled researchers to consider simple ways of finding approximate solutions to these problems in polynomial time. Minimum vertex cover is an NP complete problem, where the objective is to cover all the edges in a graph with the minimal number of vertices possible. The maximal independent set and maximal clique problems also belong to the same class. An important property that we have analyzed while considering various approaches to find approximate solutions to the minimum vertex cover problem (MVC) is that solving MVC directly can result in a bigger error ratio. We propose a new approximation algorithm for the minimum vertex cover problem called vertex cover using a maximum independent set (VCUMI). This algorithm works by removing the nodes of a maximum independent set until the graph is an approximate solution of MVC. Based on empirical results, it can be stated that VCUMI outperforms all competing algorithms presented in the literature. Based on all the benchmarks used, VCUMI achieved the worst case error ratio of 1.033, while VSA, MDG and NOVAC-1 gave the worst error ratios of 1.583, 1.107 and 1.04, respectively.
The paper presents a set of test procedures for performing an extended test of dual-core microcontroller performance. The procedures described enable the performance of the system to be determined with regard to memory organization, mutual influence of cores and ability to verify the impact of code optimization level. The experimental trials were performed using an LPC4357 microcontroller with onboard FLASH and SRAM memory. The results obtained showed a slight performance drop for the various microcontrollers operating simultaneously in typical conditions. However, with frequent references to a shared memory, the performance drop may reach as much as 80%.
W artykule przedstawiono porównanie wydajności obliczeniowej mikrokontrolerów z rdzeniem ARM Cortex M na przykładzie rodziny STM32. Omówiono różnice pomiędzy poszczególnymi rdzeniami Cortex M. Przedstawiono metody badania wydajności obliczeniowej stałoprzecinkowej oraz zmiennoprzecinkowej. Przedstawiono wyniki badań wydajności na przykładzie 4 mikrokontrolerów różniących się zastosowanym rdzeniem. Porównano skuteczność mechanizmów zwiększających wydajność, takich jak pamięć Cache. Zbadano przepustowość magistrali pamięci dynamicznej DRAM, porównano wydajność algorytmów automatycznej optymalizacji kodu oraz wydajność jednostki zmiennoprzecinkowej FPU.
EN
The paper presents computational performance comparison of ARM Cortex M microcontrollers using STM32 family as an example. Differences between Cortex M cores have been described. The article also presents methods of performance analysis for integer and floating point arithmetics. Measurement results have been given for 4 microcontrollers with different cores as well as DRAM memory bandwidth, automatic optimization efficiency and FPU throughput. Performance boosting modules efficiency such as Cache memory was also investigated.
The need for cost optimization in a broad sense constitutes the basis of operation of every enterprise. In the case of IT structure (which is present in almost every field of activity these days), one of the most commonly applied technologies leading to good cost-to-profit adjustment is virtualization. This allows the location of several operational systems with IT systems on a single server. In order for such an optimization to be carried out correctly, it has to be strictly controlled by means of allocating access to resources (which is known as performance isolation). Modern virtualizers allow us to set up this allocation in quantitative terms (the number of processors, size of RAM, or disc space). It appears, however, that in qualitative terms (processor time, RAM, or hard disc bandwidth), the actual allocation of resources does not always correspond with this configuration. This paper provides an experimental presentation of the achievable quality level of performance isolation of the Hyper-V virtualizer.
16
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The article deals with the problems connected with the arrangement and durability of bench marks used for measurements of vertical displacements of objects. There have been presented objects on which long term measurements of displacements were performed. Although there are different causes of poor durability, it is primarily the effect of insufficient knowledge as to how to mark the determined displacements.
This paper presents the new benchmark data registra- tion system aimed at facilitating the development and evaluation of the visual odometry and SLAM algorithms. The WiFiBOT LAB V3 wheeled robot equipped with three cameras, XSENS MTi atitude and heading reference system (AHRS) and Hall encoders can be used to gather data in indoor exploration scenarios. The ground truth trajectory of the robot is obtained using the visual motion tracking system. Additional static cameras simulating the surveillance network, as well as artificial markers augmen ting the navigation are incorporated in the system. The datasets registered with the presented system will be freely available for research purposes.
Artykuł poświęcony jest przeglądowi metod i sposobów estymacji kosztów otworów wiertniczych stosowanych na rynkach międzynarodowych (głównie na rynku północnoamerykańskim) oraz zawiera próbę aplikacji wybranej metody lub metod dla dostępnych danych odnośnie tego typu kosztów w basenach geologicznych w Polsce. Autorzy zajmują się wstępnym oszacowaniem przydatności tego typu estymacji dla modelowania i benchmarkingu efektywności prac poszukiwawczych i wydobywczych w Polsce. Na poziomie poszczególnych przedsiębiorstw poszukiwawczo-wydobywczych benchmarking i planowanie kosztowe są z reguły oparte na wypracowanych na różnorodnych złożach doświadczeniach i próbach optymalizacji technicznej i kosztowej całości procesu. W artykule zaproponowano i opisano wstępny algorytm do wyliczeń tych kosztów. Autorzy zwracają uwagę, że przydatność utworzonego na bazie równania (4) modelu do estymacji kosztów wierceń na podstawie głębokości docelowych formacji w Polsce jest mniejsza niż w na rynku amerykańskim, ale nadal bardzo wysoka. W przypadku analiz wykonywanych poza przedsiębiorstwami prowadzącymi prace poszukiwawczo-wydobywcze może to być jedyne dostępne narzędzie do szacunkowych obliczeń kosztów otworów wiertniczych dla poszczególnych basenów geologicznych i docelowych głębokości.
EN
This article describes methods of estimating oil and gas well costs on international markets (mainly in the US and Canada), and presents the application of the selected methods within the context of available data concerning drilling costs in Polish geological basins. The article reviews and evaluates the applicability of these methods for modeling and benchmarking efficiency of upstream activities in Poland. At the level of specific oil and gas firms, benchmarking and cost planning is usually based on a company’s knowhow coming from experiences related to technical and economical optimization processes. This article proposes and describes algorithms for such calculations. The analysis suggests that the usefulness of the drilling cost model based on equation (4) in relation to the deposit depth is lower in Poland compared to the USA, but still quite significant. For external analysis (outside upstream companies) it could be the only tool for evaluating the oil and gas well costs based on the depth of target formations.
Treścią publikacji jest charakterystyka dziesięciu podstawowych filarów koncepcji Produkcji Klasy Światowej (World Class Manufacturing − WCM). Teoretyczne założenia koncepcji przedstawiono od strony praktycznej funkcjonowania przedsiębiorstwa hutniczego. Jako studium przypadku posłużyło przedsiębiorstwo ArcelorMittal Poland, które wdraża programy, składające się na dziesięciu filarów WCM.
EN
In the publication ten pillars of World Class Manufacturing (WCM) were characterized. Theoretical foundations of the concept were referred to practical business. ArcelorMittal Poland was used as the case study. Particular areas in the enterprise called the pillars of WCM are presented further in this publication.
20
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
This paper focuses on finding the most efficinet way of performing local and remote computations with web appliacation based on ActionScript language. Tests involve comparsion of several scenarions which uses pure ActionScript, ActionScript with Alchemy project and ActionScript connecting with C application over AMF protocol and with FileReference class.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.