Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  SA
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Ionospheric anomalies related to the Mw 6.5 Samar, Philippines earthquake
EN
Models belonging to the ionosphere that is directly affected by factors such as solar activity, geomagnetic storm, earthquake, seasonal changes, and geographical location need to be considered altogether. In this sense, the cause of the ionospheric anomalies should be meticulously distinguished from each other. Ionospheric anomalies that occur before or (and) after an earthquake have a serious place in earthquake prediction studies. Total electron content (TEC) is one of the significant parameters to be able to discuss the anomalies of the ionosphere. This essay investigates ionospheric anomalies before and after the Mw 6.5 Samar, Philippines (12.025° N, 125.416° E and November 18, 2003, at 17:14 UT) earthquake. The paper analyzes anomalies with the aid of the TEC (TECU) map. In the paper, the time-domain TEC variables are transferred to the frequency-domain for observing some clues-peaks by short-term Fourier transformation spectral analysis. The discussion handles the effect of the solar activity with the F10.7 (sfu) index and the effect of geomagnetic storms with Bz (nT), v (km/s), P (nPa), E (mV/m), Kp (nT), and Dst (nT) parameters (index). The lower and upper boundaries of the TEC map obtained from the International Reference Ionosphere (IRI-2016) are calculated with the help of median and standard deviation. The boundary-setting process is named statistical analysis. TEC data exceeding the boundaries are marked as anomaly data. According to the paper, 11-day anomalies (9-day of which belong to pre-earthquake) are detected. Probably, the anomalies observed on November 6, 7, and 12 belong to the Samar earthquake.
EN
Based on the theory of direct relation graph (DRG) and sensitivity analysis (SA), a reduced mechanism for diesel CH4-H2 tri-fuel is constructed. The detailed mechanism of Lawrence Livermore National Laboratory, which has 654 elements and 2827 elementary reactions, is used for mechanism reduction with DRG. Some small thresholds are used in the process of simplifying the detailed mechanism via DRG, and a skeletal mechanism of 266 elements is obtained. Based on the framework of the skeletal mechanism, the time-consuming approach of sensitivity analysis is used for further simplification, and the skeletal mechanism is reduced to 262 elements. Validation of the reduced mechanism is done via a comparison of ignition delay time and laminar flame speed from the calculation using the reduced mechanism and the detailed mechanism or experiment. The reduced mechanism shows good agreement with the detailed mechanism and with related experimental data.
3
Content available TPG and SA with low power consumption
EN
In this paper new solutions for reducing a switching activity of BIST environment for the scan-organized BIST architectures are presented. Several approaches of low power BIST have been proposed. In [1], the author presents a test scheduling approach that takes into consideration the power consumption. For general BIST structure a new test pattern generator is proposed in [2]. There is a set of solutions to eliminate useless pseudo random patterns during the test mode [3-5]. The paper is organized as follows. In Section 2 the power consumption issue and weighted switching activity modeling are investigated. Section 3 presents switching activity of basic logic structures. In Section 4 a new technique is proposed. Section 5 shows the multi-input modulo 2 adder with low power consumption. In Section 6 modified structures of TPG and SA are presented. Section 7 shows two-pattern testing and Section 8 cryptographic key generation with low power consumption. Sections 9-11 include hardware verification of the presented solutions. Section 12 is the summary.
PL
Pobór mocy w systemach cyfrowych może znacząco wzrosnąć podczas procesu testowania. Niniejsza publikacja opisuje metodę, dzięki której może zostać zmniejszone zużycie energii w układach cyfrowych podczas testowania BIST (ang. Built-In Self-Testing). Niniejsze rozwiązanie zostało opracowane w oparciu o standardową strukturę rejestru przesuwającego z liniowym sprzężeniem zwrotnym LFSR(ang. Linear Feedback Shift Register). Weryfikacja sprzętowa pokazuje, iż pobór mocy został zmniejszony o około 50% w porównaniu ze strukturą klasyczną. Zaproponowane rozwiązanie zweryfikowano sprzętowo w generatorze testów TPG (ang. Test Pattern Generator), analizatorze sygnatur SA (ang. Signature Analyzer), generatorze par wektorów testowych oraz zmodyfikowanym generatorze Geffe’go. Zawartość artykułu jest następująca. W części 2. opisano podstawowe definicje związane z poborem mocy w BIST. W części 3. przedstawiono sposób obliczania aktywności przełączeń podstawowych struktur logicznych. W części 4. pokazano wpływ sposobu projektowania układu na jego aktywność przełączeń. Część 5. zawiera metodę projektowania wielowejściowego sumatora modulo 2 o minimalnej aktywności przełączeń. Zmniejszenie poboru mocy w generatorach testów i analizatorach sygnatur wykorzystywanych w BIST zostało zaprezentowane w części 6., natomiast obniżenie poboru mocy podczas testowania układów cyfrowych z wykorzystaniem par wektorów testowych w części 7. Część 8. to obniżenie poboru mocy podczas testowania układów cyfrowych z wykorzystaniem par wektorów testowych. Rozdziały 9–11 zawierają weryfikację sprzętową zaprezentowanych metod i algorytmów. Podsumowanie zawiera część 12.
4
Content available remote Stochastic TCO Minimization for Video Transmission over IP Networks
EN
From the viewpoint of service operators the Total Cost of Ownership (TCO) for developing a communication service comprises from two parts; CAPital EXpenditure (CAPEX) and OPerational EXpenditure (OPEX). These two types of costs are interrelated and affect any service provider’s deployment strategy. In many traditional methods, selection of critical elements of a new service is performed in a heuristic manner aimed at reducing only the OPEX part of the TCO which is not necessarily optimal. Furthermore, exact cost modeling for such services is not always possible and contains some uncertainties. In the current work, after cost modeling of each video streaming element by capturing the effect of the model uncertainties, the TCO optimization problem for video streaming over IP networks is formulated as a stochastic optimization problem. The solution of the proposed optimization problem can cope with the cost modeling uncertainties and track the dynamism in the TCO and lead to a time-varying optimal solution. Numerical analysis results verify the developed method.
EN
This paper describes the pattern recognition system for analysis of multidimensional data, based on natural meta-heuristics. The system consists of tree modules: preprocessing, feature extraction and clustering. Feature extraction module is based on Molecular Dynamic (MD). In clustering are used two natural methods: Simulated Annealing (SA) and Taboo Search (TS). The system is used to analyze an evolving population of individuals equipped with 'genetic codes'. Clustering module extracts groups of data with similar genetic code named clusters and make of possible to observe their geographical localization. The feature extraction verifies the clustering and allows analyzing of clustering patterns, their shapes and the distances between them.
PL
Opracowano metodę optymalizacji według strategii symulowanego wyżarzania (SW) opartą na propozycji z [1, 2]. Polega ona na wbudowaniu algorytmu simpleksów w ramy podstawowych koncepcji SW. Opracowana metoda umożliwia rozwiązywanie problemów nieliniowych z ograniczeniami równościowymi i nierównościowymi. W tej pracy przedstawiono przykłady zastosowania do rozwiązania dwóch zagadnień z zakresu inżynierii chemicznej.
EN
Simulated annealing (SA) optimisation method has developed based on the proposition from [1,2]. The approach relies on embedding simplex algorithm into basic concepts of SA. The optimisation method can be applied for solving non-linear problems with equality and inequality constraints. Examples of applications are presented for two chemical engineering problems.
PL
Istnieją dwa zasadniczo różne podejścia do realizacji wyszukiwania w sieci Internet. Rozwiązanie problemu proponowane w artykule opiera się na zdecentralizowanym systemie agentowym, w którym poszukiwanie żądanych danych jest przeprowadzane przez mobilnych agentów, zaś dokonywane w miejscu, gdzie znajdują się zasoby danych. Środowiskiem funkcjonowania agentów jest system powiązanych ze sobą serwerów. W każdym serwerze działa rezydentny agent, którego zadaniem jest umożliwienie dostępu do danych, oferowanych w węźle, w którym się znajduje. Wykorzystuje on w tym celu standardowy interfejs, służący do komunikowania się z mobilnymi agentami, dedykowanymi do przeszukiwania określonych zasobów. Gdy użytkownik wprowadza do systemu zapytanie za pomocą odpowiedniego interfejsu, system tworzy mobilnego agenta, którego zadaniem jest znalezienie odpowiedzi na wprowadzone zapytanie. Agent ten porusza się między węzłami sieci, komunikując się z rezydującymi w nich agentami statycznymi. Agent mobilny, przenoszący zapytanie i zgromadzone przez siebie dane, może pozostawić w węźle informacje na temat celu swoich poszukiwań i ich dotychczasowych rezultatów. Informacje te mogą zostać wykorzystane przez innych agentów, poszukujących podobnych informacji. Zabieg ten ma na celu przyspieszenie działania systemu. Pozostawiona informacja jest przechowywana przez określony czas, a następnie usuwana, aby ograniczyć przechowywanie zdezaktualizowanej informacji. W artykule zaprezentowano podstawowe decyzje projektowe, związane z realizacją zdecentralizowanego systemu wyszukiwania informacji w Internecie, opartego na tego rodzaju koncepcji.
EN
There are two different approaches to search of information in Internet. The solution of the problem proposed in the paper is based on decentralized agent system where the search of required data is carried out by mobile agents in the location ofdata resources. The environment of agents is a system of servers connected mutually. Each server has a resident agent that task is to make available data in the node where it acts. It applies for the purpose, the standard interface that serves as a means of communication with mobile agents dedicated to search of certain resources. When a user generates a query with the use of appropriate interface, the system creates a mobile agent that task is to find the reply to the query. The agent moves between network nodes, communicating with resident static agents.The mobile agent, transporting the query and the stored (by itself) data may leave in the node the information about a goal of search and current results. Other agents that look for similar data may use the information. Such a course of action should speed up the system. The left information is stored for some time and deleted afterwards, for the purpose to limit storage of not up-to-date data. Fundamental design decisions related to implementation of decentralized system of information search in Internet, based on such a concept were presented in the paper.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.