Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 24

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
The quarrying industry is changing the local landscape, forming deep open pits and spoil heaps in close proximity to them, especially lignite mines. The impact can include toxic soil material (low pH, heavy metals, oxidations etc.) which is the basis for further reclamation and afforestation. Forests that stand on spoil heaps have very different growth conditions because of the relief (slope, aspect, wind and rainfall shadows, supply of solar energy, etc.) and type of soil that is deposited. Airborne laser scanning (ALS) technology deliver point clouds (XYZ) and derivatives as raster height models (DTM, DSM, nDSM=CHM) which allow the reception of selected 2D and 3D forest parameters (e.g. height, base of the crown, cover, density, volume, biomass, etc). The automation of ALS point cloud processing and integrating the results into GIS helps forest managers to take appropriate decisions on silvicultural treatments in areas with failed plantations (toxic soil, droughts on south-facing slopes; landslides, etc.) or as regular maintenance. The ISOK country-wide project ongoing in Poland will soon deliver ALS point cloud data which can be successfully used for the monitoring and management of many thousands of hectares of destroyed post-industrial areas which according to the law, have to be afforested and transferred back to the State Forest.
PL
W wyniku działalności wydobywczej, w tym eksploatacji odkrywkowej, krajobraz naturalny zostaje całkowicie zmieniony, powstają wielkoobszarowe tereny bezglebowe w formie zwałowisk i wyrobisk. W celu powstrzymania degradacji środowiska oraz odtworzenia warunków przyrodniczych konieczne staje się objęcie tych terenów rekultywacją i zalesianiem, z uwzględnieniem różnych warunków wzrostu roślinności, wynikających z ukształtowania terenu (nachylenie, ekspozycja, kierunek wiatru i opadów, dopływ energii słonecznej, itp.) czy rodzaju gruntu. Technologia lotniczego skanowania laserowego (ALS) dostarcza chmury punktów (XYZ) oraz ich pochodne w postaci rastrowych modeli wysokości, które umożliwiają wyznaczenie wybranych parametrów 2D i 3D roślinności (np. wysokość drzewostanów i pojedynczych drzew, wysokość podstawy korony, zwarcie, biomasa, itp). Automatyzacja przetwarzania chmur punktów ALS i integracja wyników w systemach GIS pomaga w podejmowaniu decyzji, dotyczących zabiegów hodowlanych, także na obszarach szczególnie trudnych dla adaptacji roślinności (toksyczne gleby, susze na południowych stokach, obsunięcia ziemi). Ogólnokrajowy projekt ISOK jest źródłem danych pochodzących ze skanowania laserowego, które z powodzeniem mogą być używane do monitorowania i zarządzania wieloma tysiącami hektarów zniszczonych terenów poprzemysłowych, które zgodnie z prawem mają zostać zalesione i przekazane pod działanie Lasów Państwowych.
PL
Poprawne określenie długości roboczej kanału zębowego jest podstawą prawidłowego leczenia kanałowego zęba, określającego jakość leczenia i komfort pacjenta. Opracowanie przybliża zagadnienia związane z elektrycznymi metodami wyznaczenia długości roboczej kanału korzeniowego zęba, z wykorzystaniem urządzeń Apex Locator, zwanych Endometrami. Zostały omówione metody pomiarów i zagadnienia techniczne związane z działaniem tych urządzeń, oraz opisana ewolucja elektronicznych endometrów.
EN
Correct determination of the working length of a root canal is the basis for proper root canal treatment, affecting the quality of treatment and patient comfort. This paper explains the issues related to electronic determination of the root canal length using Apex Locator devices, called Ednometer. There are discussed the methods and technical issues associated with the operation of these devices and there is described the evolution of electronic methods for measuring the length of the root canal.
EN
For contemporary software systems, security is considered to be a key quality factor and the analysis of IT security risk becomes an indispensable stage during software deployment. However, performing risk assessment according to methodologies and standards issued for the public sector or large institutions can be too costly and time consuming. Current business practice tends to circumvent risk assessment by defining sets of standard safeguards and applying them to all developed systems. This leads to a substantial gap: threats are not re-evaluated for particular systems and the selection of security functions is not based on risk models. This paper discusses a new lightweight risk assessment method aimed at filling this gap. In this proposal, Fuzzy Cognitive Maps (FCMs) are used to capture dependencies between assets, and FCM-based reasoning is performed to calculate risks. An application of the method is studied using an example of an e-health system providing remote telemonitoring, data storage and teleconsultation services. Lessons learned indicate that the proposed method is an efficient and low-cost approach, giving instantaneous feedback and enabling reasoning on the effectiveness of the security system.
4
Content available Evaluation of a dynamic map architecture with ATAM
EN
Dynamic Map can be considered a complex information system, composed of spatial databases, storing static and dynamic data relevant for urban traffic, as well as a set of software modules responsible for data collection, interpretation and provision. The data originates from a network of sensors, both fixed (e.g. video detectors, acoustic sensors, inductive loops) and on-board GPS receivers installed in vehicles. Clients of the Dynamic Map are various software modules performing such tasks as visualization, route planning, traffic optimization, object tracking and threat detection. The paper discusses experiences with an evaluation of the system architecture using the ATAM (Architectural Tradeoffs Analysis Method). The stages of evaluation eomprise describing architectural views, identification of key scenarios and evaluation of risks of their realization.
PL
Mapa dynamiczna jest złożonym systemem informatycznym składającym się z przestrzennych baz danych przechowujących statyczne i dynamiczne informacje dotyczące ruchu drogowego oraz modułów oprogramowania odpowiedzialnych za zbieranie danych, ich interpretację oraz udostępnianie. Dane monitorowania pochodzą z sieci czujników, zarówno stałych, w tym detektory wideo, czujniki akustyczne i pętle indukcyjne, jak i odbiorników GPS zainstalowanych w pojazdach. Klientami mapy dynamicznej są systemy odpowiedzialne za wizualizację, planowanie trasy, śledzenie obiektów oraz wykrywanie zagrożeń. W artykule omówiono doświadczenia zebrane podczas przeprowadzonej oceny architektury z wykorzystaniem metody ATAM. Etapy oceny obejmują opis architektury, identyfikację kluczowych scenariuszy oraz ocenę ryzyka ich realizacji.
EN
SIMPOZ project aims at building a highly configurable system for suryeillance of publie areas and objeets of a speeial importanee based on the analysis of digital images. Distributed naturę and po-tential diyersity of monitoring features, a large number of alarm signals fed by yarious sensors, the need to ensure a flexible event flow management and tailored to needs emergency response processes were motiyations to utilize workflow as a management and integration layer. Implementation of workflow processes was preceded by business modeling with ArchiMate language. The presented models of business processes reflect the specificity and characteristies of surveillance systems: reactiye character, event driven control and a large number of asynchronous data flows. Lessons learned indicate, that ArchiMate models in spite of the smaller set of dedicated behayioral constructs with respect to for example BPMN, after adopting certain modeling conyentions, allow to reach high level of expressiveness.
PL
Projekt SIMPOZ ma na celu budowę elastycznego systemu nadzoru przestrzeni publicznej i obiektów specjalnego znaczenia na podstawie analizy cyfrowych obrazów. Motywacją do wykorzystania w systemie przepływów pracy jest duże rozproszenie, potencjalna różnorodność monitorowanych własności i informacji o alarmach oraz potrzeba zapewnienia elastycznego zarządzania przepływem zdarzeń. Implementacja procesów przepływu pracy została poprzedzona etapem modelowania biznesowego, w którym wykorzystano język ArchiMate. Przedstawione modele procesów biznesowych odpowiadają specyfice i własnościom systemów nadzoru: mają reaktywny charakter, są sterowanie poprzez zdarzenia oraz obejmują dużą liczbę asynchronicznych przepływów danych. Doświadczenia wskazują, że język ArchiMate, mimo mniejszego zestawu konstrukcji służących do opisu zachowania niż np. notacja BPMN, po przyjęciu pewnych konwencji modelowania, pozwala na osiągnięcie wysokiego poziomu ekspresywności.
EN
For many classes of problems it is difficult to make decisions, assessments or develop plans based on precise quantitative models. Fuzzy Cognitive Maps (FCM) are a well-known tool for qualitative analysis of systems that uses a simple representation of knowledge in the form of a graph of concepts linked by causal relationships. Advantages of FCMs are the ease of gathering and representing knowledge and the simplicity of reasoning techniques, very close to neural networks. The paper gives results of experiments aiming at application of FCMs to analysis of development scenarios for research and teaching units. The analyzes were conducted for four representative classes of academic units: strong, medium, weak with a development potential and weak; their results are discussed and several observations related to reasoning with FCMs are made.
PL
Dla wielu klas zagadnień podejmowanie decyzji, określenie strategii postępowania lub formułowanie ocen na podstawie precyzyjnych modeli ilościowych może być bardzo trudne w realizacji. Rozmyte mapy kognitywne (ang. FCM - Fuzzy Cognitive Maps) są znanym narzędziem jakościowej analizy systemów wykorzystującym prostą reprezentację wiedzy w postaci grafu pojęć i zależności przyczynowych pomiędzy nimi. Ich zaletą jest zarówno łatwość gromadzenia wiedzy, jak i prostota technik wnioskowania bliska sieciom neuronowym. Celem artykułu jest opisanie eksperymentu polegającego zastosowaniu FCM dla analizy zagadnienia słabo poddającego się ocenie ilościowej, jakim jest prognoza rozwoju jednostek naukowo-dydaktycznych. Praca podsumowuje rezultaty analizy w postaci scenariuszy rozwoju dla czterech reprezentatywnych klas jednostek: silnych, średnich, słabych z potencjałem i słabych oraz omawia zebrane obserwacje dotyczące wnioskowania z wykorzystaniem rozmytych map kognitywnych.
EN
Guidelines developed in line with Evidence-Based Medicine paradigm usually take form of narrative recommendations formulated on the basis of available evidence resulting from clinical trials and other types of studies. For past ten years there were developed several Formal Guidelines Representation languages that attempted to express them in form of algorithms or processes. Analysis of specific requirements related to e-health and in particular telemonitoring systems indicated, that a process oriented formalization of guidelines is in this case inappropriate, as such systems should be reactive, event driven and enable adaptation to cope with the quality of entered data. In this paper we describe an approach to guidelines implementation in the e-health system. Contrary to various FGR languages developed earlier the decision support will be based on the set of fuzzy rules that on the technical level will be implemented as XQuery transformations of XML data. We discuss this approach on an example related to the management of bronchial asthma, as customization of the system to this disease was selected as one of the proof-of-concept exemplifications of the system.
PL
Wytyczne medyczne tworzone zgodnie z paradygmatem medycyny opartej na dowodach mają formę tekstowych rekomendacji popartych opisem przeprowadzonych badań klinicznych i obserwacji. W ostatnich dziesięciu latach rozwijano szereg języków formalnej reprezentacji wytycznych, za pomocą których przedstawiano je w postaci algorytmów lub procesów. Analiza wymagań związanych z systemami typu e-health, a zwłaszcza systemów telemonitorowania wskazała, że procesowo zorientowana formalizacja wytycznych jest dla nich niewłaściwa, ponieważ takie systemy powinny być reaktywne, sterowane zdarzeniowo i powinny mieć wbudowane mechanizmy adaptacji pozwalające na dostosowanie się do zmiennej jakości wprowadzanych danych. W procesie telemonitorowania zaproponowano wykorzystanie rozmytych reguł, które będą zaimplementowane jako transformacje XQuery dla danych XML. Podejście to jest dyskutowane na przykładzie astmy oskrzelowej, ponieważ wsparcie dla tej choroby zostało wybrane jako przykład wdrożenia systemu.
EN
In this paper we describe SOAROAD (SOA Related Ontology of Architectural Decisions), which was developed to support evaluation of architectures of information systems using SOA technologies. The main goal of the ontology is to provide constructs for documenting service-oriented architectures, however, it is designed to support future reasoning. Building the ontology we focused on the reąuirements of Architecture Tradeoff Analysis Method (ATAM) which was chosen as reference methodology for architecture evaluation.
PL
W pracy opisano ontologię SOAROAD opracowaną, jako wsparcie dla oceny architektur oprogramowania wykorzystującego technologie związane z SOA. Głównym jej celem jest zdefiniowanie pojęć pozwalających na udokumentowanie decyzji projektowych w architekturach zorientowanych na usługi, jednakże jest ona skonstruowana w ten sposób, by umożliwić przyszłe wnioskowanie. Tworząc ontologię skupiono się na wymaganiach metody ATAM, ponieważ została ona wybrana jako referencyjna metoda oceny architektur.
PL
Klasyfikacja obiektowa (OBIA, ang. Object Based Image Analysis) jest nowatorską metodą analizy zobrazowań teledetekcyjnych, w której homogeniczne obiekty (segmenty), na które podzielony został obraz (za pomocą specyficznych algorytmów) poddawane są klasyfikacji. Dotychczasowe projekty wykazały, iż OBIA przeprowadzana na wysokorozdzielczych i wielospektralnych lotniczych ortofotomapach cyfrowych, wspierana modelami wysokościowymi, prowadzi do uzyskania bardzo dokładnych wyników. Stosunkowo niewiele prac koncentruje się na określeniu wpływu produktów pochodnych chmury punktów lotniczego skanowania laserowego (ang. Airborne Laser Scanning), takich jak wartość: odchylenia standardowego wysokości, gęstości punktów czy intensywności odbicia, na poprawę wyników klasyfikacji OBIA. W prezentowanej pracy poddano ocenie wzmocnienie procesu klasyfikacji OBIA danymi ALS na podstawie dwóch transektów badawczych („A” oraz „B”) o powierzchni 3 km2, położonych w okolicach Włocławka. Celem końcowym procesu analizy OBIA było uzyskanie aktualnej mapy klas pokrycia terenu. W opracowaniu wykorzystano lotnicze ortofotomapy cyfrowe oraz dane z lotniczego skaningu laserowego, pozyskane na przełomie sierpnia I września 2010 roku. Na podstawie punktów danych ALS wygenerowano warstwy pochodne takie jak: liczba odbić, intensywność, odchylenie standardowe, jak również wygenerowano znormalizowany Numeryczny Modelu Powierzchni Terenu (zNMPT). W wariancie pierwszym „I” wykorzystano dane uzyskane wyłącznie w nalocie fotogrametrycznym, tj. wielospektralne ortofotomapy lotnicze (kamera Vexcel) oraz indeksy roślinności (w tym NDVI i in.). Wariant drugi prac ”II” zakładał wykorzystanie dodatkowo danych z lotniczego skaningu laserowego. Określona dokładność klasyfikacji OBIA wykonanej w oparciu o cyfrową ortofotomapę lotniczą wyniosła 91.6% dla transektu badawczego „A” oraz 93.1% dla transektu „B”. Użycie danych ALS spowodowało podniesienie dokładności ogólnej do poziomu 95.0% („A”) oraz 96.9% („B”). Praca wykazała, iż zastosowanie danych ALS podnosi dokładność klasyfikacji segmentów o bardzo zbliżonych właściwościach spektralnych (np. rozróżnienie powierzchni dużych, płaskich dachów budynków od parkingów czy klas roślinności niskiej od średniej i wysokiej. Wprowadzenie warstw pochodnych ALS do procesu segmentacji poprawia także kształt powstających obiektów a tym samym klas końcowych. Analiza „surowych” danych ALS w postaci plików w formacie LAS otwiera dodatkowe możliwości, których nie daje wykorzystywanie rastrowych warstw takich jak zNMPT. Pojawiająca się w nowej wersji oprogramowania eCognition (TRIMBLE) możliwość operowania segmentami przestrzennymi jeszcze te możliwości klasyfikacji podnosi. Niewątpliwie sporym problemem w integracji informacji spektralnej (ortoobraz) oraz geometrycznej (ALS) jest efekt rzutu środkowego skutkujący przesunięciami radialnymi dla wysokich obiektów leżących w znacznej odległości od punktu głównego zdjęcia.
EN
Object Based Image Analysis (OBIA) is an innovative method of analyzing remote sensing data based not on the pixels, but on homogenous features (segments) generated by specific algorithms. OBIA based on high-resolution aerial orthophotography and powered by digital terrain models (nDSM) brings high accuracy analysis. Not many scientific papers brings implementation of ALS point cloud directly into OBIA image processing. Paper present study done on two test areas of approx. 3 km2, situated close to Wloclawek, representing different land use classes (transect “A” – urban area; transect “B” – rural and forest landscape). Geodata (digital aerial orthophotographs and Airborne Laser Scanning data) were captured almost at the same time (September 2010). Different raster layers were created from *. LAS file, like: intensity, number of returns, normalized elevation (nDSM). Two version (I and II) of OBIA classification were performed. First version (I) based only on aerial orthophotographs and different coefficients (like NDVI). Second variant of OBIA (wariant II) based additionally on ALS data. Total accuracy of variant I was 94.1% (transect “A”) and 92.6% (transect “B”). OBIA classification powered by ALS data provide to increase of the results up to 96.9% (transect “A”) and 95.0% (transect “B”) as well. Classification of objects with similar type of surface properties (like buildings and bare soil) was much better using ALS information. The ALS data improve also the shape of objects, that there are more realistic. Data fusion in OBIA processing brings new capabilities,. These capabilities are bigger thanks to processing based on 3-dimensional segments. The results of analysis would be more accurate, when orthoimages (“true ortho”) would be used, instead of standard orthophotographs. The running ISOK project in Poland will bring soon a huge data set (approx. 150 TB) of ALS and photogrammetry connected products. This situation requires suitable software to analyze it fast and accurate on the full automatic way. The OBIA classification seems to be a solution for such challenge.
PL
Wraz z rozwojem teledetekcji i wysokorozdzielczych obrazów satelitarnych istotnym wyzwaniem dla współczesnych badań stało się zautomatyzowanie procesu klasyfikacji pozyskiwanych danych. Jedną z bardzo szybko rozwijających się metod automatycznej klasyfikacji jest analiza obiektowa obrazu (OBIA, ang. Object Based Image Analysis). Celem pracy było wykorzystanie metody OBIA w przygotowaniu aktualnej mapy pokrycia terenu będącej ważnym elementem dokumentacji niezbędnej dla studium uwarunkowań budowy nowej hydroelektrowni na środkowym odcinku Wisły. W pracy wykorzystano wysokorozdzielcze zobrazowania satelitarne RapidEye (5 kanałów spektralnych, w tym dwa w zakresie NIR) pokrywające obszar około 5.300 km2 oraz oprogramowanie eCognition (TRIMBLE Geospatial) a także warstwy informacyjne GIS. W wyniku przeprowadzonych analiz uzyskano mapę pokrycia terenu reprezentowaną przez 29 klas. Największą powierzchnię terenu badań zajmują obszary użytkowane rolniczo (59.5%, z czego 35.5% grunty orne) oraz lasy (29.1%, z czego 21.4% drzewostany iglaste), co świadczy o charakterze tej jednostki fizjograficznej. Analiza dokładności uzyskanych wyników wykazała, iż metoda OBIA daje bardzo dobre rezultaty (współczynnik Kappa równy 0.8) w daleko zautomatyzowanym procesie generowania aktualny map pokrycia terenu dla obszarów centralnej Polski na podstawie obrazów satelitarnych RapidEye.
EN
Parallel with the development of remote sensing and high resolution satellite images major challenge for modern research has become almost to automate the classification of the data obtained. One of the most rapidly developing methods for automatic classification is object-oriented image analysis (OBIA, Object Based Image Analysis). The aim of the present study was to use the OBIA method to create the current land cover map which is part of the documentation necessary for new water power-station on the middle part of Vistula river. In this paper the RapidEye satellite images (5 spectral bands, two in the NIR range) covering an area of about 5 300 km2 and eCognition Developer (TRIMBLE) software were used. As a result of the analysis and land cover map was obtained, represented by 29 classes. The largest area is covered by agricultural land (59.5%; arable land – 35.52%) and forests (29.1%; mainly coniferous 21.4%), reflecting the rural – forestry character of the area. Analysis of the accuracy of the obtained results has shown that the OBIA method gives quite good results (Kappa coefficient equal to 0.8) for land cover mapping of central part of Poland based on the RapidEye imageries.
PL
W opracowaniu przedstawiono zagadnienie rozwoju, wytwarzania i wdrożenia oprogramowania korporacyjnego. W takim procesie ważne jest, aby współpraca pomiędzy przedsiębiorstwem rozwijającym oprogramowanie a przedsiębiorstwem, w którym to oprogramowanie było wdrażane, była bardzo efektywna. Na podstawie modeli korporacyjnych obu przedsiębiorstw można odwzorowywać model współpracy pomiędzy przedsiębiorstwami. W pracy przedstawiono w skrócie metodykę, która ma za zadanie rozwój oprogramowania korporacyjnego na bazie powiązań synergetycznych pomiędzy przedsiębiorstwami. Metodyka w zamierzeniu ma integrować najlepsze rozwiązania z dziedziny modelowania korporacyjnego, architektur zorientowanych na usługi oraz modeli wdrażania oprogramowania.
EN
The paper presents the problem of the development, production and deployment of enterprise software. The success of this process relies on effective cooperation between a company developing software and enterprise in which software is to be deployed. A model of cooperation between enterprises can be developed on the basis of corporate models of both companies. The paper outlines the methodology for corporate software development based on the synergetic relationships between the companies. The methodology is intended to integrate the best solutions in the field of corporate modeling, service-oriented architectures and software deployment models.
PL
W ostatnich latach obserwuje się wzrost zainteresowania przedsiębiorstw informatycznych zwinnymi metodykami zarządzania projektami. Najbardziej popularną pod względem liczby wdrożeń jest obecnie metodyka Scrum. Celem pracy jest budowa ontologicznego modelu tej metodyki, który może zostać zastosowany, jako model referencyjny przy ocenie jej wdrożeń oraz do porównań z innymi metodykami, np.: klasycznymi. W architekturze ontologii Scrum wyróżniono cztery najważniejsze kategorie klas: artefakty, role, zdarzenia oraz procesy. Identyfikacja procesów Scrum jest próbą odniesienia do modelu procesowego metodyk klasycznych reprezentowanych przez PMBOK.
EN
The paper presents an ontological model of Scrum, the most popular agile methodology of project management. The Scrum ontology can be used as a reference model helping to assess its implementation in enterprises or as the subject of comparison with other methodologies, e.g. classic ones. The Scrum ontology contains four main class categories: Artifacts, Roles, Events and Processes. Identification of processes is an attempt to find common base for future comparison with process model of the classical methodology PMBOK.
PL
W artykule zaprezentowano ontologiczny model klasycznej metodyki zarządzania projektami PMBOK. Stworzona ontologia pozwala sformalizować i usystematyzować wiedzę na temat standardu PMBOK. Zidentyfikowano najważniejsze kategorie klas występujących w PMBOK: Artifact, Role, Process oraz ProjectFramework. Zaprezentowano oraz omówiono główne klasy tworzące szkielet generowanej ontologii.
EN
The paper presents an ontological model of the PMBOK, classical methodology of project management. The PMBOK ontology contains four main class categories: Artifacts, Roles, Processes and Project Framework. Presented and discussed major classes forms the skeleton of constructed ontology.
EN
For IT enterprises running projects in different heterogeneous environments building hybrid models integrating classical and agile project management methodologies is considered as the very important issue. The paper discusses the problem of alignment of two project management methodologies: classical represented by PMBOK and agile represented by Scrum. The presented approach consists in building ontological models of both methodologies and performing ontology matching to find or justify mappings between concepts. We focus on modeling and matching of time related behavior in project for both methodologies.
PL
Współczesne przedsiębiorstwa branży IT poszukują rozwiązań z dziedziny zarządzania projektami polegających na integracji metodyk klasycznych i zwinnych. W artykule analizowany jest problem integracji dwóch metodyk: klasycznej reprezentowanej przez PMBOK ora zwinnej reprezentowanej przez Scrum. Zaproponowane podejście polega na budowie ontologicznych modeli obu metodyk oraz przeprowadzeniu uzgadniania ontologii, aby znaleźć lub potwierdzić zaproponowane odwzorowania pojęć. W artykule skupiono się na zagadnieniach modelowania i uzgadniania pojęć definiujących relacje czasowe w obu metodykach.
15
Content available remote XQPN – colored Petri nets for processing XML data with XQuery language
EN
The paper presents basic concepts of a new class of colored Petri nets XQPN (XQuery Petri Nets) designed for processing XML data. Tokens in XQPN nets correspond to nodes of XML documents that are stored in places. They are processed with XQuery expressions assigned to arcs. We describe the syntax and the behavior of XQPN and discuss algorithms of the net execution, including the binding calculation and updating of the marking.
PL
W pracy przedstawiono nową klasę kolorowanych sieci Petriego: XQPN (XQuery Petri Nets) Są one przeznaczone do przetwarzania danych XML przechowywanych w miejscach sieci za pomocą zapytań języka XQuery przypisanych łukom tranzycji. Zdefiniowano składnię oraz zaprezentowano działanie algorytmów wykonania sieci: wyznaczania wiązań tranzycji i uaktualniania znakowania.
16
Content available Formal analysis of use case diagrams
EN
Use case diagrams play an important role in modeling with UML. Careful modeling is crucial in obtaining a correct and efficient system architecture. The paper refers to the formal analysis of the use case diagrams. A formal model of use cases is proposed and its construction for typical relationships between use cases is described. Two methods of formal analysis and verification are presented. The first one based on a states' exploration represents a model checking approach. The second one refers to the symbolic reasoning using formal methods of temporal logic. Simple but representative example of the use case scenario verification is discussed.
PL
Diagramy przypadków użycia odgrywają znaczącą rolę w modelowaniu systemów z wykorzystaniem UML. Staranne i dokładne modelowanie ma zasadnicze znaczenie w postępowaniu umożliwiającym uzyskanie poprawnej i efektywnej architektury systemu. Artykuł odnosi się do formalnej analizy diagramów przypadków użycia. Został zaproponowany model formalny przypadku użycia, a także opisano odpowiednie konstrukcje dla relacji występujących pomiędzy przypadkami użycia. Zostały przedstawione dwie formalne metody ich analizy i weryfikacji. Pierwsza oparta jest na eksploracji stanów i reprezentuje podejście nazwane weryfikacją modelową. Druga odwołuje się do wnioskowania symbolicznego z wykorzystaniem logiki temporalnej. Został pokazany prosty i reprezentatywny przykład weryfikacji pewnego scenariusza przypadku użycia.
PL
Rozwój technologii pozyskiwania geodanych nabrał w ostatnich latach dużego tempa co skutkuje rewolucyjnymi zmianami w wielu dziedzinach gospodarki, w tym w leśnictwie, gdzie obserwuje się wdrażanie takich rozwiązań jak naziemny skaning laserowy (Terrestrial Laser Scanning; TLS). Pomiary wybranych cech drzew takich jak: wysokość, średnica, zbieżystość i objętości (miąższość grubizny) pnia są przedmiotem badań i wdrożeń. Generowane zbiory danych (chmur punktów) TLS wymagają automatycznego procesu ich przetwarzania. Prezentowana praca dotyczy zastosowania metody TLS w inwentaryzacji lasu, tj. określaniu wybranych parametrów takich jak pole przekroju pierśnicowego drzewa (g), wysokości (h) i w efekcie miąższość pnia (V). Analizie poddano drzewostan sosnowy w Nadleśnictwie Milicz (wydzielenie 236a; wiek 105 lat). Skaning przeprowadzono z 4 stanowisk stosując skaner fazowy FARO LS 880. Dane referencyjne dla średnicy pnia pozyskano tradycyjnymi instrumentami (pierśnicomierz) oraz w oparciu o lotniczy skaning laserowy dla wysokości. Testowano szereg metod i wzorów na obliczenie miąższości grubizny pni 21 drzew, tj.: metodę brył obrotowych (3 różne zestawy par przekrojów: 1.3 /6.0; 2.0/5.0 oraz 2.0/6.0 m nad gruntem) oraz pomiar sekcyjny. Obie bazują na algorytmie określania pola przekroju wycinków pnia metodą otoczki wypukłej. Za referencję przyjęto tzw. wzór empiryczny dla sosny oraz zamiennie pomiar sekcyjny TLS (długość sekcji 0.5m). Stosowano także tradycyjną metodę bazującą na tzw. tablicach miąższości drzew stojących. Wyniki wskazują, iż miąższości uzyskane metodą sekcyjnego pomiaru TLS nie różnią się istotnie statystycznie od stosowanego w praktyce leśnej wzoru empirycznego, a wartości różnic sięgają jedynie 1.5%. W przypadku wzoru na bryły obrotowe, różnice w określaniu miąższości na poziomie powierzchni sięgają od 6.1% (przekroje z wysokości: 2.0/6.0m) do 8.4% (2.0/5.0m;) powodując jej zaniżenie. Wartości maksymalne określone na poziomie pojedynczych drzew różnią się czasem aż o 38.4% (2.0/5.0), co wskazuje na zmienność geometryczną brył pni drzew. Praca potwierdziła przydatność metody pomiaru sekcyjnego TLS oraz potrzebę dalszych prac nad opracowaniem nowych standardów i parametrów w inwentaryzacji lasu oraz konieczność stosowania zautomatyzowanych procesów przetwarzania danych.
EN
The development of geodata acquiring technology has become very fast in recent years and leads to changes in many areas of economy, also in forestry, where new, revolutionary solutions such as terrestrial laser scanning are being implemented. Measurements of such tree characteristics, as the tree height, DBH, taper and the stem volume are subject of a number of studies. Generated sets of data (point clouds) need a chain of automatic processing. This paper describes the application of TLS in forest inventory control, i.e. in determining several parameters such as basal area (g), height (h) and finally the stem volume (V). The 105 years old pine stand in Milicz Forest District was analysed (plot no. 8). Scanning was performed from 4 stations with the use of a FARO LS 880 laser scanner. Reference data were collected using both the traditional instruments (DBH), and airborne laser scanning (h). Several methods and formulas were tested to calculate the stem volume, i.e. methods based on solid of revolution (involving 3 different pairs of cross-sections: 1.3 /6.0; 2.0/5.0 and 2.0/6.0 m above the ground), and sectional measurements. In both methods, the surface area of the crosssections was calculated using the author's algorithm (convex hulls). As the reference, the so-called empirical formula designed for pine was applied, together with volume calculated for 0.5 m sections on TLS point cloud. Traditional methods based on tables with volumes calculated for single trees were also used. The results indicate that volume measurements based on sections do not differ statistically from volumes calculated by means of the empirical formula, while the differences amount to 1.5 % only. As regards the method based on solid of revolution, the differences amount to 6.1% (cross-sections: 2.0/6.0 m, Std. dev 8.0) and 8.4% (2.0/5.0 m) causing the underestimation of the volume. Maximum values, calculated for single trees, are sometimes very high (38.4% for 2.0/5.0 m cross-sections), which indicates geometrical differences in the stem solid. The paper confirmed usability of section measurements within TLS point cloud and the need for further research on defining new standards and parameters for forest inventory control, as well as the necessity of applying automatic algorithms for data processing.
18
Content available remote Optimization of short-circuit power in industrial substations
EN
Short-circuit power in industrial substations is very essential operating information. On one hand side the lower short-circuit power, the lower requirements for equipment. On the other hand the higher level of short-circuit power, the higher value of effectiveness of voltage regulation, easier induction-motor start, lower voltage drop and easier identification of short-circuits by overcurrent protection. The main aim of analysis is estimation of optimal level of short-circuit power in industrial substations.
PL
Moc zwarciowa w stacjach przemysłowych jest bardzo ważną informacją. Z jednej strony im mniejszy poziom mocy zwarciowej, tym mniejsze wymagania dla aparatury. Z drugiej strony im wyższy poziom mocy zwarciowej, tym lepsze właściwości ruchowe i łatwiejsza identyfikacja zwarć przez zabezpieczenia. Celem analizy jest wyznaczenie optymalnej wartości mocy zwarciowej w stacjach przemysłowych.
19
Content available remote Application of OBDD Diagrams in Verification of Tabular Rule Systems
EN
This paper examines the application of Ordered Binary Decision Diagrams (OBDD) to modelling and verification of quality properties of rule systems. The transformation of an intentional specification of a tabular rule system into OBDD data structures was proposed and techniąues of verification of such ąuality properties as completeness, determinism and redundancy of rules were described.
20
PL
Bardzo często monitory komputerowe usytuowane są w pobliżu urządzeń elektrycznych. Monitory tradycyjne są bardzo czule na pola magnetyczne 50 Hz. Pole magnetyczne o natężeniu powyżej 0,4 A/m powoduje już widoczne zakłócenia w obrazie na ekranie. Ma to też dodatkowy negatywny wpływ na psychikę osoby obsługującej komputer. Aktualne przepisy środowiskowe nie chronią monitorów przed tego typu oddziaływaniem. W referacie przedstawione są pewne sytuacje znane z praktyki. Podane też są sposoby ograniczania oddziaływania pól magnetycznych na monitory komputerowe.
EN
Computer monitors are very often situated near electrical devices. The classical computer monitors are very sensitive to magnetic fields of 50 Hz. Magnetic fields of intensity 0,4 A/m can cause the interference on the screen. This fact influences negatively on the mental state of the persons using computers. Current safety rules of protection against electromagnetic fields do not project computer monitors. The paper presents some situations from the real industrial, rest and office objects. Some ways of reduction of magnetic field are presented.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.