Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 13

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  high energy physics
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Parallel implementation of a PIC simulation algorithm using OpenMP
EN
Particle-in-cell (PIC) simulations are focusing on the individual trajectories of a very large number of particles in self-consistent and external electric and magnetic fields; they are widely used in the study of plasma jets, for example. The main disadvantage of PIC simulations is the large simulation runtime,which often requires a parallel implementation of the algorithm. The current paper focuses on a PIC1d3v simulation algorithm and describes the successful implementation of a parallel version of it on a multi-core architecture, using OpenMP, with very promising experimental and theoretical results.
2
Content available ARIES 2018 : infrastructure, innovation, outreach
EN
This article has two outreach aims. It concisely summarizes the main research and technical efforts in the EC H2020 ARIES Integrating Activity – Accelerator Research and Innovation for European Science and Society [1] during the period 2017/2018. ARIES is a continuation of CARE, TIARA and EuCARD projects [2-3]. The article also tries to show these results as an encouragement for local physics and engineering, research and technical communities to participate actively in such important European projects. According to the author’s opinion this participation may be much bigger [4-27]. All the needed components to participate – human, material and infrastructural are there [4,7]. So why the results are not satisfying as they should be? The major research subjects of ARIES are: new methods of particles acceleration including laser, plasma and particle beam interactions, new materials and accelerator components, building new generations of accelerators, energy efficiency and management of large accelerator systems, innovative superconducting magnets, high field and ultra-high gradient magnets, cost lowering, system miniaturization, promotion of innovation originating from accelerator research, industrial applications, and societal implications. Two institutions from Poland participate in ARIES – these are Warsaw University of Technology and Institute of Nuclear Chemistry and Technology in Warsaw. There are not present some of the key institutes active in accelerator technology in Poland. Let this article be a small contribution why Poland, a country of such big research potential, contributes so modestly to the European accelerator infrastructural projects? The article bases on public and internal documents of ARIES project, including the EU Grant Agreement and P1 report. The views presented in the paper are only by the author and not necessarily by the ARIES.
EN
The paper describes a new methodology that allows to design scalable complex control and data acquisition systems taking into consideration the additional, non-functional requirements of High-Energy Physics (HEP). Electronic systems applied in HEP often operate in difficult conditions. Access to such devices is difficult or even impossible. The HEP systems require high availability, serviceability and upgradeability. The operating conditions of these systems are even more difficult than for telecommunication devices. Therefore, a different methodology should be applied than for classical telecommunication systems, when designing electronics used in high-energy physics applications. Electronic systems also need a suitable hardware platform that not only assures high availability, simplifies maintenance and servicing but also allows to use mixed analogue-digital signals. The author made an attempt to develop a new methodology suitable for designing of complex data acquisition and control systems of HEP. The Low Level RF (LLRF) system of European Free Electron Laser (EXFEL) and Image Acquisition System (IAS) prototype developed for International Thermonuclear Experimental Reactor (ITER) tokamak are presented as examples of complex electronic systems that were designed according to the proposed methodology.
EN
Heavy-ion collisions at extreme energies are expected to recreate conditions present in the early universe, producing a state of matter called the Quark Gluon Plasma (QGP). This state is characterized by very low viscosity resembling the properties of a perfect fluid. In such a medium, density fluctuations can easily propagate. In experimental practice, the size of these fluctuations is estimated by measuring the angular correlation of the particles produced. The aim of this paper is to present results of the measurements of the azimuthal anisotropy of charged particles produced in heavy-ion collisions with the ATLAS detector using the LHC Grid infrastructure for bulk processing of the data and resources available at the Tier-2 computing center for the final analysis stage.
PL
W rozprawie rozpatrzono zagadnienia modelowania, projektowania, realizacji oraz kontroli działania systemów Trygerowania i Akwizycji Danych (TRIDAQ) wykorzystywanych w eksperymentach fizyki wysokich energii. Omówiono problemy dystrybucji synchronicznych, cyfrowych potoków danych oraz zaproponowano model strumienia synchronicznego przeznaczonego do dystrybucji informacji w systemach TRIDAQ. Przedstawiono ogólną strukturę funkcjonalną modelu pojedynczego węzła sieciowego systemu TRIDAQ oraz zaproponowano blokową strukturę modelu TRIDAQ umożliwiającą jego pełną implementację w układzie FPGA, a także standaryzację, parametryzację oraz integrację warstwy funkcjonalnej z warstwą diagnostyczną. Omówiono metodę projektowania systemów TRIDAQ opartą na zunifikowanym modelu węzła sieci. Zamieszczono przykłady systemów potokowych zaimplementowanych w dużych, programowalnych układach FPGA, które zostały opracowane dla eksperymentów: ZEUS w ośrodku DESY (Hamburg, Niemcy) oraz CMS w ośrodku CERN (Genewa, Szwajcaria/Francja).
EN
The thesis considers the issues of modeling, design, realization, testing and commissioning of the Triggering and Data Aquisition Systems (TRIDAQ), used in high energy physics experiments. Distribution problems of synchronous digital data streams are researched. A model of a synchronous stream used in the TRIDAQ system was proposed for information distribution. A general functional structure of single TRIDAQ network node was introduced. The proposed block structure of the TRIDAQ model facilitates its full implementation in the FPGA circuit. Moreover, a standardization and parametrization of the model are possible, together with integration of the functional and diagnostic layers. A new approach to design models of the TRIDAQ systems based on the unified model of the network were debated. Examples of pipeline systems, implemented in large FPGA circuits, were presented. The systems were designed and applied in the ZEUS experiment at HERA accelerator in DESY (Hamburg, Germany), and in the CMS experiment at LHC accelerator in CERN (Geneva, Switzerland/France).
PL
W artykule przedstawiono przegląd wyników prac w dziedzinie techniki akceleratorowej w Europie, prezentowanych w czasie rocznej konferencji EuCARD - European Coordination of Accelerator Research and Development. Konferencja dotyczy budowy infrastruktury badawczej a w tym zaawansowanych systemów fotonicznych i elektronicznych do obsługi wielkich eksperymentów badawczych. Omówiono kilka podstawowych grup takich systemów jak: sieci kontrolno — pomiarowe o dużym wymiarze geometrycznym, wielokanałowe systemy akwizycji wielkich ilości danych pomiarowych, precyzyjne sieci dystrybucji wzorcowego czasu, częstotliwości i fazy odniesienia.
EN
The paper presents a digest of the research results in the domain of accelerator science and technology in Europe, shown during the annual meeting of the EuCARD - European Coordination of Accelerator Research and Development. The conference concerns building of the research infrastructure, including in this advanced photonic and electronic systems for servicing large high energy physics experiments. There are debated a few basic groups of such systems like: measurement - control networks of large geometrical extent, multichannel systems for large amounts of metrological data acquisition, precision networks of reference time, frequency and phase distribution.
EN
The present High Energy Physics (HEP) experiments require unprecedented amount of computing power and storage space. We present the WLCG structure of the LHC computing, which will be used to perform data processing required by the ATLAS collaboration. We also describe the ATLAS detector full simulation chain. Finally, we quantify the computing needs and up-to-date usage of the ACK CYFRONET AGH resources by the ATLAS detector simulations.
PL
Obecne eksperymenty fizyki wysokich energii wymagają niespotykanej mocy obliczeniowej i przestrzeni do przechowywania danych. Prezentujemy strukturę WLCG obliczeń LHC, która będzie użyta do przetwarzania danych na potrzeby współpracy ATLAS. Opisujemy również pełny łańcuch symulacji detektora ATLAS. Na zakończenie, przedstawiamy potrzeby obliczeniowe i aktualne użycie zasobów ACK CYFRONET AGH przez symulacje detektora ATLAS.
EN
The ATLAS detector, recording LHC particles' interactions, produces events with rate of 40 MHz and size of 1.6 MB. The processes with new and interesting physics phenomena are very rare, thus an efficient on-line filtering system (trigger) is necessary. The asynchronous part of that system relays on few thousands of computing nodes running the filtering software. Applying refined filtering criteria results in increase of processing times what may lead to lack of processing resources installed on CERN site. We propose extension to this part of the system based on submission of the real-time filtering tasks into the Grid.
PL
Detektor ATLAS, rejestrujący zderzenia protonów rozpędzanych w zderzaczu LHC, będzie generował przypadki o rozmiarze 1.6MB z częstotliwością 40MHz. Aby wyselekcjonować bardzo rzadko występujące przypadki z interesującymi oddziaływaniami fizycznymi, konieczne będzie zastosowanie wydajnego systemu filtracji (trigger). Część asynchroniczna takiego systemu wykorzystuje kilka tysięcy komputerów, na których wykonywane jest oprogramowanie filtrujące. Zwiększenie selektywności systemu wymaga zwiększenia czasu procesowania, co może doprowadzić do wyczerpania zasobów komputerowych zainstalowanych w CERN-ie. Proponujemy rozszerzenie tej części systemu poprzez umożli­wienie wykonywania oprogramowania filtrującego w czasie rzeczywistym na komputerach w środowisku gridowym.
EN
Elementary particle physics experiments, which search for very rare processes, require the efficient analysis and selection algorithms able to separate a signal from the overwhelming background. Four learning machine algorithms have been applied to identify τ leptons in the ATLAS experiment: projective likelihood estimator (LL), Probability Density Estimator with Range Searches (PDE-RS), Neural Network, and the Support Vector Machine (SVM). All four methods have similar performance, which is significantly better than the baseline cut analysis. This indicates that the achieved background rejection is close to the maximal achievable performance.
PL
W eksperymentach fizyki wysokich energii, poszukujących bardzo rzadkich procesów, dużego znaczenia nabierają algorytmy umożliwiające separację sygnału od przeważającego tła. Cztery algorytmy uczące się na przykładach zostały zastosowane do identyfikacji leptonów tau w eksperymencie ATLAS: rzutowane rozkłady prawdopodobieństw (projective likelihood estimator - LL), PDE-RS (Probability Density Estimator with Range Searches), sieć neuronowa oraz maszyna wektorów wspierających (SVM). Algorytmy te mają zbliżone wydajności znacząco lepsze od standardowej analizy z użyciem cięć. Sugeruje to, że osiągnięte wydajności są bliskie maksymalnej osiągalnej granicy.
EN
The demand for computing resources used for detector simulations and data analysis in High Energy Physics (HEP) experiments is constantly increasing due to the development of studies of rare physics processes in partide interactions. The latest generation of experiments at the newly built LHC accelerator at CERN in Geneva is planning to use computing networks for their data processing needs. A Worldwide LHC Computing Grid (WLCG) organization has been created to develop a Grid with properties matching the needs of these experiments. In this paper we present the use of Grid computing by HEP experiments and describe activities at the participating computing centers with the case of Academic Computing Center, ACK Cyfronet AGH, Kraków, Poland.
PL
Wymagania pod względem dostępu do mocy obliczeniowych używanych podczas wykonywania symulacji i analizy danych w eksperymentach fizyki wysokich energii (FWE) stale rosną wraz z trwającym rozwojem badań rzadkich procesów fizycznych w oddziaływaniach cząstek elementarnych. W najnowszej generacji eksperymentów na budowanym właśnie akceleratorze LHC w ośrodku CERN pod Genewą planuje się wykorzystanie do celów obliczeniowych sieci komputerowe Grid. W celu stworzenia sieci Grid zgodnej z potrzebami tych eksperymentów została powołana do życia nowa organizacja o nazwie Worldwide LHC Computing Grid (WLCG). W niniejszej pracy prezentujemy sposoby i zalety wykorzystania obliczeń w sieciach Grid przez eksperymenty FWE i przedstawiamy działalność WLCG w uczestniczących ośrodkach obliczeniowych, na przykładzie Akademickiego Ośrodka Obliczeniowego, ACK Cyfronet AGH w Krakowie.
EN
The paper is devoted to the subject of application of a complex measurement system in HEP experiments. The measurement system is electronic, FPGA-based, multi-channel and distributed. The application is the Backing Calorimeter (BAC) located in an international ZEUS experiment at the HERA ring accelerator of counter-propagating particles, DESY Hamburg. The hadron-electron ring accelerator HERA is concisely characterized in the introductory part of the paper. Actually, the HERA accelerates electrons or positrons and protons. The particle collision takes place in detectors. One of them is ZEUS. The structure of ZEUS is presented with emphasis on the metrological requirements. These requirements are to obtain a good space and time resolution of measurements for numerable physical values. The measurements are taken from images of particle collisions. The measurement subsystems of the BAC detector are described. The BAC is equipped with over 40000 nondependent channels for position measurement, over 2000 channels for energy measurement. It possesses a local functional block of position and energy trigger, as well as modules for data acquisition. The functional structure of the system is presented in the context of task requirement superimposed by the ZEUS. These requirements are: global triggering system of the whole experiment, data acquisition and tests. The hardware solutions are included for particular parts of the measurement systems. Examples are presented of measurement results obtained from the ZEUS experiment. An original author's idea is debated to integrate the functional layers of the complex measurement system with a superimposed diagnostic layer. The aim is to have operator's access to the current on-line quality assessment of TRIDAQ measurement system for ZEUS. This includes the ability to detect, localize and prevent randomly appearing irregularities in system software and hardware.
12
Content available remote Modelowanie i analiza danych w eksperymentach fizyki wysokich energii
PL
Eksperymenty fizyki wysokich energii wymagają szerokiego stosowania technik komputerowych przy projektowaniu programu badań i aparatury detekcyjnej, przy gromadzeniu i selekcji danych w trakcie naświetlań oraz przy analizie, interpretacji i prezentacji wyników. Złożoność obliczeń i obszerność zbiorów danych wymagają użycia wielkich mocy obliczeniowych i wielkich zasobów pamięci. Są to w dużym stopniu moce rozproszone po całym świecie podobnie jak i rozproszone są dziesiątki instytucji biorących zwykle udział w typowym, współczesnym eksperymencie fizyki cząstek. Artykuł przedstawia w zarysie metody komputerowe stosowane we wszystkich etapach eksperymentu. Zawiera również pewien rys historyczny i sygnalizuje tendencje rozwoju.
EN
Experimental high energy particle physics requires wide use of computer techniques at all stages of every project: during the design phase, during data preselection and acquisition as well as for data analysis, interpretation and visualization. Huge data collections and complexity of methods require large computing power and data storage. These resources are distributed over the whole world following distribution of large number of institutes participating in typical modern experiment. The article characterizes briefly hep computer methods, contains historical remarks and indicates some trends.
13
Content available remote Eksperymenty fizyki wysokich energii ostatnich dwudziestu lat
PL
Artykuł zawiera krótką dyskusję problemów poznawczych stojących przed fizyką wysokich energii (f.w.e) w ostatnich dwudziestu latach oraz krótki przegląd akceleratorów podstawowych narzędzi badawczych, przy których wykonuje się eksperymenty. Na tym tle zostały omówione niektóre układy eksperymentalne, ze szczególnym uwzględnieniem tych, w budowę których znaczący wkład wniosły zespoły polskie.
EN
This paper contains a short discussion of basic issues addressed in high energy physics in the last two decades, followed by a short summary of properties of high energy accelerators active during this period. Selected experiments are presented and briefly discussed, with emphasis on those with significant participation of Polish groups.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.