Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 9

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  fizyka cząstek elementarnych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Przedstawione tu opracowanie zawiera informacje dotyczące metody pomiarów czasowo-przestrzennych charakterystyk zderzeń relatywistycznych hadronów i ciężkich jonów poprzez analizę korelacji cząstek emitowanych w badanych zderzeniach. Rozwijana przez prawie pół wieku metoda femtoskopii korelacyjnej stanowi piękny przykład związków odległych na pozór działów fizyki, wzajemnej stymulacji metod eksperymentalnych i opisu teoretycznego, oraz roli uzyskiwanych wyników w rozumieniu mechanizmów badanych procesów. Dlatego eksperymentalne aspekty tej metody przedstawione zostały na tle jej historycznego rozwoju oraz w zestawieniu z opisem podstaw teoretycznego formalizmu i parametryzacji efektów korelacyjnych, a także roli femtoskopii w rozwoju modeli teoretycznych. Praca rozpoczyna się od wstępu, po którym następuje wprowadzenie w zderzenia ciężkich jonów. Mimo iż większość pracy opisuje badania z zakresu zderzeń ciężkich jonów, wspomniane zostaną takie wyniki femtoskopowe pochodzące ze zderzeń elementarnych, np. proton-proton, które są traktowane jako dane referencyjne - punkt odniesienia. Rozdział trzeci został poświęcony drodze rozwoju femtoskopii korelacyjnej, w którym zostały zebrane najważniejsze, femtoskopowe "kamienie milowe", począwszy od prekursorów, inspiracji, poprzez pierwsze rozważania teoretyczne oparte na interferometrii pionów i opisie statystyki kwantowej, korelacje układu dwóch protonów oraz ich oddziaływaniu w stanach końcowych. Pokazano także pierwsze wyniki eksperymentalne dotyczące układów neutralnych mezonów π0 oraz neutronów, kiedy to skupiano się na geometrycznej interpretacji rezultatów femtoskopowych. Końcowe lata ubiegłego wieku to bardzo dynamiczny rozwój nowych aspektów, to czas, kiedy zainteresowano się pojęciem asymetrii czasowo-przestrzennej w przypadku korelacji cząstek nieidentycznych, to także jakże intensywny rozwój nowych technik (m.in. imaging'u"). Wraz z uruchomieniem kompleksu RHIC w laboratorium w Brookhaven, XXI wiek otworzył przed naukowcami zupełnie nowe możliwości. Po raz pierwszy w historii zarejestrowane zostało przejście materii ze stanu hadronowego do stanu kwarkowego, korelacje femtoskopowe naturalnie towarzyszyły przełomowym odkryciom. Kilkanaście lat później okazało się, że o ile rejestracja nowego stanu była przełomowa, kiedy to eksperymenty realizujące zderzenia ciężkich jonów zweryfikowały przypuszczenie odnośnie stanu plazmy kwarkowo-gluonowej, kiedy zamiast spodziewanych własności gazu idealnego plazma okazała się być niemalże idealną cieczą - to sam moment przejścia fazowego ze stanu hadronowego do kwarkowego wydał się także, o ile nawet nie bardziej, interesujący. W tym celu fizycy eksperymentalni skierowali swoje zainteresowanie w stronę niższych energii zderzenia, które pozwoliły przyjrzeć się charakterystykom przejścia fazowego. Badania okazały się być na tyle fascynujące, że obecnie planowane jest uruchomienie kolejnych kompleksów, które pozwolą eksplorować ten obszar diagramu fazowego z jeszcze większą precyzją. Po przeglądzie dotychczasowych osiągnięć oraz omówieniu potencjalnych perspektyw rozwoju został opisany formalizm korelacji femtoskopowych, skupiający się zarówno na omówieniu różnych efektów korelacyjnych dla różnych układów par (nieoddziałujących mezonów, barionów, cząstek nieidentycznych, itd.) z uwzględnieniem zarówno efektów statystyki kwantowej, jak i oddziaływań w stanach końcowych. Oddzielna część pracy została poświęcona różnym parametryzacjom funkcji korelacyjnej, począwszy od prac Kopyłowa-Podgoreckiego, po klasyczną, najczęściej teraz stosowaną parametryzację gaussowską, poprzez różne układy odniesienia, w jakich mierzone są korelacje femtoskopowe, aż po alternatywne parametryzacje funkcji korelacyjnych: sferyczne funkcje harmoniczne czy zależności azymutalne. Kolejny rozdział został poświęcony eksperymentom zderzeń ciężkich jonów jakie obecnie zajmują się badaniami korelacji femtoskopowych, m. in. STAR, ALICE, NA49 i NA61/SHINE, a także tym dopiero planowanym: CBM czy MPD. Bardzo wiele miejsca poświęcono w pracy na opis procedur analizy danych doświadczalnych, począwszy od omówienia kryteriów selekcji danych eksperymentalnych, aż po różne korekcje, którym należy poddać eksperymentalną funkcję korelacyjną: ze względu na zmierzone tło zawierające korelacje niefemtoskopowe (zostało omówione kilka różnych, niezwykłe istotnych przykładów takich korelacji, których nieuwzględnienie może prowadzić do błędnej interpretacji wyników), korekcje na skończoną rozdzielczość detektora czy możliwość poprawnej identyfikacji cząstki - ze względu na jej rodzaj, jak również ze względu na niemożność odseparowania produktów rozpadów od cząstek pierwotnych. Ostatni rozdział opowiada o tym, jakie znaczenie ma femtoskopia dla rozwoju modeli teoretycznych, zostały omówione przykładowe modele, które najczęściej są wykorzystywane w femtoskopii. Pracę zamyka krótkie podsumowanie, wnioski i możliwości dalszego rozwoju dziedziny femtoskopii korelacyjnej.
EN
Elementary particle physics experiments, which search for very rare processes, require the efficient analysis and selection algorithms able to separate a signal from the overwhelming background. Four learning machine algorithms have been applied to identify τ leptons in the ATLAS experiment: projective likelihood estimator (LL), Probability Density Estimator with Range Searches (PDE-RS), Neural Network, and the Support Vector Machine (SVM). All four methods have similar performance, which is significantly better than the baseline cut analysis. This indicates that the achieved background rejection is close to the maximal achievable performance.
PL
W eksperymentach fizyki wysokich energii, poszukujących bardzo rzadkich procesów, dużego znaczenia nabierają algorytmy umożliwiające separację sygnału od przeważającego tła. Cztery algorytmy uczące się na przykładach zostały zastosowane do identyfikacji leptonów tau w eksperymencie ATLAS: rzutowane rozkłady prawdopodobieństw (projective likelihood estimator - LL), PDE-RS (Probability Density Estimator with Range Searches), sieć neuronowa oraz maszyna wektorów wspierających (SVM). Algorytmy te mają zbliżone wydajności znacząco lepsze od standardowej analizy z użyciem cięć. Sugeruje to, że osiągnięte wydajności są bliskie maksymalnej osiągalnej granicy.
4
Content available remote Odkrycie asymptotycznej swobody i narodziny QCD
5
Content available remote Po co nam fizyka cząstek elementarnych?
EN
High energy physics is a branch of science seemingly far away from everyday life. Spending millions of euros and dollars, the governments supporting particle physicists are often criticized by non-physicists' community. In this article the greatest achievernents of sdentists working in the high energy laboratories that improve everybody's life are indicated. Such topics as Internet, GRID, cancer therapy, lithography, synchrotron radiation, free electron laser and accelerator transmutation of waste are briefly discussed.
PL
Celem artykułu jest zarysowanie skali infrastruktury informatycznej niezbędnej do przeprowadzenia eksperymentów fizyki cząstek elementarnych nowej generacji budowanych obecnie w Europejskim Ośrodku Badań Jądrowych CERN koło Genewy. Zwrócono uwagę na szerszy aspekt zjawiska, a mianowicie na wpływ opracowywanych rozwiązań na problem ujednolicenia dostępu do światowych zasobów informatycznych. Przedstawiono jakie narzędzia wybrano do realizacji projektów, jakie rozwiązania są konieczne aby sprostać niespotykanym dotąd potrzebom intensywnych obliczeń oraz jakie badania nad systemami dużej skali prowadzone są w ramach projektów obliczeniowych nowej generacji.
EN
In this article the requirements for the future experiments of elementary particle physics are discussed. The nature of physics phenomena expected at the LHC collider at CERN leads to an unprecedented scale of the computing infrastructure for the data storage and analysis. The possible solution is based on the distributed computing model, and is presented within the context of the global unification of the computer resources as proposed by the GRID projects.
8
Content available remote O popularyzacji fizyki
EN
Impressions from a CERN meeting on popularization of high energy physics are presented, with some reflections on the problem in Poland.
9
Content available remote Nowy sprawdzian Modelu Standardowego
EN
Why is there so much more matter than antimatter in the universe? Experiments now being built will discover if the answer provided by the Standard Model of particle physics is correct.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.