Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 25

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  TCP
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
In this paper we derive mathematical description of TCP (Transmission Control Protocol) retransmission probability based on Jacobson’s smoothing algorithm that belongs to EWMA (Exponentially Weighted Moving Average) category. This description is parametrized on the probability density function (pdf) of RTT (Round Trip Time) samples and α, β – two primary parameters of Jacobson’s algorithm. Although it is not a close form expression, it is formulated as an effective algorithm that let us to explicitly calculate the values of RTO (Retransmission Time Out) probability as a function of α, β and the pdf of RTT samples. We achieve the effectiveness of this approach by applying smart discretization of the state space and replacement of continuous functions with discrete approximate equivalents. In this way, we mitigate the cardinality of discrete distributions we deal with that results in linear (n+m) instead of multiplicative (n⋅m) growth of computational complexity. We provide the evaluation of RTO probability for a wide set of α, β parameter values and differently shaped Normal and Laplace pdfs the RTT samples are taken from. The obtained numerical results let us to draw some conclusions regarding the choice of optimal values of α, β parameters as well as the impact of pdf the RTT samples are taken from.
PL
Zestaw protokolarny TCP/IP opisuje podstawową koncepcję organizacji pracy Internetu. Z tej racji jest przedmiotem zainteresowania oraz stałych analiz zarówno operatorów, użytkowników, jak też badaczy zagadnień sieciowych, a wreszcie i projektantów, by reagować na pojawiające się nowe potrzeby. Działania takie, przynajmniej częściowo, są wymuszane zarówno przez wymagania nowych multimedialnych aplikacji - na najwyższym poziomie architektury sieciowej, jak też zupełnie nowe możliwości realizacji przekazów - związane z nowymi technologiami transmisyjnymi i technikami odbioru, pozwalającymi, przykładowo na zrównoleglenie przekazów, czy też bezstratne przełączanie pomiędzy kilkoma interfejsami. W artykule pokrótce zasygnalizowano oczekiwania i wymagania związane, w szczególności z nowymi „wielobiektowymi” aplikacjami, jak też ograniczenia wynikające z ogromnej bezwładności, obserwowanej po stronie infrastruktury transportowej sieci IP. Mając na uwadze wspomniane uwarunkowania dokonano charakterystyki wybranych protokołów transportowych typu end-to-end, poświęcając główną uwagę dwóm protokołom realizującym przekazy wielostrumieniowe, a mianowicie SCTP oraz QUIC. Zaprezentowano zarówno wykorzystywane w obu protokołach struktury danych, jak też porównano podstawowe procedury związane z ich pracą. Dokonano też zestawienia cech charakterystycznych obu protokołów, wskazując na zakres ich użyteczności oraz scenariusze użycia.
EN
The TCP/IP protocol set is the basic concept of organizing the work of the Internet. For this reason, it is the subject of interest and constant analysis by operators, users, network researchers and designers in order to respond to emerging new needs. Such actions, at least partially, are forced both by the requirements of new multimedia applications - at the highest level of network architecture, as well as completely new possibilities of transmitting messages - related to new transmission technologies and reception techniques, allowing, for example, for parallelization of messages and lossless switching(Handover) between several interfaces. The article briefly indicates the expectations and requirements related, in particular, to new “multi-object” applications, as well as the limitations resulting from the huge inertia observed on the side of the IP network transport infrastructure. Taking into account the above-mentioned conditions, the selected end-to-end transport protocols were characterized, focusing mainly on two protocols implementing multi-stream transfers, namely SCTP and QUIC. The data structures used in both protocols are presented, as well as the basic procedures related to their work are compared. The characteristic features of both protocols are also compared, indicating the scope of their usefulness and use scenarios.
EN
The article is a review of the literature on the use of polymers in medicine as biomaterials. Examples of the preparation of the most commonly used synthetic polymers in medicine, such as: polylactide (PLA), polyglycolide (PGA), polyhydrobutyrate (PHB), polycaprolactone (PCL) are described. The characteristics of ceramic materials: hydroxyapatite (HAp) and tricalcium phosphate (TCP) are also presented in terms of the use of synthetic biodegradable polymers as biofillers. The last part of article is devoted to the functional properties of composites based on PLA with the addition of HAp and TCP.
PL
Artykuł stanowi przegląd literatury dotyczący zastosowania polimerów w medycynie jako biomateriałów. Opisano przykłady otrzymywania najczęściej stosowanych syntetycznych polimerów w medycynie takich jak: polilaktyd (PLA), poliglikolid (PGA), polihydromaślan (PHB), polikaprolakton (PCL). Przedstawiono także charakterystykę materiałów ceramicznych: hydroksyapatytu (HAp) i trójfosforanu wapnia (TCP) pod kontem stosowania jako bionapełniacze syntetycznych biodegradowalnych polimerów. Ostatnia część artykułu jest poświęcona właściwościom użytkowym kompozytów na osnowie PLA z dodatkiem HAp i TCP.
4
Content available remote The Need for New Transport Protocols on the INTERNET
EN
TThe TCP/IP protocol suite is widely used in IP networks, regardless of diverse environments and usage scenarios. Due to the fact of being the basic concept of organizing the work of the Internet, it is the subject of interest and constant analysis of operators, users, network researchers, and designers. The Internet is a "living" organism in which new needs appear all the time. This is particularly important due to the emerging new application requirements - at the highest level of network architecture, and at the same time, completely new ways of transmitting messages related to new technologies and reception techniques, allowing for parallelization of messages transfer and lossless switching/handover between several interfaces. The paper highlights the expectations and requirements related, in particular, to new "multi-object" applications, as well as the limitations resulting from the high inertia observed on the side of the IP network transport infrastructure. Taking into account both the limitations and the formulated requirements, the selected end-to-end transport protocols have been characterized. More attention was paid to two protocols implementing multi-stream transfers, namely SCTP and QUIC.
PL
Zestaw protokolarny TCP/IP jest powszechnie wykorzystywany w sieciach IP, bez względu na zróżnicowane środowiskai scenariusze użycia. Z uwagi na to, że stanowi on podstawową koncepcję organizacji pracy Internetu jest przedmiotem zainteresowania oraz stałych analiz zarówno operatorów, użytkowników jak też badaczy zagadnień sieciowych, a wreszcie i projektantów. Internet jestorganizmem "żywym", w którym pojawiają się nowe potrzeby. Jest to szczególnie istotne, z uwagi na pojawiające się nowe wymagania aplikacji - na najwyższym poziomie architektury sieciowej, a jednocześnie na zupełnie nowe sposoby realizacji przekazów związanez nowymi technologiami transmisyjnymi i technikami odbioru, pozwalającymi na zrównoleglenie przekazów oraz bezstratne przełączanie pomiędzy kilkoma interfejsami W pracy zasygnalizowano oczekiwania i wymagania związane, w szczególności z nowymi "wielobiektowymi" aplikacjami, jak też ograniczenia wynikające z dużej bezwładności, obserwowanej po stronie infrastruktury transportowej sieci IP. Mając na uwadze zarówno ograniczenia, jak też formułowane wymagania dokonano charakterystyki wybranych protokołów transportowych typu end-to-end. Większą uwagę poświęcono przy tym dwóm protokołom realizującym przekazy wielostrumieniowe, a mianowicie SCTP oraz QUIC.
5
Content available remote Potrzeba nowych protokołów transportowych w Internecie
PL
Zestaw protokolarny TCP/IP jest powszechnie wykorzystywany w sieciach IP, bez względu na zróżnicowane środowiskai scenariusze użycia. Z uwagi na to, że stanowi on podstawową koncepcję organizacji pracy Internetu jest przedmiotem zainteresowania oraz stałych analiz zarówno operatorów, użytkowników jak też badaczy zagadnień sieciowych, a wreszcie i projektantów. Internet jestorganizmem "żywym", w którym pojawiają się nowe potrzeby. Jest to szczególnie istotne, z uwagi na pojawiające się nowe wymagania aplikacji - na najwyższym poziomie architektury sieciowej, a jednocześnie na zupełnie nowe sposoby realizacji przekazów związanez nowymi technologiami transmisyjnymi i technikami odbioru, pozwalającymi na zrównoleglenie przekazów oraz bezstratne przełączanie pomiędzy kilkoma interfejsami W pracy zasygnalizowano oczekiwania i wymagania związane, w szczególności z nowymi "wielobiektowymi" aplikacjami, jak też ograniczenia wynikające z dużej bezwładności, obserwowanej po stronie infrastruktury transportowej sieci IP. Mając na uwadze zarówno ograniczenia, jak też formułowane wymagania dokonano charakterystyki wybranych protokołów transportowych typu end-to-end. Większą uwagę poświęcono przy tym dwóm protokołom realizującym przekazy wielostrumieniowe, a mianowicie SCTP oraz QUIC.
EN
TThe TCP/IP protocol suite is widely used in IP networks, regardless of diverse environments and usage scenarios. Due to the fact of being the basic concept of organizing the work of the Internet, it is the subject of interest and constant analysis of operators, users, network researchers, and designers. The Internet is a "living" organism in which new needs appear all the time. This is particularly important due to the emerging new application requirements - at the highest level of network architecture, and at the same time, completely new ways of transmitting messages related to new technologies and reception techniques, allowing for parallelization of messages transfer and lossless switching/handover between several interfaces. The paper highlights the expectations and requirements related, in particular, to new "multi-object" applications, as well as the limitations resulting from the high inertia observed on the side of the IP network transport infrastructure. Taking into account both the limitations and the formulated requirements, the selected end-to-end transport protocols have been characterized. More attention was paid to two protocols implementing multi-stream transfers, namely SCTP and QUIC.
EN
Purpose: To analyze the dosimetric and radiobiological differences between dose to water versus dose to medium for patients with carcinoma of the urinary bladder. Materials and Methods: 15 patients with cancer of urinary bladder were selected for the study. VMAT plans were generated for each patient. The dose distributions were calculated in the modes dose to water and to medium with the Monaco treatment planning system. A dosimetric comparative analysis has been made between the two modes of planning in this study. Subsequently, NTCP and TCP were determined for OARs and targets respectively. Results: The mean dose to 2 cc of the rectum, small bowel, left and right femoral heads respectively was higher by 0.8, 1.2, 2.7, and 2.2% for the dose to water calculation. Similarly, the mean dose to D2, D50, and D98 for PTV was higher by 0.4, 0.3, and 0.3% for dose to water calculation. Such small dose differences had little effect on the values of TCP and NTCP. Conclusion: For patients with the urinary bladder there were very small differences between results between calculations carried out in dose to medium and dose to water modes.
EN
The purpose of the study was to synthesize and characterize a series of porous polyurethane-based composites modified with β-tricalcium phosphate (TCP) and hydroxyapatite (HAp). The composites were obtained by the one-step bulk polyaddition method using poly(ethylene glycol) (PEG) as a soft segment, 4,4’-diphenylmethane diisocyanate (MDI), 1,4-butanediol (BDO) as a chain extender and selected bioactive bioceramics. The obtained composites were characterized using FTIR, DSC, TG and SEM/EDX methods. Moreover, in vitro chemical stability and wettability tests were performed. The preliminary assessment of mechanical properties, porosity and in vitro chemical stability was performed. The test results showed that the best pore distributions, as well as Young’s modulus, were found for the hydroxyapatite--modified composites and PU/20% TCP. The wettability investigations revealed that the contact angle of PU composites was in the range 50-80°, which indicates the hydrophobic nature of the materials. The in vitro biostability studies confirmed that all tested compo-sites were chemically stable during incubation in the simulated body fluid. By using infrared spectroscopy the presence of urethane bonds and completion of reaction were evidenced. The results showed that the bioactivity of the materials was improved, which makes good perspectives for the obtained materials to be considered as potential scaffolds in bone tissue regeneration.
PL
Jednym z problemów występujących w dużych systemach Internetu Rzeczy, złożonych z tysięcy urządzeń IoT, są przeciążenia sieci w pobliżu urządzeń pełniących rolę hubów komunikacyjnych (brokerów danych, chmur obliczeniowych). Przeciążenia te nie są w wystarczającym stopniu rozładowywane przez protokół TCP, który (ze względu na specyfikę ruchu telekomunikacyjnego w systemach IoT) nie jest w stanie prawidłowo oszacować, dostępnych dla danej transmisji, zasobów sieciowych. W artykule przedstawiono prototypowe urządzenie IoT, zbudowane na mikrokontrolerze Raspberry PI pracującym pod kontrolą systemu operacyjnego Linux, które szacuje wielkość, dostępnej dla protokołu TCP, przepustowości ścieżki komunikacyjnej. Urządzenie korzysta ze znanej metody par pakietów. Aby poprawić dokładność szacunków, użyto wariantu metody, który ocenia wielkość dostępnej przepustowości na podstawie ciągów par. Badania przeprowadzone w dedykowanej sieci lokalnej pozwoliły zarówno ocenić pracę urządzenia, jak i dokonać analizy dokładności szacunków przeprowadzanych w obecności ruchu charakterystycznego dla systemów Internetu Rzeczy. Oceniono również narzut ruchu wnoszonego do sieci Internetu Rzeczy przez pomiary metodą par testowych TCP. Ze względu na ograniczoną moc obliczeniową mikrokontrolera Raspberry PI, urządzenie korzysta z prostych, szybkich wariantów obliczeniowych metody par pakietów PTR (bez odstępu czasowego między parami pakietów) oraz zmodyfikowany IGI (ze zmiennym odstępem czasowym między parami pakietów). Urządzenie umożliwia szybką ocenę stanu sieci w trakcie trwania transmisji IoT. Znajomość stanu sieci, w tym przepustowości dostępnej dla transmisji TCP, pozwoli na efektywniejsze działanie systemu wykorzystującego dużą liczbę urządzeń Internetu Rzeczy.
EN
One of the serious problems with large-scale Internet of Things systems, composed of thousands of IoT devices, are network congestions that occur near communication hubs (data brokers, computing clouds). These congestions cannot be enoughly discharged by the TCP protocol, which (due to specific teletraffic, generated by IoT devices) is not able to correctly estimate bandwidth available for a given transmission. In this article, a prototype IoT device that estimates amount of bandwidth of transmission path, available for TCP transmissions, is presented. The device is built with the use of the Raspberry PI microcontroller, working under the control of the Linux operating system, and uses packet pairs method for bandwidth estimation. To improve estimation accuracy, Probing Packet Trains (PPT) variant of packet pairs method was used. Results of experiments carried out in local area network are presented in figures and includes both analysis of estimation accuracy, and analysis of amount of control traffic that will be injected to an IoT network during a single measurement with the use of several probing packet trains. Due to limited computing power of the Raspberry PI, the device uses two, simple for computing, versions of the PPT: Packet Transmission Rate and Initial Gap Increasing. The device enables fast assessment of networks conditions. Knowledge of bit rate available for current TCP transmissions allows for more efficient performance of IoT systems that use large amount of devices.
EN
Background: The relationship between the prostate IMRT techniques and patients anatomical parameters has been rarely investigated. Objective: to evaluate various prostate IMRT techniques based on tumor control and normal tissue complication probability (TCP and NTCP) values and also the correlation of such techniques with patients anatomical parameters. Methods: Four IMRT techniques (9, 7 and 5 fields and also automatic) were planned on the CT scans of 63 prostate cancer patients. The sum of distances between the organs at risk (OARs) and target tissue and also their average joint volumes were measured and assumed as anatomical parameters. Selected dosimetric and radiobiological parameters (TCP and NTCP) values were compared among various techniques and the correlation with the above anatomical parameters were assessed using Pearsons’ correlation. Results: High correlations were found between the dosimetric/radiobiological parameters of OARs with the joint volumes and with the distances between the OARs and target tissue in all the techniques. The TCP and complication free tumor control probability (P+) values were decreased with increasing the joint volume and decreasing the distances between the OARs and target tissue (as poly-nominal functions). The NTCP values were increased with increasing the joint volumes and decreasing the distances (3-degree poly-nominal functions). For the low percent joint volumes (<20%) and high distances (>7 cm), The TCP, NTCP and P+ showed no statistical differences between various techniques (P-value>0.07). However, 9 and 7 fields techniques indicated better radiobiological results (P-value<0.05) in almost other ranges (>20% joint volumes and <7 cm distances). Conclusion: Based on our results, it would be possible to compare radiobiological effects of various common IMRT techniques and choose the best one regarding to patients anatomical parameters derived from the CT scans.
EN
At the beginning of the Internet, the speed transmission does not allow to predict that it will ever be possible to transfer audio, video and other multimedia content. Consequences of the project, which was characterized by reliability and low cost of the connections proved to be a barrier at a time when the Internet became available in almost every home and in every place on the globe. Scientists developing in the 70s the base of the family of TCP/IP protocols not predicted the challenges for these protocols which bring technologies and solutions created several decades later. The most serious barrier appeared to be an Internet Protocol IP (Based on the connectionless datagram model). This model is not a good solution for the data bandwidth, delay or loosing packets sensitive transmissions. Fortunately, the structure of the Internet allowed to make changes, which initially can be implemented in a small area and then eventually spread to the larger areas. For adapt the network possibilities to the needs of its users a number of network mechanisms were created. The mission of this mechanisms is the best possible performance of the network links ensuring. The most important elements of the network traffic control are: the packets incoming management, the packets rejection in the queue, and the transmitter sending packets speed control at the transport protocol level. The standard queue behavior handle different streams according to the rule "best effort" (FIFO queue). Nowadays, the queuing algorithms that divide a link between parallel transmissions were introduced. This algorithms rank the packets preserving a queuing discipline (e.g. WFQ, WRR, DRR, CBQ). A major problem, which appeared with the development of the Internet was the network overload. They manifested by a lack of space in the routers queues. Queue overflow causes packet losses and consequently, the data retransmissions. The traditional approach implied rejection of incoming packets from the queue only after overflow. Mechanisms of active queue management introduced a new approach to this issue. According to the rules AQM earlier, preventive packet rejection is possible. These mechanisms depend on monitoring link status by monitoring the number of data in the queue. On this basis, the decision to remove the incoming packet is taken. In addition, AQM mechanisms use some TCP feature (congestion window mechanism). A congestion control method mechanism is simple, and therefore very efficient. Congestion window size is dependent on the number of received acknowledgments and grows until the sent data is accepted. Rejection of the incoming packet in the router is also an information for the sender suggesting a transmission speed reduction.The most popular AQM mechanisms increase the dropping packet probability with the queue length. In the Internet layer model there are two transport protocols UDP and TCP. TCP is incomparably more complex than UDP. The better part of Internet traffic uses the TCP protocol. TCP has the control data flow and control the correctness of the transmitted data mechanisms. Also congestion control mechanisms have been introduced in this protocol. With the development of the Internet the better congestion control mechanisms were created. Currently, there are dozens adapted to a variety of network conditions mechanisms. The control of the speed generation, acting efficiently under all reasonable network conditions is not a trivial problem. This feature of the transport protocol is extremely important in the era of heterogeneous network consisting of various transmission media (wireless, satellite, optical, or simply cable).
PL
Na początku istnienia Internetu, przy ówczesnych prędkościach transmisji, nikt nie był w stanie przewidzieć, że kiedyś będzie możliwy przesył dźwięku, obrazu oraz innych treści multimedialnych. Konsekwencje wynikające z projektu, który cechowała niezawodność i niski koszt połączenia, okazały się barierą, w momencie kiedy sieć Internet stała się dostępna niemal w każdym domu i w każdym miejscu na kuli ziemskiej. Naukowcy opracowujący w połowie lat 70. zeszłego wieku podstawy rodziny protokołów TCP/IP nie przewidzieli, jakie wyzwania dla tych protokołów przyniosą technologie i rozwiązania powstałe kilkanaście czy nawet kilkadziesiąt lat później. Najpoważniejszą aktualnie barierą okazał się by protokół internetowy IP (oparty na bezpołączeniowym modelu datagramowym). Model ten nie jest dobrym rozwiązaniem dla przesyłu danych wrażliwych na przepustowość, opóźnienie czy tez gubienie pakietów. Na szczęście struktura Internetu pozwalała na wprowadzanie zmian, które początkowo można implementować na niewielkim obszarze, a potem ewentualnie dane rozwiązania rozprzestrzenić. W celu dostosowania sieci do dzisiejszych potrzeb jej użytkowników stworzono wiele mechanizmów sieciowych, których zadaniem jest zapewnienie możliwie najlepszych parametrów połączeń w sieci. Najważniejsze elementy sterowania strumieniami ruchu sieciowego to: zarządzanie pakietami nadchodzącymi do węzła transmisyjnego, zarządzanie odrzucaniem pakietów w kolejce oraz zarządzane prędkością wysyłania pakietów przez nadajnik na poziomie protokołu transportowego. W miejsce standardowego podejścia do obsługi różnych strumieni według reguły „best efford” (kolejka FIFO), zaczęto wprowadzać algorytmy kolejkowania, umożliwiające podział łącza między równolegle odbywające się transmisje. Algorytmy te szeregują pakiety i wysyłają, zachowując pewną dyscyplinę kolejkowania (np. algorytmy WFQ, WRR, DRR, CBQ i inne). Poważnym problemem, który pojawił się wraz z rozwojem sieci Internet, były przeciążenia sieci. Objawiały się one brakiem miejsca w buforach wyjściowych routerów. Przepełnienie kolejek powoduje straty pakietów, a w następstwie retransmisje danych. Tradycyjne podejście zakładało odrzucanie nadchodzących pakietów z kolejki dopiero po przepełnieniu bufora. Zastosowanie mechanizmów aktywnego zarzadzania wprowadziło nowy sposób podejścia do tego zagadnienia. Zgodnie z regułami AQM możliwe jest wcześniejsze, prewencyjne odrzucanie pakietów. Mechanizmy te polegają na monitorowaniu stanu łącza poprzez śledzenie liczby danych w kolejce. Na tej podstawie podejmuje się decyzję o ewentualnym usunięciu nadchodzącego pakietu. Dodatkowo mechanizmy AQM wykorzystują pewne cechy protokołu TCP (mechanizm okna przeciążeniowego). Sposób działania mechanizmu kontroli przeciążeń jest prosty, a przez to bardzo skuteczny. Rozmiar okna przeciążenia zależny jest od liczby uzyskanych zwrotnych potwierdzeń i rośnie aż do momentu, gdy pewna porcja danych nie zostanie zaakceptowana. Odrzucenie w routerze nadchodzącego pakietu jest jednocześnie informacja dla nadawcy sugerująca zmniejszenie prędkości nadawania. W najpopularniejszych mechanizmach AQM prawdopodobieństwo odrzucenia pakietu rośnie wraz z zapełnieniem bufora. Na poziomie warstwy transportowej modelu warstwowego sieci Internet istnieją dwa protokoły – UDP i TCP. Protokół TCP jest nieporównywalnie bardziej złożony niż UDP. Większość internetowego ruchu odbywa się z wykorzystaniem protokołu TCP. Został on wyposażony m.in. w mechanizmy sterowania przepływem danych i pewnego dostarczania przesyłki do adresata. W protokół ten wbudowano również mechanizmy kontroli przeciążeń. Wraz z rozwojem Internetu mechanizmy te rozbudowywano o kolejne, coraz sprawniej przesyłające dane mechanizmy. Mechanizmów takich, dostosowanych do różnorodnych warunków sieciowych, jest kilkadziesiąt, z czego kilkanaście znalazło już swoje stałe miejsce w systemach operacyjnych komputerów.
PL
Niniejszy artykuł omawia problematykę gwarancji jakościowych dla ruchu elastycznego. W artykule posłużono się przykładami dwóch istniejących rozwiązań: protokołu sygnalizacyjnego MQTT przeznaczonego do współpracy z Internetem Rzeczy oraz protokołu transportowego TCP ogólnego przeznaczenia. Zaproponowano również zastosowanie sygnalizacji za pomocą opcji TFD protokołu IP, zgłoszonej jako Internet Draft i przeznaczonej do opisu ruchu.
EN
In this paper, the problem of Quality of Service (QoS) guarantees for elastic traffic is described. The paper describes two existing solutions of QoS for elastic traffic – the MQTT protocol and the TCP protocol. A concept of usage of signaling based on the Traffic Flow Description option also was shown.
12
PL
Radiochirurgia to sposób frakcjonowania dawki w radioterapii, polegający na podaniu kilku dużych dawek frakcyjnych w małej objętości. Jej realizację umożliwiają zaawansowane techniki dynamiczne. Jedną z nich jest technika, w której zastosowane są wiązki o zmiennym kształcie przy jednoczesnym obrocie głowicy akceleratora oraz zmiennej mocy dawki. Technikę tę określamy jako technikę obrotową z modulacją intensywności dawki VMAT (Volumetric Modulated Arc Therapy). Zmiany nowotworowe położone w strukturach anatomicznych zmieniających swoje położenie na skutek oddychania wymagają zastosowania techniki bramkowania oddechowego w celu zmniejszenia dawki w tkankach zdrowych otaczających guz nowotworowy. Bramkowanie oddechowe to technika, która polega na wyłączeniu ekspozycji promieniowania, kiedy guz nowotworowy znajduje się, wskutek oddychania pacjenta, poza wiązką promieniowania. Połączenie wyżej opisanych technik napromieniania z frakcjonowaniem radiochirurgicznym pozwala optymalnie wykorzystać oprogramowanie do obliczania rozkładu dawki, możliwości techniczne akceleratorów biomedycznych oraz radiobiologię w celu zwiększenia prawdopodobieństwa miejscowego wyleczenia. Jednak powiązanie technik napromieniania ze zmianą sposobu frakcjonowania dawki nie wystarczy, aby zastosować te metody w praktyce klinicznej. Czynnikiem niezbędnym jest obrazowe zweryfikowanie pozycji terapeutycznej pacjenta oraz dozymetryczne sprawdzenie poprawności obliczonego rozkładu dawki. Technika radiochirurgiczna z wykorzystaniem bramkowania oddechowego i VMAT omówiona zostanie na przykładzie pacjenta, który otrzymał dwa niezależne kursy radioterapii w odstępie ośmiu miesięcy. W celu zweryfikowania dawki całkowitej otrzymanej przez pacjenta zastosowano oprogramowanie do deformacji obrazu tomografii komputerowej, obrysów struktur oraz rozkładów dawki.
EN
Radiosurgery is the way of the dose fractionation were few high doses are delivered in small volume. It’s realization is possible due to dynamic techniques. One of such a technique is VMAT (Volumetric Modulated Arc Therapy) technique where the beams with variable shape are used together with accelerator gantry rotation and dose rate modulation. If cancerous lesions are located in anatomical structures, which one could change its position by patient breathing, then it is required to use respiratory gating system to reduce delivered dose to normal tissues surrounding the tumor. Respiratory gating system turns off the radiation when the tumor is outside the radiation beam due to patient breathing. The combination of respiratory gated VMAT technique with radiosurgery allows optimum use of the dose distribution calculating system, technical capabilities of biomedical accelerators and radiobiology in order to increase the probability of a local cure. However, the combination of irradiation techniques with the changes in the dose fractionation is not enough to apply these method in clinical practice. The image guided radiation therapy is the necessary factor to verify patient treatment position. Additionally dosimetry verification of the calculated dose distribution have to be done. The respiratory gated VMAT technique will be discussed on the example of a patient who received two independent radiotherapy courses (with eight months break between). To verify the total dose, received by the patient, the dedicated software was used to perform deformation of the computed tomography volume, structures outlines and dose distributions.
PL
W pierwszym etapie niniejszej pracy wytworzono i zasiedlono agregatami komórek macierzystych innowacyjne biomateriały. Rusztowania wykonano z mieszaniny poli(3-hydroksymaślanu-ko-3-hydroksywalerianu) (PHBV), poli(L-laktydu-ko-glikolidu) (PLGA) oraz trójfosforanu wapnia (TCP). W drugim etapie pracy, scharakteryzowano wytworzone biomateriały wykorzystując techniki rentgenowskiej mikrotomografii komputerowej z użyciem środka kontrastującego. Poddano je także analizie powierzchniowej przy pomocy mikroskopu sił atomowych. Wyniki odniesiono do materiału referencyjnego, którym były rusztowania wykonane z PHBV i PLGA. Mikrotomografia komputerowa zapewniła wnikliwą ocenę struktury rusztowań kostnych. Oprócz obrazowania komórek macierzystych umożliwiła obserwację mikrostruktury w całej objętości badanego materiału w 3D. Kolejną techniką szeroko stosowaną do badań rusztowań polimerowych była mikroskopia sił atomowych. Umożliwiła ona wizualną ocenę topografii badanych materiałów oraz analizę ich chropowatości. Wytworzone rusztowania kostne miały odpowiednie parametry dla proliferacji komórek macierzystych. Wyniki niniejszej pracy wykazały, że tomografia komputerowa jest odpowiednim narzędziem do obrazowania komórek macierzystych zasiedlonych na porowatych biomateriałach. Dodatkowo stwierdzono, że specjalnie modyfikowane sondy skanujące umożliwiły dokładniejszy w stosunku do standardowych pomiar chropowatości powierzchni rusztowań.
EN
The first stage of this study involved the preparation and seeding of innovative biomaterials with stem cell Scaffolds through a mixture of poly (3-hydroxybutyrate-co-3-hydroksy-valerat) (PHBV), poly (L-lactide-co-glycolide) (PLGA) and tricalcium phosphate (TCP). In the second stage, biomaterials were characterized using a X-ray computed microtomography (CT) with a contrast agent. They were also subjected to surface analysis using atomic force microscopy. The results were compared to the reference material, of a PHBV/PLGA composite scaffold. The computed microtomography ensured rigorous assessment of the bone scaffold structure. Apart from stem cell imaging it also enabled the observation of the microstructure in the entire volume of the material in 3D. Another technique used to study polymeric scaffold was atomic force microscopy (AFM). It allowed for the visual assessment of the topography of the tested materials, as well as the analysis of their surface roughness. The tested bone scaffolds showed appropriate parameters for stem cell proliferation. The results of this study indicated that tomography is a suitable tool for the imaging of stem cell seeding on porous biomaterials. In addition, we couclude that specially modified scanning probes enabled more accurate surface roughness measurements.
EN
This work focuses onto proposal and implementation of modification of SYN flood (DoS) attack detection algorithm. Based on Counting Bloom filter, the attack detection algorithm is proposed and implemented into KaTaLyzer network traffic monitoring tool. TCP attacks can be detected and network administrator can be notified in real-time about ongoing attack by using different notification methods.
PL
Praca koncentruje się na propozycji implementacji modyfikacji algorytmu wykrywania zmasowanego SYN flood (DoS) ataku. Bazując na filtrze typu Counting Bloom, zaproponowano algorytm wykrywania ataku i zaimplementowano w narzędziu monitorowania ruchu w sieci - KaTaLyzer. Ataki TCP mogą być wykrywane i administrator sieci może być powiadamiany w czasie rzeczywistym o przeprowadzanym ataku dzięki różnym metodom powiadamiania.
EN
In this work, we describe surface modifications to a Ti6Al7Nb alloy resulting from plasma electrolytic oxidation (PEO) in two different solutions: one containing 0.1 mol/dm3 Ca(H2PO2)2 and 100 g/dm3 TCP (tricalcium phosphate) and another containing 0.1 mol/dm3 Ca(H2PO2)2, 25 g/dm3 TCP and 1 g/dm3 NH4F. As a result of the PEO process, a porous oxide layer containing incorporated calcium and phosphorous compounds was formed on the Ti6Al7Nb alloy surface. The morphology and chemical composition of the Ti6Al7Nb alloy samples were investigated using scanning electron microscopy (SEM), energy dispersive X-ray spectroscopy (EDX) and X-ray diffraction (TL-XRD). The contact angle and roughness of the oxide layer were measured. The anodized samples exhibited a higher surface roughness than the non-modified Ti6Al7Nb alloy. Bioactivity investigations using an SBF solution confirmed the formation of apatite on the anodized surfaces. Additionally, the modified surface of the titanium alloy exhibited a higher corrosion resistance than as-ground examples due to the formation of a thin oxide layer on the surface.
EN
The number of NiTi shape memory alloy application in medicine grows from year to year. However, relatively high contents of nickel cause concern for their migration to a human body. Especially, it appears, when they are going to be applied for long-term implants. In order to increase biocompatibility and corrosion resistance, surface of NiTi alloy is modified with deposition of protective layer. The layer can play also additional function for example: osteointegration. However, to stiff and/or thick protective layer as well as high temperature of their deposition can limit or completely block shape memory effect. In presented work, the ß-TCP was electrophoretically deposited on surface of the NiTi alloy. The protective layer was deposited with use of voltage from range of 20÷45 V and deposition time varied from 15 s to 30 s. Homogeneous layer formed from ß-TCP phase was produced with voltage of 30 V and time 30 s. Applied deposition procedure allowed avoid of the B2 parent phase decomposition to equilibrium phases.
PL
Liczba praktycznych zastosowań stopów NiTi wykazujących efekt pamięci kształtu w medycynie wzrasta z roku na rok. Jednakże zastosowanie tych stopów na długoterminowe implanty jest ograniczone obawami przed uwalnianiem się jonów niklu do organizmu człowieka. W celu zwiększenia biokompatybilności oraz odpomości korozyjnej powierzchnię stopów NiTi modyfikuje się przez nanoszenie warstw ochronnych, które mogą również pełnić dodatkowe funkcje, np. polepszać osteointegrację. Jednakże zbyt sztywne i/lub zbyt grube powłoki ochronne oraz zbyt wysoka temperatura ich nanoszenia mogą ograniczyć lub nawet całkowicie zablokować efekt pamięci kształtu. W pracy zastosowano trójfosforan wapnia nanoszony elektroforetycznie na powierzchnię stopu NiTi. Warstwę ochronną nanoszono w temperaturze pokojowej, stosując napięcie z zakresu 20÷45 V oraz czas nanoszenia od 15 do 30 s. Homogeniczną warstwę złożoną z cząstek ß-TCP na powierzchni NiTi uzyskano przy napięciu 30 V oraz czasie 30 s. Warunki elektroforetycznego nanoszenia warstwy nie spowodowały rozpadu fazy macierzystej stopu NiTi na fazy równowagowe.
EN
This article describes security mechanisms used by 3rd-7th layers in OSI/ISO network model. Many of commonly used protocols by these layers were designed with assumption that there are no intruders. Such assumption was true many years ago. The network situation has been changed for last few years and we should realize that some properties of existing protocols may be abused. Moreover, we should exchange some of them or create new versions. There are some methods and guidelines concerning secure programming, but there is also lack of guidelines about creating secure protocols. Authors see the necessity of such guideline and this article is an attempt at analysing existing solutions and selecting some universal and important patterns.
PL
Artykuł opisuje popularne mechanizmy bezpieczeństwa stosowane w istniejących protokołach sieciowych środkowych i górnych warstw modelu OSI/ISO (od trzeciej warstwy włącznie). Wiele spośród tych protokołów zostało zaprojektowanych bardzo dawno temu i chociaż do dzisiaj są wykorzystywane i spisują się bardzo dobrze to jednak umożliwiają pewne nadużycia swojej funkcjonalności. Wiele z opisanych tutaj protokołów nie bierze pod uwagę ataków sieciowych. Autorzy postanowili wyselekcjonować pewną grupę protokołów, które mogą posłużyć do analizy zagrożeń sieciowych. Dzisiaj, mając pewne niebezpieczne rozwiązania jesteśmy bogatsi o pewne praktyczne doświadczenia z tym związane. Pozwala to analizować zagrożenie, klasyfikować je i wreszcie skutecznie im przeciwdziałać w nowych protokołach. Często są to rozwiązania lokalne, tworzone przez pewne grupy studentów lub konkretne firmy. Powstają również nowe, globalne rozwiązania. W pierwszym przypadku, nowy protokół może stanowić realne zagrożenie ze strony intruza. W drugim, należałoby poddać przynajmniej częściowej analizie formalnej nowe rozwiązanie. Istnieje wiele metod skupiających się na tworzonym oprogramowaniu, jednak często protokoły, jako rozwiązania autorskie są pomijane w analizie. Artykuł jest również próbą wstępnej klasyfikacji zagrożeń i stworzenia pewnych uniwersalnych rad dla twórców nowych rozwiązań. W pracy zarysowuje się potrzeba zmian pewnych istniejących rozwiązań, których słabości są opisane w artykule. Autorzy są przekonani, że niebezpieczny protokół nie może być użyty w bezpiecznym programie, bo jak np. można stworzyć bezpieczny program, jeśli protokół nie posiada odpowiedniego mechanizmu uwierzytelniania? Ten i wiele innych aspektów bezpieczeństwa zostało w pracy poruszonych i omówionych na przykładzie istniejących rozwiązań.
PL
Celem pracy było otrzymanie metodą EPD bioaktywnych powłok z nanokrzemionki oraz fosforanu wapnia β-TCP na podłożu tytanowym. Powłoki nanoszono z zawiesin cząstek w etanolu (alkohol absolutny). Wyznaczono zależność potencjału dzeta od pH oraz rozkład wielkości cząstek. Potencjał dzeta proszku SiO2 praktycznie w całym badanym zakresie pH przyjmował wartości ujemne, podczas gdy dla proszku TCP do punktu izoelektrycznego, tj. pH 10 przyjmował wartości dodatnie. Miało to wpływ na dobór warunków osadzania elektroforetycznego. Oba stosowane proszki cechowały się dwumodalnym rozkładem wielkości cząstek związanym ze zjawiskiem aglomeracji. Proces elektroforetycznego osadzania przeprowadzono dla każdej zawiesiny w dwóch seriach przez 30 i 60 sekund przy stałym napięciu 43 V. Po obróbce termicznej (600°C, 2 h, argon) scharakteryzowano mikrostrukturę otrzymanych powłok (SEM), a następnie przeprowadzono badania bioaktywności w sztucznym płynie fizjologicznym (SBF). Otrzymane powłoki były w obu przypadkach jednorodne, jednak słabo związane z podłożem. W przypadku nanokrzemionki dłuższy czas osadzania prowadził do powstania grubszych warstw i pojawiania się w ich obrębie nieciągłości. Badania in vitro wskazały na wysoką bioaktywność obu powłok. Na powłoce TCP po siedmiodniowej inkubacji formowała się ciągła, homogeniczna i gruba warstwa apatytów. Warstwa nanokrzemionki uległa w trakcie inkubacji spękaniu i na powierzchni tytanu zostały jedynie jej fragmenty.
EN
The aim of the work was to produce bioactive coatings of nanosilica and calcium phosphate (β-TCP) on a titanium substrate using the electrophoretic deposition method (EPD). The coatings were deposited from ethanol-based suspensions using absolute alcohol. The zeta potential vs pH and particle size distribution were determined. The zeta potential of SiO 2 powder was negative almost in the whole pH range while in the case of the TCP powder it was positive above its isoelectric point, i.e. over pH 10. The differences in the zeta potential characteristics influenced the conditions of the electrophoretic deposition process. Both the applied powders showed bimodal distribution of particle size most probably caused by agglomeration of the powders. The electrophoretic deposition process was conducted for each suspension in two series for 30 and 60 s under constant voltage of 43 V. After thermal treatment at 600°C for 2 h in argon, the microstructure of the produced coatings was examined using SEM and then bioactive tests in simulated body fluid (SBF) were conducted. The coatings in both cases were homogenous, but fixed poorly to the substrate. In the case of the nanosilica, a longer deposition time led to the formation of thicker layers in which some discontinuities occurred. Tests in in vitro conditions indicated high bioactivity of both coatings. After 7 days of incubation, a continuous, homogenous and thick layer of apatites was formed on the TCP coating, while the nanosilica coating cracked during incubation and only some fragments remained on the surface of the titanium substrate.
EN
The study was conducted in order to determine the biocomatibility of polimer mesh based on BOC and enriched with HAp or TCP coverd by PCL sub-micrometric fibres. Human osteoblast cell line NHOst was cultured in standard conditions on disk-shaped polymer samples. Interactions between materials and cells were examined through microscopic observation of cells' adhesion and morphology, and tests of viability/proliferation and cytotoxicity. The study proved the biocompatibility of all examined materials, though the surface of TCP enriched polymer didn't promote the adhesion of cells.
20
Content available remote Metodyka badań wydajności małych routerów
PL
„Małe” routery można obecnie spotkać w prawie każdej (małej lub średniej) firmie. Do ich najważniejszych funkcji należy podział łącza, NAT, DHCP, a czasami w przypadku bardziej zaawansowanych użytkowników także listy dostępu. Oczywiście coraz nowsze urządzenia oferują coraz większą moc obliczeniową (szybszy routing) oraz coraz większą ilość zaawansowanych (czasami ukrytych) funkcji, takich jak DDNS, 802.11n, serwer wydruku, etc. Należy dodatkowo zauważyć pozytywną cechę, polegającą na relatywnie małych cenach tych urządzeń w stosunku do oferowanych technologii czy usług. Autorzy w niniejszym artykule przedstawiają doświadczalną metodykę badania wydajności routerów do zastosowań domowych. Praca w znacznej mierze została oparta na pracy dyplomowej inż. Mariusza Kozłowskiego pt. „Analiza wydajności routerów do zastosowań domowych” (praca została obroniona z wyróżnieniem w dniu 21 kwietnia 2011).
EN
„Small” routers are nowadays presented in almost all (small or middle) company. Their most important functions are split of connection, NAT, DHCP, and in case of intermediate users access lists. Of course a new devices are offered higher computational power (faster routing) and bigger quantity of intermediate (sometimes hidden) functions such as DDNS, 802.11n, jet print, etc. It is necessary to distinguish a positive feature, relayed on devices small prices in comparison to offered technology and services. Authors in this article are presented an experimental methodology of researches in efficiency of small routers. Work in majority was based on diploma Eng. Mariusz Kozlowski “The analysis of home routers efficiency” (the diploma was presented 21 April 2011)
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.