In this paper we propose a new method of scheduling the distributed applications in cloud environment according to the High Performance Computing as a Service concept. We assume that applications, that are submitted for execution, are specified as task graphs. Our method dynamically schedules all the tasks using resource sharing by the applications. The goal of scheduling is to minimize the cost of resource hiring and the execution time of all incoming applications. Experimental results showed that our method gives significantly better utilization of computational resources than existing management methods for clouds.
A representation of information on cyclic events has been proposed which is advantageous for computing environments where a distributed set of Receivers reacts to cyclic events generated by distributed sources. In such scenario no immanent central information repository exist on event timing or volume. Receivers are able to learn the event cycles without communicating with each other, merely on the basis of the fact that an event at a given instant of time has or has not been acted upon by other Receivers.
PL
W artykule zaproponowano sposób reprezentacji informacji o zdarzeniach zachodzących cyklicznie, przydatny dla środowisk, w których rozproszony zbiór Odbiorników obsługuje cykliczne zdarzenia generowane przez rozproszone źródła. Mimo braku scentralizowanej informacji o ilości i czasie występowania zdarzeń, Odbiorniki wykrywają cykliczność zdarzeń bez potrzeby komunikacji między sobą, a jedynie na podstawie informacji, że zdarzenie zostało lub nie zostało obsłużone przez inne Odbiorniki.
W pracy tej zostały przedstawione dwie technologie do obliczeń rozproszonych - Apache Hadoop oraz XtreemOS. Pierwsza z nich jest szeroko stosowana dla usług sieciowych i infemetowych. Druga technologia oferuje możliwość rozsyłania zadań pomiędzy węzły klastra, z uwzględnieniem wymaganych zasobów. Technologie te różnią się budową, co powinno być uwzględnione podczas wyboru dla danego problemu obliczeniowego oraz podczas implementacji.
EN
In ths paper two technologies for distributed computations are presented - Apache Hadoop and XtreemOS. The first of them is widely used for web services. Its main purpose is an analysis of large data. The second one is developed to distribute tasks between cluster nodes regarding the available resources. This technologies differ in construction context, which should be considered when applied.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.