Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Hadoop
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
A large amount of structured and unstructured data is collectively termed big data. Therecent technological development streamlined several companies to handle massive dataand interpret future trends and requirements. The Hadoop distributed file system (HDFS)is an application introduced for efficient big data processing. However, HDFS does not have built-in data encryption methodologies, which leads to serious security threats. Encryption algorithms are introduced to enhance data security; however, conventional algorithmslag in performance while handling larger files. This research aims to secure big data usinga novel hybrid encryption algorithm combining cipher-text policy attribute-based encryption (CP-ABE) and advanced encryption standard (AES) algorithms. The performanceof the proposed model is compared with traditional encryption algorithms such as DES, 3DES, and Blowfish to validate superior performance in terms of throughput, encryptiontime, decryption time, and efficiency. Maximum efficiency of 96.5% with 7.12 min encryption time and 6.51 min decryption time of the proposed model outperforms conventionalencryption algorithms.
EN
The amount of data processed and stored in the cloud is growing dramatically. The traditional storage devices at both hardware and software levels cannot meet the requirement of the cloud. This fact motivates the need for a platform which can handle this problem. Hadoop is a deployed platform proposed to overcome this big data problem which often uses MapReduce architecture to process vast amounts of data of the cloud system. Hadoop has no strategy to assure the safety and confidentiality of the files saved inside the Hadoop distributed File system (HDFS). In the cloud, the protection of sensitive data is a critical issue in which data encryption schemes plays avital rule. This research proposes a hybrid system between two well-known asymmetric key cryptosystems (RSA, and Paillier) to encrypt the files stored in HDFS. Thus before saving data in HDFS, the proposed cryptosystem is utilized for encrypting the data. Each user of the cloud might upload files in two ways, non-safe or secure. The hybrid system shows higher computational complexity and less latency in comparison to the RSA cryptosystem alone.
PL
W artykule przedstawiono możliwości wykorzystania platformy Hadoop w zarządzaniu wielkimi zbiorami danych. Na podstawie dostępnych źródeł przedstawiono rozwój wydajności aplikacji. Dodatkowo zostały opisane organizacje, które dzięki wdrożeniu tego oprogramowania odniosły sukces w świecie Internetu.
EN
The article presents the possibilities of using Hadoop platform to manage large data sets. The development of application performance has been shown based on available sources. Additionally, the article describes the organizations that have been successful in the Internet thanks to the implemented software.
EN
The results of a survey conducted by the author are presented, in order to compare the Big Data tools currently used for the analysis of distributed data about the consumer between Polish and foreign companies, and to check what data is being analysed. Enterprises in Poland usually analyse data coming from their internal systems, while foreign companies examine data from mobile applications and geographical location.
PL
Zaprezentowano wyniki badania przeprowadzonego przez autorkę, które miało na celu m.in. porównanie stosowanych obecnie narzędzi Big Data do analizy rozproszonych danych o konsumencie pomiędzy polskimi i zagranicznymi firmami, sprawdzenie jakie dane są obecnie poddawane analizie. Firmy w Polsce najczęściej analizują dane pochodzące ze swoich systemów wewnętrznych, zagraniczne - dane pochodzące z aplikacji mobilnych i położenie geograficzne.
PL
Big Data jest jednym z najważniejszych wyzwań współczesnej informatyki. Wobec zmasowanego napływu wielkich ilości informacji obecnych czasach pochodzących z różnych źródeł, konieczne jest wprowadzanie nowych technik analizy danych oraz rozwiązań technologicznych. Ważnym narzędziem w Big Data jest oprogramowanie Hadoop.
EN
Big Data is a term frequently used in the literature, but still there is no consensus in implementations of such environments. An important tool in Big data is a software Hadoop. The are many tools and technologies in this area. This paper is the review in the Big Data technologies.
6
Content available remote Implementacja cyfrowego filtru Savitzky'ego-Golaya w środowisku chmurowym
PL
Artykuł przedstawia wyniki badań eksperymentalnych implementacji cyfrowego filtru wygładzającego Savitzky’ego-Golaya w środowisku chmurowym z wykorzystaniem języka programowania R. Dokonano porównania wyników badań dla implementacji filtru w środowisku chmurowym oraz w komercyjnym rozwiązaniu klasy Enterprise. Filtr zastosowano do danych pomiarowych pochodzących z układu zawierającego taśmę z nadprzewodników wysokotemperaturowych i generującego liczbę punktów pomiarowych przekraczającą możliwości komercyjnych środowisk eksploracji danych.
EN
The article presents the results of experimental implementation of a digital Savitzky-Golay smoothing filter in the cloud environment using a R programming language. Comparison of test results for the implementation of the filter in the cloud environment and in commercial enterprise-class data mining system was presented. The filter was applied to measurement data from system consisting of high-temperature superconductors tape and generating the number of measurement points which excess the possibilities of commercial data mining environments.
EN
An article focuses on the new methods for automatic processing and analysis of the scientific papers. It covers the very first part of this task – discovery and harvesting of scientific publications from the internet. Article is focused on discovery and analysis of the html documents to identify publication resources. Usage of data from Common Crawl project allows operating on large subset of the web pages without a need to perform an expensive crawl of the WWW. We present methods for automatic identification of pages describing scholarly documents in WWW network using html meta headers. Presented set of rules applied to the data achieves reasonable quality. A system based on these tools is also presented. It allows easy operating and transferring output to the COntent ANalysis SYStem(CoAnSys) - a processing and analysis system developed in ICM. For achieving this goal set of MapReduce tasks running with Hadoop And Ozzie has been used. The quality and efficiency of described rules are discussed. Finally future challenges for our system are presented.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.