Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 3

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  uczenie federacyjne
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Federated learning is an upcoming concept used widely in distributed machine learning. Federated learning (FL) allows a large number of users to learn a single machine learning model together while the training data is stored on individual user devices. Nonetheless, federated learning lessens threats to data privacy. Based on iterative model averaging, our study suggests a feasible technique for the federated learning of deep networks with improved security and privacy. We also undertake a thorough empirical evaluation while taking various FL frameworks and averaging algorithms into consideration. Secure multi party computation, secure aggregation, and differential privacy are implemented to improve the security and privacy in a federated learning environment. In spite of advancements, concerns over privacy remain in FL, as the weights or parameters of a trained model may reveal private information about the data used for training. Our work demonstrates that FL can be prone to label-flipping attack and a novel method to prevent label-flipping attack has been proposed. We compare standard federated model aggregation and optimization methods, FedAvg and FedProx using benchmark data sets. Experiments are implemented in two different FL frameworks – Flower and PySyft and the results are analyzed. Our experiments confirm that classification accuracy increases in FL framework over a centralized model and the model performance is better after adding all the security and privacy algorithms. Our work has proved that deep learning models perform well in FL and also is secure.
PL
Porównano różne metody służące do zapewniania prywatności w przypadku przetwarzania danych z użyciem uczenia maszynowego. Wybrano najbardziej adekwatne metody: szyfrowanie homomorficzne, prywatność różnicowa, metoda uczenia federacyjnego. Efektywność przedstawionych algorytmów została ujęta ilościowo za pomocą powszechnie używanych metryk: funkcji kosztu dla jakości procesu uczenia, dokładności dla klasyfikacji i współczynnika determinacji dla regresji.
EN
Various methods for ensuring privacy in machine learning based data processing were compared. The most suitable methods have been selected: homomorphic encryption, differential privacy, and federated learning. The effectiveness of the presented algorithms was quantified using commonly used metrics: cost function for the quality of the learning process, accuracy for classification, and coefficient of determination for regression.
PL
W niniejszym artykule przedstawiono wyniki badań i analizy wpływu ataków zatruwających odwracających etykiety (ang. label-flipping) na uczenie federacyjne w zastosowaniu dla detekcji zajętości zasobów radiowych. Badania przeprowadzono zarówno dla ataków skoordynowanych jak i losowych, przy zmiennym stosunku liczby użytkowników atakujących do liczby użytkowników uczciwych oraz różnym stopniu agresywności i czasie trwania ataków. Badania skupiają się na porównaniu skuteczności algorytmu detekcji zasobów radiowych przed i po przeprowadzonych atakach.
EN
This paper presents the research results and analysis of the impact of poisoning label-flipping attacks on federated learning for spectrum sensing. The experiments have been executed for random and coordinated attacks for varying attackers-to-genuine-users ratios, different levels of aggressiveness, and time duration of attacks. The results have been obtained by comparing spectrum sensing machine learning model performance with and without attacks.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.