Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  prywatność różnicowa
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Porównano różne metody służące do zapewniania prywatności w przypadku przetwarzania danych z użyciem uczenia maszynowego. Wybrano najbardziej adekwatne metody: szyfrowanie homomorficzne, prywatność różnicowa, metoda uczenia federacyjnego. Efektywność przedstawionych algorytmów została ujęta ilościowo za pomocą powszechnie używanych metryk: funkcji kosztu dla jakości procesu uczenia, dokładności dla klasyfikacji i współczynnika determinacji dla regresji.
EN
Various methods for ensuring privacy in machine learning based data processing were compared. The most suitable methods have been selected: homomorphic encryption, differential privacy, and federated learning. The effectiveness of the presented algorithms was quantified using commonly used metrics: cost function for the quality of the learning process, accuracy for classification, and coefficient of determination for regression.
2
Content available Evaluating adaptive differential privacy model
EN
Differential privacy is a statistical disclosure control that is gaining popularity in recent years due to easy application for the data collection mechanisms. Many variants of differential privacy are being developed for specific use cases and environments. One of them is adaptive differential privacy that modulates the generated noise in such a way, that the retrieved result is affected according to the risk profile of the asked query and the risk-accuracy tradeoff required for the queried database. This paper intends to evaluate the adaptive differential privacy using VIOLAS Framework and through assessing how the security characteristics satisfied by the adaptive differential privacy mitigate the risk of selected inference attacks.
PL
Prywatność różnicowa to metoda ochrony statystycznych baz danych, która w ostatnich latach zyskuje popularność ze względu na łatwość jej zastosowania dla mechanizmów gromadzenia danych. Istnieje wiele wariantów prywatności różnicowej dla konkretnych przypadków i środowisk użycia. Jednym z wariantów jest adaptacyjna prywatność różnicowa, która moduluje generowany szum w zależności od profilu ryzyka zadanego zapytania oraz wybranego poziomu kompromisu między ryzykiem a dokładnością wyniku dla przeszukiwanej bazy danych. Artykuł ma na celu ocenę adaptacyjnej prywatności różnicowej, wykorzystując VIOLAS Framework i analizę tego, w jaki sposób charakterystyki bezpieczeństwa zapewniane przez adaptacyjną prywatność różnicową zmniejszają ryzyko wybranych ataków wnioskowaniem.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.