In this paper we demonstrate, how ℓp-regularized univariate quadratic loss function can be effectively optimized (for 0≤ p ≤ 1) without approximation of penalty term and provide analytical solution for p = 1/2 . Next we adapt this approach for important multivariate cases like linear and logistic regressions, using Coordinate Descent algorithm. At the end we compare sample complexity of ℓ1 with ℓp, 0 ≤ p < 1 regularized models for artificial and real datasets.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.