Passer à la navigation principale Passer à la recherche Passer au contenu principal

Fast distributed coordinate descent for non-strongly convex losses

Résultats de recherche: Le chapitre dans un livre, un rapport, une anthologie ou une collectionContribution à une conférenceRevue par des pairs

Résumé

We propose an efficient distributed randomized coordinate descent method for minimizing regularized non-strongly convex loss functions. The method attains the optimal O(1/k2) convergence rate, where k is the iteration counter. The core of the work is the theoretical study of stepsize parameters. We have implemented the method on Archer - the largest super-computer in the UK - and show that the method is capable of solving a (synthetic) LASSO optimization problem with 50 billion variables.

langue originaleAnglais
titreIEEE International Workshop on Machine Learning for Signal Processing, MLSP
rédacteurs en chefMamadou Mboup, Tulay Adali, Eric Moreau, Jan Larsen
EditeurIEEE Computer Society
ISBN (Electronique)9781479936946
Les DOIs
étatPublié - 14 nov. 2014
Modification externeOui
Evénement2014 24th IEEE International Workshop on Machine Learning for Signal Processing, MLSP 2014 - Reims, France
Durée: 21 sept. 201424 sept. 2014

Série de publications

NomIEEE International Workshop on Machine Learning for Signal Processing, MLSP
ISSN (imprimé)2161-0363
ISSN (Electronique)2161-0371

Une conférence

Une conférence2014 24th IEEE International Workshop on Machine Learning for Signal Processing, MLSP 2014
Pays/TerritoireFrance
La villeReims
période21/09/1424/09/14

Empreinte digitale

Examiner les sujets de recherche de « Fast distributed coordinate descent for non-strongly convex losses ». Ensemble, ils forment une empreinte digitale unique.

Contient cette citation