Passer à la navigation principale Passer à la recherche Passer au contenu principal

Gradient descent algorithms for Bures-Wasserstein barycenters

Résultats de recherche: Contribution à un journalArticle de conférenceRevue par des pairs

Résumé

We study first order methods to compute the barycenter of a probability distribution P over the space of probability measures with finite second moment. We develop a framework to derive global rates of convergence for both gradient descent and stochastic gradient descent despite the fact that the barycenter functional is not geodesically convex. Our analysis overcomes this technical hurdle by employing a Polyak-Łojasiewicz (PL) inequality and relies on tools from optimal transport and metric geometry. In turn, we establish a PL inequality when P is supported on the Bures-Wasserstein manifold of Gaussian probability measures. It leads to the first global rates of convergence for first order methods in this context.

langue originaleAnglais
Pages (de - à)1276-1304
Nombre de pages29
journalProceedings of Machine Learning Research
Volume125
étatPublié - 1 janv. 2020
Modification externeOui
Evénement33rd Conference on Learning Theory, COLT 2020 - Virtual, Online, Autriche
Durée: 9 juil. 202012 juil. 2020

Empreinte digitale

Examiner les sujets de recherche de « Gradient descent algorithms for Bures-Wasserstein barycenters ». Ensemble, ils forment une empreinte digitale unique.

Contient cette citation