2018
DOI: 10.1137/17m1114296
|View full text |Cite
|
Sign up to set email alerts
|

Accelerated Methods for NonConvex Optimization

Abstract: We prove impossibility results for adaptivity in non-smooth stochastic convex optimization. Given a set of problem parameters we wish to adapt to, we define a "price of adaptivity" (PoA) that, roughly speaking, measures the multiplicative increase in suboptimality due to uncertainty in these parameters. When the initial distance to the optimum is unknown but a gradient norm bound is known, we show that the PoA is at least logarithmic for expected suboptimality, and double-logarithmic for median suboptimality. … Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
3
1
1

Citation Types

5
257
0
2

Year Published

2018
2018
2023
2023

Publication Types

Select...
5
3

Relationship

0
8

Authors

Journals

citations
Cited by 191 publications
(266 citation statements)
references
References 25 publications
5
257
0
2
Order By: Relevance
“…Идея за-ключается в том, чтобы формировать матрицу Гессе оптимизируемой функции исходя из матриц Гессе относительно небольшого числа случайно выбранных слагаемых [Ghadimi et al, 2017]. Другая идея заключается в отказе от обращения матрицы Гессе на итерации, вместо этого пред-лагается использовать информацию о собственном векторе, отвечающем наименьшему собствен-ному значению [Agarwal et al, 2017;Carmon et al, 2017]. Для приближенного вычисления тако-го вектора вполне достаточно уметь умножать матрицу Гессе на произвольный вектор:…”
Section: Discussionunclassified
“…Идея за-ключается в том, чтобы формировать матрицу Гессе оптимизируемой функции исходя из матриц Гессе относительно небольшого числа случайно выбранных слагаемых [Ghadimi et al, 2017]. Другая идея заключается в отказе от обращения матрицы Гессе на итерации, вместо этого пред-лагается использовать информацию о собственном векторе, отвечающем наименьшему собствен-ному значению [Agarwal et al, 2017;Carmon et al, 2017]. Для приближенного вычисления тако-го вектора вполне достаточно уметь умножать матрицу Гессе на произвольный вектор:…”
Section: Discussionunclassified
“…Carmon et al (Carmon et al, 2018) used negative curvature directions at the first phase of iterates and then switched it to accelerated stochastic gradient descent method when an iterate reaches an almost convex region.…”
Section: Related Workmentioning
confidence: 99%
“…In particular, accelerated inexact proximal points (AIPP) methods, i.e. methods which use an accelerated composite gradient variant to approximately solve the generated sequence of prox subproblems, have been developed for it (see, for example, [2,5]). When Y is not a singleton, (1) can no longer be directly solved by an AIPP method due to the nonsmoothness of the max term.…”
Section: Introductionmentioning
confidence: 99%
“…x − x ≤ δ (2) in at most O(δ −3 ) gradient and proximal subproblem evaluations. Next, we develop an AIPP-S variant that computes an approximate solution involving a saddle-point formulation of (1).…”
Section: Introductionmentioning
confidence: 99%
See 1 more Smart Citation