%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % % Copyright (C) 2020 Zaiwen Wen, Haoyang Liu, Jiang Hu % % This program is free software: you can redistribute it and/or modify % it under the terms of the GNU General Public License as published by % the Free Software Foundation, either version 3 of the License, or % (at your option) any later version. % % This program is distributed in the hope that it will be useful, % but WITHOUT ANY WARRANTY; without even the implied warranty of % MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the % GNU General Public License for more details. % % You should have received a copy of the GNU General Public License % along with this program. If not, see . % %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % % Change log: % % 2020.2.15 (Jiang Hu): % First version % % 2021.4.16 (Jiang Hu): % Update the scheme of the nonmonotone line search % %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %% LASSO 问题的 Nesterov 加速算法(FISTA 算法) % 对于 LASSO 问题 % % $$ \displaystyle\min_x \frac{1}{2}\|Ax-b\|_2^2 + \mu \|x\|_1,$$ % % 利用 Nesterov 加速的近似点梯度法进行优化。 % % 该算法被外层连续化策略调用,在连续化策略下完成某一固定正则化系数的内层迭代优化。 % % 在每一步迭代时,算法首先在之前两步迭代点的基础上进行一步更新 % $y^k=x^{k-1}+\frac{k-2}{k+1}(x^{k-1}-x^{k-2})$,然后再在 $y^k$ 处进行一步近似点梯度法, % $x^k=\mathrm{prox}_{t_k\|\cdot\|_1}(y^k-t_k A^\top(Ay^k-b))$。 %% 初始化和迭代准备 % 函数在 LASSO 连续化策略下,完成内层迭代的优化。 % % 输入信息: $A$, $b$, $\mu$ ,迭代初始值 $x^0$ ,原问题对应的正则化系数 $\mu_0$ , % 以及提供各参数的结构体 |opts| 。 % % 输出信息: 迭代得到的解 $x$ 和结构体 |out| 。 % % * |out.fvec| :每一步迭代的原始 LASSO 问题目标函数值(对应于原问题的 $\mu_0$) % * |out.fval| :迭代终止时的原始 LASSO 问题目标函数值(对应于原问题的 $\mu_0$) % * |out.nrmG| :迭代终止时的梯度范数 % * |out.tt| :运行时间 % * |out.itr| :迭代次数 % * |out.flag| :记录是否收敛 function [x, out] = LASSO_Nesterov_inn(x0, A, b, mu, mu0, opts) %%% % 从输入的结构体 |opts| 中读取参数或采取默认参数。 % % * |opts.maxit| :最大迭代次数 % * |opts.ftol| :针对函数值的停机准则,当相邻两次迭代函数值之差小于该值时认为该条件满足 % * |opts.gtol| :针对梯度的停机准则,当当前步梯度范数小于该值时认为该条件满足 % * |opts.alpha0| :步长的初始值 % * |optsz.verbose| :不为 0 时输出每步迭代信息,否则不输出 % * |opts.ls| :标记是否线搜索 % * |opts.bb| :标记是否采用 BB 步长 if ~isfield(opts, 'maxit'); opts.maxit = 10000; end if ~isfield(opts, 'ftol'); opts.ftol = 1e-8; end if ~isfield(opts, 'gtol'); opts.gtol = 1e-6; end if ~isfield(opts, 'verbose'); opts.verbose = 1; end if ~isfield(opts, 'alpha0'); opts.alpha0 = 1e-3; end if ~isfield(opts, 'ls'); opts.ls = 1; end if ~isfield(opts, 'bb'); opts.bb = 0; end %%% % 初始化, $t$ 为步长,初始步长由 |opts.alpha0| 提供。 k = 0; t = opts.alpha0; tt = tic; x = x0; y = x; xp = x0; %%% % $g=A^\top(Ax-b)$ 为可微部分的梯度, % $f=\frac{1}{2}\|Ax-b\|^2+\mu\|x\|_1$ 为优化的目标函数, |nrmG| % 在初始时刻用一步近似点梯度法(步长为 $1$)的位移作为梯度的估计,用于收敛性的判断。 fp = inf; r = A*x0 - b; g = A'*r; tmp = .5*norm(r,2)^2; f = tmp + mu0*norm(x,1); tmpf = tmp + mu*norm(x,1); nrmG = norm(x - prox(x - g,mu),2); out = struct(); out.fvec = tmp + mu0*norm(x,1); %%% % 线搜索参数。 Cval = tmpf; Q = 1; gamma = 0.85; rhols = 1e-6; %% 迭代主循环 % 当达到最大迭代次数,或梯度或函数值的变化大于阈值时,退出迭代。 while k < opts.maxit && nrmG > opts.gtol && abs(f - fp) > opts.ftol %%% % 记录上一步的迭代信息。 gp = g; yp = y; fp = tmpf; %%% % Nesterov 加速的近似点梯度法。首先,计算辅助变量 % $y^k=x^{k-1}+\frac{k-2}{k+1}(x^{k-1}-x^{k-2})$。 theta = (k - 1) / (k + 2); y = x + theta * (x - xp); xp = x; r = A * y - b; g = A' * r; %%% % 为 $w^k=y^k-t_kA^\top(Ay^k-b)$ 计算步长 $t_k$,当 |opts.ls=1| 且 % |opts.bb=1| 时计算 BB 步长,作为线搜索的初始步长。 % 令 $\mathrm{d}y^k=y^{k+1}-y^k$, $\mathrm{d}g^k=g^{k+1}-g^k$,这里在偶数与奇数步分别对应 % $\displaystyle\frac{(\mathrm{d}y^k)^\top \mathrm{d}y^k}{(\mathrm{d}y^k)^\top \mathrm{d}g^k}$ % 和 $\displaystyle\frac{(\mathrm{d}y^k)^\top \mathrm{d}g^k}{(\mathrm{d}g^k)^\top \mathrm{d}g^k}$ 两个 BB 步长。 if opts.bb && opts.ls dy = y - yp; dg = g - gp; dyg = abs(dy'*dg); if dyg > 0 if mod(k,2) == 0 t = norm(dy,2)^2/dyg; else t = dyg/norm(dg,2)^2; end end %%% % 将更新得到的 BB 步长 t_k 限制在阈值 [t_0,10^{12}] 内。 t = min(max(t,opts.alpha0),1e12); %%% % 如果不需要计算 BB 步长,则直接选择默认步长。 else t = opts.alpha0; end %%% % 在当前步长下进行一步迭代得到 $w^k=y^k-t_kA^\top(Ay^k-b)$ 和 % $x^k=\mathrm{prox}_{t_kh}(w^k)$。 x = prox(y - t * g, t * mu); %%% % 当 |opts.ls=1| 时进行线搜索。在满足线搜索条件或者已经 5 次步长衰减之后退出, % 否则以 $0.2$ 的比例衰减步长。记 $f(x)=\frac{1}{2}\|Ax-b\|_2^2 + \mu \|x\|_1$,线搜索条件为 % % $$ f(x^{k+1}) \le C_k - \frac{1}{2}t_k \rho \|x^{k+1}-y^k\|_2^2. $$ % $C_k$ 为 (Zhang & % Hager) 线搜索准则中的量。 % % 当没有满足线搜索条件时,对当前步长进行衰减,当前线搜索次数加一。 if opts.ls nls = 1; while 1 tmp = 0.5 * norm(A*x - b, 2)^2; tmpf = tmp + mu*norm(x,1); if tmpf <= Cval - 0.5*rhols*t*norm(x-y,2)^2 || nls == 5 break; end t = 0.2*t; nls = nls + 1; x = prox(y - t * g, t * mu); end %%% % 计算更新后的函数值 f = tmp + mu0*norm(x,1); %%% % 更新非单调线搜索参数值 Qp = Q; Q = gamma*Qp + 1; Cval = (gamma*Qp*Cval + tmpf)/Q; %%% % 当 opts.ls=0 时,不进行线搜索。 else f = 0.5 * norm(A*x - b, 2)^2 + mu0*norm(x,1); end %%% % 用 $\frac{\|x^k-y^k\|_2}{t_{k+1}}$ 作为梯度的估计。 nrmG = norm(x - y,2)/t; %%% % 迭代步加一,记录当前函数值。输出信息。 k = k + 1; out.fvec = [out.fvec, f]; if opts.verbose fprintf('itr: %d\tt: %e\tfval: %e\tnrmG: %e\n', k, t, f, nrmG); end %%% % 特别地,除了上述的停机准则外,如果连续 $20$ 步的函数值不下降,则停止内层循环。 if k > 20 && min(out.fvec(k-19:k)) > out.fvec(k-20) break; end end %%% % 当退出循环时,向外层迭代(连续化策略)报告内层迭代的退出方式,当达到最大迭代次数退出时, % out.flag 记为 1,否则为达到收敛,记为 0。这个指标用于判断是否进行正则化系数的衰减。 if k == opts.maxit out.flag = 1; else out.flag = 0; end %%% % 记录输出信息。 out.fvec = out.fvec(1:k); out.fval = f; out.itr = k; out.tt = toc(tt); out.nrmG = nrmG; end %% 辅助函数 % 函数 $h(x)=\mu\|x\|_1$ 对应的邻近算子 $\mathrm{sign}(x)\max\{|x|-\mu,0\}$。 function y = prox(x, mu) y = max(abs(x) - mu, 0); y = sign(x) .* y; end %% 参考页面 % 该函数由连续化策略调用,关于连续化策略参见 % <..\LASSO_con\LASSO_con.html LASSO问题连续化策略>。 % % 在页面 % 我们展示该算法的应用。另外,参考 % 、 % 。 % % 此页面的源代码请见: % <../download_code/lasso_proxg/LASSO_Nesterov_inn.m LASSO_Nesterov_inn.m>。 %% 版权声明 % 此页面为《最优化:建模、算法与理论》、《最优化计算方法》配套代码。 % 代码作者:文再文、刘浩洋、户将,代码整理与页面制作:杨昊桐。 % % 著作权所有 (C) 2020 文再文、刘浩洋、户将