%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % % Copyright (C) 2020 Zaiwen Wen, Haoyang Liu, Jiang Hu % % This program is free software: you can redistribute it and/or modify % it under the terms of the GNU General Public License as published by % the Free Software Foundation, either version 3 of the License, or % (at your option) any later version. % % This program is distributed in the hope that it will be useful, % but WITHOUT ANY WARRANTY; without even the implied warranty of % MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the % GNU General Public License for more details. % % You should have received a copy of the GNU General Public License % along with this program. If not, see . % %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % % Change log: % % 2020.2.24 (Jiang Hu): % First version % % 2020.7.14 (Jiang Hu): % Parameter tuning % %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %% Adam 算法 % 考虑优化问题: % % $$ \displaystyle \min_{x\in\mathcal{R}^n}f(x)=\frac{1}{N}\sum_{i=1}^Nf_i(x). $$ % % Adam 算法本质上是在 RMSProp 的基础上增加了动量项,其利用梯度的一阶矩记录动量 % % $$ S^k=\rho_1S^{k-1}+(1-\rho)g^k, $$ % % 记录梯度的二阶矩(与 RMSProp 相同) % % $$ M^k=\rho_2 M^{k-1}+(1-\rho)g^k\odot g^k, $$ % % 并进行修正: $\hat{S^k}=\frac{S^k}{1-\rho_1^k}$, % $\hat{M^k}=\frac{M^k}{1-\rho_2^k}$。 % 利用修正的一阶矩作为下降方向,并且利用修正的二阶矩来逐分量调整步长,其迭代格式为 % % $$ \displaystyle x^{k+1}=x^k-\frac{\alpha}{\sqrt{\hat{M^k}+\epsilon % \mathbf{1}_n}}\odot\hat{S^k}. $$ % %% 初始化和迭代准备 % 输入信息:迭代初始值 |x0| ,数据集大小 |N| ,样本梯度计算函数 |pgfun|,目标函数值与梯度计算函数 % |fun| 以及提供算法参数的结构体 |opts| 。 % % 输出信息:迭代得到的解 |x| 和包含迭代信息的结构体 |out| 。 % % * |out.fvec| :迭代过程中的目标函数值信息 % * |out.nrmG| :迭代过程中的梯度范数信息 % * |out.epoch| :迭代过程中的时期 (epoch)信息 function [x,out] = Adam(x0,N,pgfun,fun,opts) %%% % 从输入的结构体 |opts| 中读取参数或采取默认参数。 % % * |opts.maxit| :最大迭代次数 % * |opts.alpha| :步长 % * |outs.thres| :保证梯度分量累计严格为正的小量 % * |opts.rho1| :一阶矩累计的权重值 % * |opts.rho2| :二阶矩累计的权重值 % * |opts.batchsize| :随机算法的批量大小 % * |opts.verbose| :不小于 1 时输出每步迭代信息,否则不输出 if ~isfield(opts, 'maxit'); opts.maxit = 5000; end if ~isfield(opts, 'alpha'); opts.alpha = 1e-3; end if ~isfield(opts, 'thres'); opts.thres = 1e-7; end if ~isfield(opts, 'rho1'); opts.rho1 = 0.9; end if ~isfield(opts, 'rho2'); opts.rho2 = 0.999; end if ~isfield(opts, 'batchsize'); opts.batchsize = 10; end if ~isfield(opts, 'verbose'); opts.verbose = 1; end %%% % 以 |x0| 为迭代初始点。 % 计算初始点处的目标函数值和梯度,记初始时刻时期 (epoch) 为 0。 x = x0; out = struct(); [f,g] = fun(x); out.fvec = f; out.nrmG = norm(g,2); out.epoch = 0; %%% % |gsum| 记录一阶矩,|ssum| 记录二阶矩。$\rho_1$, $\rho_2$分别为一阶矩和二阶矩的衰减率。 % |count| 用于计算时期(epoch)。 gsum = zeros(size(x)); ssum = gsum; rho1 = opts.rho1; rho2 = opts.rho2; count = 1; %% 迭代主循环 % |Adam| 的迭代循环,以 |opts.maxit| 为最大迭代次数。 for k = 1:opts.maxit %%% % 等概率地从 $\{1,2,\dots,N\}$ 中选取批量 $s_k$ 记录在 |idx| 之中,批量大小为 % |opts.batchsize| 。计算对应的样本的梯度。 idx = randi(N,opts.batchsize,1); g = pgfun(x,idx); %%% % 更新一阶、二阶矩累计,并进行修正。 % 利用修正的一阶矩和二阶矩对 $x$ 进行更新。 ssum = rho1*ssum + (1 - rho1)*g; gsum = rho2*gsum + (1 - rho2)*(g.*g); ssum_mod = ssum/(1 - rho1^k); gsum_mod = gsum/(1 - rho2^k); x = x - opts.alpha./sqrt(gsum_mod + opts.thres).*ssum_mod; %%% % 每当参与迭代的总样本次数超过数据集的总样本时,记为一个时期 (epoch)。每一个时期, % 记录当前的目标函数值和梯度范数,并令时期计数加一。 if k*opts.batchsize/N >= count [f,g] = fun(x); out.fvec = [out.fvec; f]; out.nrmG = [out.nrmG; norm(g,2)]; out.epoch = [out.epoch; k*opts.batchsize/N]; count = count + 1; end end end %% 参考页面 % 在页面 中, % 我们展示了该算法的一个应用,并且与其它随机算法进行比较。 % % 其它随机算法参见: 、 % 。 % % 此页面的源代码请见: <../download_code/stograd/Adam.m Adam.m>。 %% 版权声明 % 此页面为《最优化:建模、算法与理论》、《最优化计算方法》配套代码。 % 代码作者:文再文、刘浩洋、户将,代码整理与页面制作:杨昊桐。 % % 著作权所有 (C) 2020 文再文、刘浩洋、户将