首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

【23-24 秋学期】NNDL 作业12 优化算法2D可视化

  • 24-03-09 02:01
  • 4686
  • 12366
blog.csdn.net

简要介绍图中的优化算法,编程实现并2D可视化

简要介绍:

首先,为了方便理解,可以想象成这样一个故事:“有一个性情古怪的探险家。他在广袤的干旱地带旅行,坚持寻找幽深的山谷,他的目标是要达到最深的谷底。他给自己制定了两个规定:一是不许看地图;二是把眼睛蒙上。因此,他并不知道最深的谷底在这个广袤的大地的何处。在如此严苛的条件下,冒险家如何才能找到“至深之地”呢?”

优化算法大体上可以分为两类:
1) 调整 学习率 , 使得优化更稳定
2) 梯度估计 修正, 优化训练速度

编程实现:


1. 被优化函数 :0.2*x_{1}^{2}+2*x_{2}^{2}

首先定义有关优化器方面的代码:

  1. import torch
  2. from abc import abstractmethod
  3. class Op(object):
  4. def __init__(self):
  5. pass
  6. def __call__(self, inputs):
  7. return self.forward(inputs)
  8. # 输入:张量inputs
  9. # 输出:张量outputs
  10. def forward(self, inputs):
  11. # return outputs
  12. raise NotImplementedError
  13. # 输入:最终输出对outputs的梯度outputs_grads
  14. # 输出:最终输出对inputs的梯度inputs_grads
  15. def backward(self, outputs_grads):
  16. # return inputs_grads
  17. raise NotImplementedError
  18. # 优化器基类
  19. class Optimizer(object):
  20. def __init__(self, init_lr, model):
  21. """
  22. 优化器类初始化
  23. """
  24. # 初始化学习率,用于参数更新的计算
  25. self.init_lr = init_lr
  26. # 指定优化器需要优化的模型
  27. self.model = model
  28. @abstractmethod
  29. def step(self):
  30. """
  31. 定义每次迭代如何更新参数
  32. """
  33. pass
  34. class SimpleBatchGD(Optimizer):
  35. def __init__(self, init_lr, model):
  36. super(SimpleBatchGD, self).__init__(init_lr=init_lr, model=model)
  37. def step(self):
  38. # 参数更新
  39. if isinstance(self.model.params, dict):
  40. for key in self.model.params.keys():
  41. self.model.params[key] = self.model.params[key] - self.init_lr * self.model.grads[key]
  42. class Adagrad(Optimizer):
  43. def __init__(self, init_lr, model, epsilon):
  44. super(Adagrad, self).__init__(init_lr=init_lr, model=model)
  45. self.G = {}
  46. for key in self.model.params.keys():
  47. self.G[key] = 0
  48. self.epsilon = epsilon
  49. def adagrad(self, x, gradient_x, G, init_lr):
  50. G += gradient_x ** 2
  51. x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x
  52. return x, G
  53. def step(self):
  54. for key in self.model.params.keys():
  55. self.model.params[key], self.G[key] = self.adagrad(self.model.params[key],
  56. self.model.grads[key],
  57. self.G[key],
  58. self.init_lr)
  59. class RMSprop(Optimizer):
  60. def __init__(self, init_lr, model, beta, epsilon):
  61. super(RMSprop, self).__init__(init_lr=init_lr, model=model)
  62. self.G = {}
  63. for key in self.model.params.keys():
  64. self.G[key] = 0
  65. self.beta = beta
  66. self.epsilon = epsilon
  67. def rmsprop(self, x, gradient_x, G, init_lr):
  68. """
  69. rmsprop算法更新参数,G为迭代梯度平方的加权移动平均
  70. """
  71. G = self.beta * G + (1 - self.beta) * gradient_x ** 2
  72. x -= init_lr / torch.sqrt(G + self.epsilon) * gradient_x
  73. return x, G
  74. def step(self):
  75. """参数更新"""
  76. for key in self.model.params.keys():
  77. self.model.params[key], self.G[key] = self.rmsprop(self.model.params[key],
  78. self.model.grads[key],
  79. self.G[key],
  80. self.init_lr)
  81. class Momentum(Optimizer):
  82. def __init__(self, init_lr, model, rho):
  83. super(Momentum, self).__init__(init_lr=init_lr, model=model)
  84. self.delta_x = {}
  85. for key in self.model.params.keys():
  86. self.delta_x[key] = 0
  87. self.rho = rho
  88. def momentum(self, x, gradient_x, delta_x, init_lr):
  89. """
  90. momentum算法更新参数,delta_x为梯度的加权移动平均
  91. """
  92. delta_x = self.rho * delta_x - init_lr * gradient_x
  93. x += delta_x
  94. return x, delta_x
  95. def step(self):
  96. """参数更新"""
  97. for key in self.model.params.keys():
  98. self.model.params[key], self.delta_x[key] = self.momentum(self.model.params[key],
  99. self.model.grads[key],
  100. self.delta_x[key],
  101. self.init_lr)
  102. class Adam(Optimizer):
  103. def __init__(self, init_lr, model, beta1, beta2, epsilon):
  104. super(Adam, self).__init__(init_lr=init_lr, model=model)
  105. self.beta1 = beta1
  106. self.beta2 = beta2
  107. self.epsilon = epsilon
  108. self.M, self.G = {}, {}
  109. for key in self.model.params.keys():
  110. self.M[key] = 0
  111. self.G[key] = 0
  112. self.t = 1
  113. def adam(self, x, gradient_x, G, M, t, init_lr):
  114. M = self.beta1 * M + (1 - self.beta1) * gradient_x
  115. G = self.beta2 * G + (1 - self.beta2) * gradient_x ** 2
  116. M_hat = M / (1 - self.beta1 ** t)
  117. G_hat = G / (1 - self.beta2 ** t)
  118. t += 1
  119. x -= init_lr / torch.sqrt(G_hat + self.epsilon) * M_hat
  120. return x, G, M, t
  121. def step(self):
  122. """参数更新"""
  123. for key in self.model.params.keys():
  124. self.model.params[key], self.G[key], self.M[key], self.t = self.adam(self.model.params[key],
  125. self.model.grads[key],
  126. self.G[key],
  127. self.M[key],
  128. self.t,
  129. self.init_lr)

接着根据定义的模型,选择不同优化器进行训练并进行可视化:

  1. # coding=gbk
  2. from Op import *
  3. import torch
  4. import numpy as np
  5. from matplotlib import pyplot as plt
  6. class OptimizedFunction(Op):
  7. def __init__(self, w):
  8. super(OptimizedFunction, self).__init__()
  9. self.w = w
  10. self.params = {'x': 0}
  11. self.grads = {'x': 0}
  12. def forward(self, x):
  13. self.params['x'] = x
  14. return torch.matmul(self.w.T, torch.tensor(torch.square(self.params['x']), dtype=torch.float32))
  15. def backward(self):
  16. self.grads['x'] = 2 * torch.multiply(self.w.T, self.params['x'])
  17. import copy
  18. def train_f(model, optimizer, x_init, epoch):
  19. """
  20. 训练函数
  21. 输入:
  22. - model:被优化函数
  23. - optimizer:优化器
  24. - x_init:x初始值
  25. - epoch:训练回合数
  26. """
  27. x = x_init
  28. all_x = []
  29. losses = []
  30. for i in range(epoch):
  31. all_x.append(copy.copy(x.numpy()))
  32. loss = model(x)
  33. losses.append(loss)
  34. model.backward()
  35. optimizer.step()
  36. x = model.params['x']
  37. #print(all_x)
  38. return torch.tensor(all_x), losses
  39. class Visualization(object):
  40. def __init__(self):
  41. """
  42. 初始化可视化类
  43. """
  44. # 只画出参数x1和x2在区间[-5, 5]的曲线部分
  45. x1 = np.arange(-5, 5, 0.1)
  46. x2 = np.arange(-5, 5, 0.1)
  47. x1, x2 = np.meshgrid(x1, x2)
  48. self.init_x = torch.tensor([x1, x2])
  49. def plot_2d(self, model, x, fig_name):
  50. """
  51. 可视化参数更新轨迹
  52. """
  53. fig, ax = plt.subplots(figsize=(10, 6))
  54. cp = ax.contourf(self.init_x[0], self.init_x[1], model(self.init_x.transpose(0, 1)),
  55. colors=['#e4007f', '#f19ec2', '#e86096', '#eb7aaa', '#f6c8dc', '#f5f5f5', '#000000'])
  56. '''
  57. 这行代码使用contourf方法绘制了一个填充的等高线图。
  58. self.init_x[0]和self.init_x[1]是x1和x2的网格点。
  59. model(self.init_x.transpose([1, 0, 2]))表示将self.init_x转置后传递给模型函数,得到每个网格点的值。
  60. colors=['#e4007f', ...]定义了等高线填充的颜色。
  61. '''
  62. c = ax.contour(self.init_x[0], self.init_x[1], model(self.init_x.transpose(0, 1)), colors='black')
  63. #绘制了等高线的轮廓线,其颜色为黑色
  64. cbar = fig.colorbar(cp)#创建了一个颜色条,与填充的等高线图相关联
  65. ax.plot(x[:, 0], x[:, 1], '-o', color='#000000')#不断更新的x,y绘制点,连成线
  66. ax.plot(0, 'r*', markersize=18, color='#fefefe')#标记0,0点
  67. ax.set_xlabel('$x1$')#标签名称
  68. ax.set_ylabel('$x2$')
  69. ax.set_xlim((-2, 5))#标签范围
  70. ax.set_ylim((-2, 5))
  71. plt.savefig(fig_name)
  72. plt.show()
  73. import numpy as np
  74. def train_and_plot_f(model, optimizer, epoch, fig_name):
  75. """
  76. 训练模型并可视化参数更新轨迹
  77. """
  78. # 设置x的初始值
  79. x_init = torch.tensor([3, 4], dtype=torch.float32)#初始值在这确定的
  80. # print('x1 initiate: {}, x2 initiate: {}'.format(x_init[0].numpy(), x_init[1].numpy()))
  81. x, losses = train_f(model, optimizer, x_init, epoch)
  82. # print(x)
  83. losses = np.array(losses)
  84. # 展示x1、x2的更新轨迹
  85. vis = Visualization()
  86. vis.plot_2d(model, x, fig_name)
  87. # 固定随机种子
  88. torch.seed()
  89. w = torch.as_tensor([0.2, 2])
  90. model = OptimizedFunction(w)
  91. opt = SimpleBatchGD(init_lr=0.2, model=model)
  92. train_and_plot_f(model, opt, epoch=20, fig_name='opti-vis-para.pdf')
  93. # 固定随机种子
  94. torch.seed()
  95. w = torch.as_tensor([0.2, 2])
  96. model2 = OptimizedFunction(w)
  97. opt2 = Adagrad(init_lr=0.5, model=model2, epsilon=1e-7)
  98. train_and_plot_f(model2, opt2, epoch=50, fig_name='opti-vis-para2.pdf')
  99. torch.seed()
  100. w = torch.as_tensor([0.2, 2])
  101. model3 = OptimizedFunction(w)
  102. opt3 = RMSprop(init_lr=0.1, model=model3, beta=0.9, epsilon=1e-7)
  103. train_and_plot_f(model3, opt3, epoch=50, fig_name='opti-vis-para3.pdf')
  104. # 固定随机种子
  105. torch.seed()
  106. w = torch.as_tensor([0.2, 2])
  107. model4 = OptimizedFunction(w)
  108. opt4 = Momentum(init_lr=0.01, model=model4, rho=0.9)
  109. train_and_plot_f(model4, opt4, epoch=50, fig_name='opti-vis-para4.pdf')
  110. # 固定随机种子
  111. torch.seed()
  112. w = torch.as_tensor([0.2, 2])
  113. model5 = OptimizedFunction(w)
  114. opt5 = Adam(init_lr=0.2, model=model5, beta1=0.9, beta2=0.99, epsilon=1e-7)
  115. train_and_plot_f(model5, opt5, epoch=20, fig_name='opti-vis-para5.pdf')

 

                      

                   SGD                                        Adagrad

                        

                                   RMSprop                                                          Momentum

             

                     Adam


2. 被优化函数  :\frac{x^{2}}{20}+y^{2}

  1. # coding: utf-8
  2. import numpy as np
  3. import matplotlib.pyplot as plt
  4. from collections import OrderedDict
  5. class SGD:
  6. """随机梯度下降法(Stochastic Gradient Descent)"""
  7. def __init__(self, lr=0.01):
  8. self.lr = lr
  9. def update(self, params, grads):
  10. for key in params.keys():
  11. params[key] -= self.lr * grads[key]
  12. class Momentum:
  13. """Momentum SGD"""
  14. def __init__(self, lr=0.01, momentum=0.9):
  15. self.lr = lr
  16. self.momentum = momentum
  17. self.v = None
  18. def update(self, params, grads):
  19. if self.v is None:
  20. self.v = {}
  21. for key, val in params.items():
  22. self.v[key] = np.zeros_like(val)
  23. for key in params.keys():
  24. self.v[key] = self.momentum * self.v[key] - self.lr * grads[key]
  25. params[key] += self.v[key]
  26. class Nesterov:
  27. """Nesterov's Accelerated Gradient (http://arxiv.org/abs/1212.0901)"""
  28. def __init__(self, lr=0.01, momentum=0.9):
  29. self.lr = lr
  30. self.momentum = momentum
  31. self.v = None
  32. def update(self, params, grads):
  33. if self.v is None:
  34. self.v = {}
  35. for key, val in params.items():
  36. self.v[key] = np.zeros_like(val)
  37. for key in params.keys():
  38. self.v[key] *= self.momentum
  39. self.v[key] -= self.lr * grads[key]
  40. params[key] += self.momentum * self.momentum * self.v[key]
  41. params[key] -= (1 + self.momentum) * self.lr * grads[key]
  42. class AdaGrad:
  43. """AdaGrad"""
  44. def __init__(self, lr=0.01):
  45. self.lr = lr
  46. self.h = None
  47. def update(self, params, grads):
  48. if self.h is None:
  49. self.h = {}
  50. for key, val in params.items():
  51. self.h[key] = np.zeros_like(val)
  52. for key in params.keys():
  53. self.h[key] += grads[key] * grads[key]
  54. params[key] -= self.lr * grads[key] / (np.sqrt(self.h[key]) + 1e-7)
  55. class RMSprop:
  56. """RMSprop"""
  57. def __init__(self, lr=0.01, decay_rate=0.99):
  58. self.lr = lr
  59. self.decay_rate = decay_rate
  60. self.h = None
  61. def update(self, params, grads):
  62. if self.h is None:
  63. self.h = {}
  64. for key, val in params.items():
  65. self.h[key] = np.zeros_like(val)
  66. for key in params.keys():
  67. self.h[key] *= self.decay_rate
  68. self.h[key] += (1 - self.decay_rate) * grads[key] * grads[key]
  69. params[key] -= self.lr * grads[key] / (np.sqrt(self.h[key]) + 1e-7)
  70. class Adam:
  71. """Adam (http://arxiv.org/abs/1412.6980v8)"""
  72. def __init__(self, lr=0.001, beta1=0.9, beta2=0.999):
  73. self.lr = lr
  74. self.beta1 = beta1
  75. self.beta2 = beta2
  76. self.iter = 0
  77. self.m = None
  78. self.v = None
  79. def update(self, params, grads):
  80. if self.m is None:
  81. self.m, self.v = {}, {}
  82. for key, val in params.items():
  83. self.m[key] = np.zeros_like(val)
  84. self.v[key] = np.zeros_like(val)
  85. self.iter += 1
  86. lr_t = self.lr * np.sqrt(1.0 - self.beta2 ** self.iter) / (1.0 - self.beta1 ** self.iter)
  87. for key in params.keys():
  88. self.m[key] += (1 - self.beta1) * (grads[key] - self.m[key])#梯度估计 加一个减一个正好不变,所以“+=”后面self.m[key]也可使用(1 - self.beta1)
  89. self.v[key] += (1 - self.beta2) * (grads[key] ** 2 - self.v[key])#学习率
  90. params[key] -= lr_t * self.m[key] / (np.sqrt(self.v[key]) + 1e-7)
  91. def f(x, y):
  92. return x ** 2 / 20.0 + y ** 2
  93. def df(x, y):
  94. return x / 10.0, 2.0 * y
  95. init_pos = (-7.0, 2.0)
  96. params = {}
  97. params['x'], params['y'] = init_pos[0], init_pos[1]
  98. grads = {}
  99. grads['x'], grads['y'] = 0, 0
  100. learningrate = [0.9, 0.3, 0.3, 0.6, 0.6, 0.6, 0.6]
  101. optimizers = OrderedDict()
  102. optimizers["SGD"] = SGD(lr=learningrate[0])
  103. optimizers["Momentum"] = Momentum(lr=learningrate[1])
  104. optimizers["Nesterov"] = Nesterov(lr=learningrate[2])
  105. optimizers["AdaGrad"] = AdaGrad(lr=learningrate[3])
  106. optimizers["RMSprop"] = RMSprop(lr=learningrate[4])
  107. optimizers["Adam"] = Adam(lr=learningrate[5])
  108. idx = 1
  109. id_lr = 0
  110. for key in optimizers:
  111. optimizer = optimizers[key]
  112. lr = learningrate[id_lr]
  113. id_lr = id_lr + 1
  114. x_history = []
  115. y_history = []
  116. params['x'], params['y'] = init_pos[0], init_pos[1]
  117. for i in range(50):
  118. x_history.append(params['x'])
  119. y_history.append(params['y'])
  120. grads['x'], grads['y'] = df(params['x'], params['y'])
  121. optimizer.update(params, grads)
  122. x = np.arange(-10, 10, 0.01)
  123. y = np.arange(-5, 5, 0.01)
  124. X, Y = np.meshgrid(x, y)
  125. Z = f(X, Y)
  126. # for simple contour line
  127. mask = Z > 7
  128. Z[mask] = 0
  129. #将数组Z中所有大于7的值都设置为0
  130. # plot
  131. plt.subplot(2, 3, idx)
  132. idx += 1
  133. plt.plot(x_history, y_history, 'o-', color="r")
  134. # plt.contour(X, Y, Z) # 绘制等高线
  135. plt.contour(X, Y, Z, cmap='Greens') # 颜色填充
  136. #plt.contour()函数用于绘制等高线图
  137. #X 和 Y 是网格点的x和y坐标。
  138. #Z 是每个网格点上的值。
  139. #cmap 是一个可选参数,cmap='gray' 指定了颜色映射为灰度。这意味着等高线图将使用灰度颜色来表示不同的高度或值。
  140. plt.ylim(-10, 10)
  141. plt.xlim(-10, 10)
  142. plt.plot(0, 0, '+')
  143. # plt.axis('off')
  144. # plt.title(key+'\nlr='+str(lr), fontstyle='italic')
  145. plt.text(0, 10, key + '\nlr=' + str(lr), fontsize=20, color="b",
  146. verticalalignment='top', horizontalalignment='center', fontstyle='italic')
  147. '''
  148. 0, 10: 这是文本的坐标位置。0是x坐标,10是y坐标。
  149. key + '\nlr=' + str(lr): 这是要添加到图上的文本字符串。key是一个变量,'\n'是一个换行符,将文本分成两行。lr是另一个变量,使用str()函数将其转换为字符串类型,以便与key连接。
  150. fontsize=20: 设置文本的字体大小为20。
  151. color="b": 设置文本的颜色为蓝色(blue)。
  152. verticalalignment='top': 设置文本的垂直对齐方式为顶部对齐。
  153. horizontalalignment='center': 设置文本的水平对齐方式为居中对齐。
  154. fontstyle='italic': 设置文本的字体样式为斜体。
  155. '''
  156. plt.xlabel("x")
  157. plt.ylabel("y")
  158. plt.subplots_adjust(wspace=0, hspace=0) # 调整子图间距wspace: 水平间距,即子图之间的宽度间距。hspace: 垂直间距,即子图之间的高度间距。
  159. plt.show()


3. 解释不同轨迹的形成原因

SGD:

尝试一下不同的步长,(确实是0.9更好一点啊)y方向跳过最低点跳的也不太远,x方向走的也不太慢

在y方向梯度大,x方向梯度小,如果步子迈的太大,x方向可能接近最低点,但是y方向可能一下子迈过低谷直接迈到更高的地方,有的甚至比之前还高(看步长是1时),步长太小,x方向走的就慢了,达到最优值会更慢,在步长是0.9时,效果不错,最终到达了最优值(0,0) 

该函数处在一个类似于倾斜向右的山谷的形状的情况 

       需要经过反反复复的上上下下才可以最终找到谷底。在上述的情况下,SGD的性能非常差,这就导致了模型的训练非常慢。

动量法

发现让他训练30轮看不出啥来,结果调了一下轮数,请看只训练了九轮的结果:

只用了九轮就能到达最优值,可见比SGD优化了很多。

下面是SGD的九轮:

 

       在参数更新的过程中,如果更新前的速度与梯度方向一致,则更新的数值更大,如果不一致,则更新的数值会比SGD时更小。(个人理解,加入第一次他往南走,结果走的太偏南了,错过了最低点,下次往北走,这两次方向不一样,都想往最优处更新,说明上次肯定走多了,避免这一次往北走还是走多,就往南拉他一把,即加上之前的动量(南)。关于东西方向,一直是往东,这样每次往东走,上一次的往东走的动量还会继续推他一把,导致他走得更快,到最优值速度更快。

          动量的作用就是加速收敛,减少震荡。动量通过考虑过去梯度的平均值来调整参数的更新步长和方向。

Nesterov算法:

Nesterov动量法在迭代过程中能够更偏向理想状态下降路径。

其中

  • 蓝色曲线表示理想状态下的下降路径;
  • 其中红色实线表示梯度下降法的更新方向;蓝色实线表示历史梯度构成的冲量信息;
  • 其中红色虚线表示未来时刻梯度下降法的更新方向,与描述的红色实线之间存在一丢丢的偏移,不是平行的~。Nesterov动量法在迭代过程中能够更偏向理想状态下降路径。

 

AdaGrad:

学习率衰减是一个优化技巧,使模型一开始多学,慢慢的少学,可以有效避免模型在学到最优值附件反复横跳。AdaGrad进一步发展了这个思想,针对一个一个的参数进行学习率更新。

 

通俗来讲就是,知道它y的方向上梯度大,那学习率就减小一点,省的再跳过了最优。随着训练的进行,不断逼近最优值,到了最优值附近转悠,避免又错过最优,必须要谨慎一点,步子更慢一点,随着梯度的累加,学习率就减少,步子会变小,正好合适。 

RMSProp:

但是这样会出现一个问题,随着学习的深入,h的值会越来越大,直至使得学习率的值趋于0。       

RMSProp方法并不会将前面所有的梯度都一视同仁的相加起来,而是使用逐渐遗忘过去的操作,将做加法时将新的梯度信息看的更重要。这种操作叫做“指数移动平均”。

只训练了5轮:可以看到有好几组就能到达最优值,可见效果很好

Adam算法:Adam算法 ≈ 动量法 + RMSprop

 

         将动量加入 RMSProp 最直观的方法是将动量应用于缩放后的梯度。结合缩放的动量使用没有明确的理论动机。其次,Adam 包括偏置修正,修正从原点初始化的一阶矩(动量项)和(非中心的)二阶矩的估计。RMSProp 也采用了(非中心的)二阶矩估计,然而缺失了修正因子。因此,不像 Adam,RMSProp 二阶矩估计可能在训练初期有很高的偏置。 Adam 通常被认为对超参数的选择相当鲁棒,尽管学习率有时需要从建议的默认修改。

虽然但是,感觉这个问题里,Adam的又是没有体现出来,感觉收敛速度不如RMSProp。

自己的理解:

              SGD总是需要经过反反复复的上上下下才可以最终找到谷底。在上述的情况下,SGD的性能非常差,这就导致了模型的训练非常慢。针对该问题,总的来说就是动量法改变的是梯度的方向,为避免y方向走的步子很大而x方向的步子很小的问题,y方向拽着他一点,x方向推着他一点,(这个操作让动量来)去使方向更加偏x一点。Nesterov动量法在迭代过程中能够更偏向理想状态下降路径。关于学习率调整的算法,AdaGrad算法刚开始步子迈的大点(为了快点到最优),越来越往后离最优值越近时要更加谨慎,步子更小点,省得跨过它。上面这个算法可能出现,学习率减少到0,还没到最优值呢就动不了是不行的,所以出现了RMSProp算法,滑动着只记一部分梯度平方,使用逐渐遗忘过去的操作,将做加法时将新的梯度信息看的更重要。这种操作叫做“指数移动平均”。最后关于Adam算法,将梯度缩放和偏置修正相结合,很稳定。

         那么用哪种方法好呢?非常遗憾,(目前)并不存在能在所有问题中都表现良好的方法。这4种方法各有各的特点,都有各自擅长解决的问题和不擅长解决的问题。 很多研究中至今仍在使用SGD。Momentum和AdaGrad也是值得一试的方法。最近,很多研究人员和技术人员都喜欢用Adam。参考:HBU-NNDL 作业11:优化算法比较_adam不收敛-CSDN博客

总结:

 

参考

https://aistudio.baidu.com/projectdetail/7313541

http://iyenn.com/rec/2011787.html?spm=1001.2014.3001.5502

http://iyenn.com/rec/2011765.html?spm=1001.2014.3001.5502 

优化算法到底如何工作?深度学习中的几个经典优化算法的原理解析 - 知乎 (zhihu.com) 

深度学习基础-优化算法详解 - 知乎 (zhihu.com)

深度学习笔记之优化算法(四)Nesterov动量方法的简单认识_nesterov算法-CSDN博客

【23-24 秋学期】NNDL 作业12 优化算法2D可视化-CSDN博客 

【NNDL 作业】优化算法比较 增加 RMSprop、Nesterov_随着优化的进展,需要调整γ吗?rmsprop算法习题-CSDN博客

注:本文转载自blog.csdn.net的爱打篮球的小张的文章"https://blog.csdn.net/q100112/article/details/135165664"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2492) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top