首页 SEO技术 正文

到 Adam 从 SGD

SEO技术 2024-12-21 18
Adam

本文目录导航:

从 SGD 到 Adam —— 深度学习提升算法概览(一)

文章总结:

深度学习中的提升算法选用至关关键,本文旨在梳理从豪华的SGD到先进的Adam的演化环节,剖析各算法的优缺陷。

首先,SGD虽基础但易震荡,引入动量Momentum可减小震荡并减速收敛。

Nesterov Accelerated Gradient(NAG)则预测未来梯度,进一步提升。

Adagrad和RMSprop针对参数降级频率差异,经过自顺应学习率改善稠密数据功能。

Adam联合了RMSprop和Momentum的好处,而NAdam在此基础上融合了NAG的思维。

可视化剖析显示,Adagrad、Adadelta、RMSprop能极速收敛,而SGD-M和NAG在初始阶段或许偏离但最终也能找到正确方向。

自顺应算法在防止鞍点影响方面体现优于其余算法。

选用战略方面,虽然Adam广受欢迎,但在某些场景下,基础算法如SGD仍或许有其实用性。

深化了解提升算法关于模型训练至关关键,本文的剖析可作为进一步学习和通常的参考。

参考文献:

机器学习中有哪些关键的提升算法?

梯度降低是十分罕用的提升算法。

作为机器学习的基础常识,这是一个必定要把握的算法。

借助本文,让咱们来一同详细了解一下这个算法。

前言

本文的代码可以到我的Github上失掉:

本文的算法示例经过Python言语成功,在成功中经常使用到了numpy和matplotlib。

假设你不相熟这两个工具,请自行在网上搜查教程。

关于提升

大少数学习算法都触及某种方式的提升。

提升指的是扭转x以最小化或许最大化某个函数的义务。

咱们通常以最小化指代大少数最提升疑问。

最大化可经由最小化来成功。

咱们把要最小化或最大化的函数成为指标函数(objective function)或准绳(criterion)。

咱们通经常常使用一个上标*示意最小化或最大化函数的x值,记做这样:

[x^* = arg; min; f(x)]

提升自身是一个十分大的话题。

假设有兴味,可以经过《数值提升》和《运筹学》的书籍启动学习。

模型与假定函数

一切的模型都是失误的,但其中有些是有用的。– George Edward Pelham Box

模型是咱们对要剖析的数据的一种假定,它是为处置某个详细疑问从数据中学习到的,因此它是机器学习最外围的概念。

针对一个疑问,通常有少量的模型可以选用。

本文不会深化讨论这方面的内容,关于各种模型请参阅机器学习的相关书籍。

本文仅以最便捷的线性模型为基础来讨论梯度降低算法。

这里咱们先引见一下在监视学习(supervised learning)中经常出现的三个符号:

OpenAI自动算法-PPO:近端战略提升算法

论文《Proximal Policy Optimization Algorithms》提出了一种用于强化学习的新战略梯度方法,称为近端战略提升(PPO)。

与传统战略梯度方法相比,PPO在多个epoch中允许小批量降级,提高了数据效率和鲁棒性。

与信赖区域/人造战略梯度方法相比,PPO更易于成功,更通用,且在样本复杂性方面体现良好。

战略梯度方法经过计算战略梯度预计量并将其拔出随机梯度回升算法启动上班。

PPO驳回了一种简化代理指标,经过截断概率比来修正代替指标,以防止战略降级过大。

此指标包括未裁剪指标的下限,确保在概率比变动时只在改善指标时思索它。

此外,PPO经过KL处罚系数自顺应调整,以到达KL偏向的指标值。

试验结果标明,PPO在模拟机器人移动和玩Atari游戏等义务上优于其余在线战略梯度方法。

PPO在样本复杂性、便捷性和实践期间之间取得了无利平衡,证实了其在强化学习畛域的运行价值。

综上所述,近端战略提升(PPO)方法经过翻新性的代理指标和顺应性调零件制,成功了在强化学习畛域中的清楚提高。

其在多个义务上的低劣功能和良好的数据效率,使得PPO成为了以后强化学习钻研中的关键方法。

最优控制实践最新停顿 (最优控制理论与方法)
« 上一篇 2024-12-21
pro2021运转内存 ipad (pro2021)
下一篇 » 2024-12-21

文章评论

深度学习中提升算法的选择对模型训练至关重要,从SGD到Adam等算法的演进,展示了机器学习领域技术的快速发展和创新性应用的重要性评论:深度学习中的优化策略选择极为关键!梯度下降法及其变体如PPO等在强化学习方面取得了显著进展和实用性价值体现出了机器学习和人工智能领域的持续创新和进步之快令人瞩目

深度学习中提升算法的选择对模型训练至关重要,从SGD到Adam等算法的演进,展示了机器学习领域的飞速发展及创新思维的不断突破