简述

权重衰减(又称L2-正则化)是一种模型正则化(Regularzation)技术。

原理

  1. 首先,用权重向量的L2-范数来衡量模型函数的复杂度,这是对模型复杂度的量化。
  2. 把上述L2-范数加入到训练目标中。我的意思是,模型现在的训练目标调整为:最小化预测误差与L2-范数的和。
  3. 这个L2-范数也叫做惩罚项。上述做法的目标,是当权重向量增长得太大时,模型可能会更倾向于让权重的L2-范数变得更小,从而限制模型的复杂度。模型在训练时,预测损失和权重范数都在减小,因此这种方法被称为权重衰减。
  4. 引入非负正则化常数,平衡预测误差与惩罚项的权重。这是权重衰减的超参数。
  5. 上述预测损失,指的是不含惩罚项的损失函数值,例如预测标签和样本标签的交叉熵损失。

题外话:一种模型选择的策略

在深度学习领域, 最好的预测模型在训练数据上的表现往往比在保留(验证)数据上好得多。 最终,我们通常更关心验证误差,而不是训练误差和验证误差之间的差距。
我在毕设中并没有遵循这个原则,过度关注了后者。

其他资料 – 摘自李宏毅课件



原文地址:http://www.cnblogs.com/cyanzll/p/16826970.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性