news 2026/4/3 4:29:23

改善深层神经网络 第一周:深度学习的实践(二)L2正则化

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
改善深层神经网络 第一周:深度学习的实践(二)L2正则化

后,可以说,在理解上对本周的内容不会存在什么难度。

当然,我也会对一些新出现的概念补充一些基础内容来帮助理解,在有之前基础的情况下,按部就班即可对本周内容有较好的掌握。

本篇以及下篇的核心概念只有一个:正则化

1.正则化的出现原因

我们在上一篇里提到了模型的过拟合问题,即在训练集上表现很好,但在验证集或测试集上表现很差。就像一个非常复杂的神经网络,完美记住了训练数据的所有点(包括噪声),反而会对新数据泛化能力极差。

实际上,这是因为训练集的样本不够充分,用于训练的样本不能比较全面地反应出正确的拟合规律,于是在出现新样本的验证集或测试集上表现较差。

依旧以猫狗分类举例:假设我们的训练集的猫全部都是白猫,那么我们训练拟合到的模型就会认为所有的猫都是白色的,其他颜色的都不是猫,从而错判测试集里的黑猫,橘猫等。

因此,要解决过拟合问题,从最根本的思路出发得到的措施就是增加数据量,让训练集更全面,更具有泛化性。

但很多时候数据并不是那么容易获得。在一些高精尖领域,获取更多数据所需的成本非常大。

这时,前沿的人们就会思考,如何在不增加数据的情况下,尽可能地增加模型泛化性,缓解过拟合问题?

这就是正则化出现的背景。

2.什么是正则化?

依旧先摆一个定义:

正则化(Regularization)是机器学习和统计学中用于防止模型过拟合、提高泛化能力的一种技术。其核心思想是在模型的损失函数中引入一个额外的惩罚项,以限制模型的复杂度,从而避免模型对训练数据“过度学习”而失去对新数据的预测能力。

简单来说,正则化通过在训练过程中“惩罚”过大的模型参数(如权重),促使模型变得更简单、更平滑,从而提升其在未知数据上的表现。

只看概念还是有些模糊,本周我们展开介绍一下课程中提到的两个常见的正则化:

L2正则化 和 dropout正则化

这里要提前说明的是:还是那句话,优化的本质都是数学,因此对于两种正则化都少不了公式的推导,这可能带来一定程度上的理解难度。

如果你只想知道这两种正则化的大致运行原理和优劣,我会在之后的介绍最后附上一个“人话版”的总结来较直观的说明这部分内容。

虽然在实际应用中我们可以通过调包来直接使用正则化,但能够较为清晰地了解基本原理,一定会对调优的过程有所帮助。

3. L2 正则化

3.1数学原理

L2正则化从代价函数的角度出发,设模型的代价函数为:

其中

是单个样本的损失。

在代价函数的基础上,L2 正则化的核心思想是——在这个损失函数中增加一个与权重有关的惩罚项,使得权重参数不至于太大。于是新的损失函数变为:

其中:

表示第

层权重矩阵所有元素的平方和(Frobenius 范数的平方);

是正则化系数(Regularization parameter),用于控制惩罚项的强度;

是样本数量,用来保持尺度一致。

我们来展开介绍一下惩罚项里涉及的一些新概念和理解中可能出现的问题:

(1)什么叫Frobenius 范数?

不要被这个看起来高大上的名字吓到,来看定义:

Frobenius 范数是一种用于度量矩阵大小的“平方长度”,定义如下:

翻译一下,它就是矩阵中所有元素平方后求和的结果,也叫是矩阵的“欧几里得长度平方”。

理解上来说,如果一个矩阵

被看作是一个“向量”,Frobenius 范数就相当于这个向量离原点的距离。

因此,Frobenius 范数越大,说明整个权重矩阵的数值越大,也就意味着模型越复杂、越“激进”,就越可能出现过拟合的情况。

(2)惩罚项的存在是如何缓解过拟合的?

在反向传播时,我们对

求偏导再代入权重更新公式,即可得到L2 正则化对权重的更新公式:

可以看到,和普通的梯度下降相比,这里多了一个“

” 项。

这一项会让权重在每次更新时略微“收缩”,就像一股向 0 拉回的力,这种收缩效果也常被称为权重衰减(weight decay)。

这样做带来两个直接的效果:

防止权重过大。 当模型试图极端地记住训练样本(尤其是噪声点)时,相关权重往往会迅速增大,而这股“向 0 的力”会将其拉回。

让模型更平滑。 权重较小时,模型的决策边界变化更平缓,不会为了一些孤立样本而“硬拐弯”,因此对新数据的适应性更好。

(3)正则化系数

的设置和作用?

通过上面的损失计算公式和权重更新公式,我们知道:

决定了惩罚项在总损失中的权重占比,同时也调节着参数更新。

我们来看具体的几种情况:

很小时,惩罚项几乎不起作用,模型仍可能过拟合;

适中时,惩罚项会迫使模型收缩权重,减少复杂度,提高泛化性;

太大时,惩罚项主导损失函数,权重被强制压得很小,模型将难以学习到有效特征,从而出现欠拟合。

打个比方:

就像是模型的平衡力度旋钮。

旋钮拧得太小,模型胡乱记忆;

旋钮拧得太大,模型束手束脚。

只有调到合适的位置,模型才能既学习规律,又不会死记数据。

总的来说,L2 正则化让模型变得更“克制”,不再依赖个别特征的极端取值,而是倾向于综合多种信息。

3.2 “人话版总结”

L2 正则化可以理解为:给权重系上“橡皮筋”,当它们离 0 太远时,橡皮筋就会拉回来,让模型别太激动,别乱记噪声。

项目 说明

核心思想 在损失函数中加入与权重平方相关的惩罚项,使权重保持较小,防止模型过度复杂。

优点 有效防止过拟合;让模型更平滑、更稳健; 不影响训练方向,只让权重更“克制”。

缺点 惩罚过强(

太大)会导致欠拟合; 对高维噪声数据仍有限制。

形象比喻 L2 正则化 = 给权重加橡皮筋 拧紧了,模型学不动;放松了,模型乱记。只有适度,效果最佳。

下篇会用相同格式介绍dropout正则化和一些其他帮助缓解过拟合的方式。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/1 19:22:34

德卡读卡器SDK快速入门指南:轻松掌握读卡器开发工具

德卡读卡器SDK快速入门指南:轻松掌握读卡器开发工具 【免费下载链接】德卡读卡器SDK下载 本仓库提供德卡读卡器T10、D8、D3和T60系列的最新SDK(版本1.5)下载。该SDK包含最新的DEMO程序,用户可以通过该程序查询读卡器的版本号&…

作者头像 李华
网站建设 2026/3/28 7:37:02

3、文本构建实用指南

文本构建实用指南 1. 文本元素概述 在构建文本时,文本和图形元素的使用至关重要,如章节标题、表格和交叉引用等。呈现这些元素有多种可接受的方式,选择合适的设计、布局和写作风格能让文档独具特色。同时,应遵循一些在已发布的计算机文档中行之有效的风格和写作惯例,确保…

作者头像 李华
网站建设 2026/4/1 2:48:07

Flink CDC TiDB连接器:构建实时数据管道的完整指南

Flink CDC TiDB连接器:构建实时数据管道的完整指南 【免费下载链接】flink-cdc Flink CDC is a streaming data integration tool 项目地址: https://gitcode.com/GitHub_Trending/flin/flink-cdc 在当今数据驱动的时代,企业对于实时数据处理的需…

作者头像 李华
网站建设 2026/4/1 12:51:47

阿里巴巴Wan2.1:让消费级GPU也能玩转高清视频生成

在AI视频生成领域,一个令人振奋的消息正在传播:阿里巴巴开源的Wan2.1模型,首次将720P高清视频生成的门槛降到了消费级GPU水平。这意味着,普通用户用RTX 4060这样的显卡就能在本地运行高质量的文本生成视频任务,不再需要…

作者头像 李华
网站建设 2026/3/30 7:14:55

BootstrapAdmin:10分钟构建企业级.NET权限管理系统,开发效率提升300%

还在为后台权限系统开发耗费数周时间而烦恼吗?从数据库设计到角色配置,从登录认证到菜单权限,一套完整的权限体系往往消耗开发团队30%以上的宝贵时间。现在,基于.NET 8的BootstrapAdmin权限管理框架彻底改变了这一现状——无需编写…

作者头像 李华
网站建设 2026/3/20 18:23:19

代码重构的艺术与实战指南

代码重构艺术的技术文章大纲引言重构的定义及其在软件开发中的重要性重构与代码优化的区别重构的目标:提升可读性、可维护性、扩展性重构的核心原则保持功能不变的前提下优化代码结构小步迭代,频繁验证自动化测试作为安全网常见的代码坏味道重复代码&…

作者头像 李华