news 2026/4/3 4:41:18

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现

锋哥原创的Transformer 大语言模型(LLM)基石视频教程:

https://www.bilibili.com/video/BV1X92pBqEhV

课程介绍

本课程主要讲解Transformer简介,Transformer架构介绍,Transformer架构详解,包括输入层,位置编码,多头注意力机制,前馈神经网络,编码器层,解码器层,输出层,以及Transformer Pytorch2内置实现,Transformer基于PyTorch2手写实现等知识。

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现

在深层网络中,随着网络深度的增加,梯度在反向传播时容易消失或爆炸,导致网络难以训练。为了解决这个问题,Transformer采用了残差连接,即将每一层的输入与该层的输出进行相加,而不是直接使用该层的输出。

形式:

这种连接方式保证了在网络初期,若子层变换的结果接近于零,则输出与输入相同,从而缓解了深度神经网络中梯度消失的问题。

优点:

  1. 恒等映射:使得网络能容易地学习到恒等映射,即如果某一层的变换没有效果,模型可以跳过该层。

  2. 梯度流畅:在反向传播时,梯度可以通过残差连接直接传递,避免了梯度消失的问题。

代码实现:

# 实现残差连接 class ResidualConnection(nn.Module): def __init__(self, d_model, dropout=0.1): # d_model 词嵌入维度 512 dropout 随机丢失率 super().__init__() self.norm = LayerNorm(features=d_model) self.dropout = nn.Dropout(dropout) def forward(self, x, sublayer): """ 前向传播 参数: x: 输入张量 [batch_size, seq_len, d_model] sublayer: 残差连接的子层 多头自注意力机制,或者来自前馈神经网络 返回: 残差连接后的张量 """ return x + self.dropout(self.norm(sublayer(x))) if __name__ == '__main__': vocab_size = 2000 # 词表大小 embedding_dim = 512 # 词嵌入维度的大小 embeddings = Embeddings(vocab_size, embedding_dim) embed_result = embeddings( torch.tensor([[1999, 2, 99, 4, 5], [66, 2, 3, 22, 5], [66, 2, 3, 4, 5]])) print("embed_result.shape:", embed_result.shape) print("embed_result", embed_result) positional_encoding = PositionalEncoding(embedding_dim) result = positional_encoding(embed_result) print("result:", result) print("result.shape:", result.shape) # 测试自注意力机制 # query = key = value = result # mask = create_sequence_mask(5) # dropout = nn.Dropout(0.1) # attention_output, attention_weights = self_attention(query, key, value, mask, dropout) # print("attention_output.shape:", attention_output.shape) # [3, 5, 512] # print("attention_weights.shape:", attention_weights.shape) # [3, 5, 5] mha = MultiHeadAttention(d_model=512, num_heads=8) # print(mha) mask = create_sequence_mask(5) # 定义匿名函数 sublayer = lambda x: mha(x, x, x, mask) # 测试残差连接 rc = ResidualConnection(d_model=512) result_rc = rc(result, sublayer) print("result_rc.shape:", result_rc.shape)

运行输出:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/21 0:22:25

3步搞定PlayCanvas中继功能:零延迟多人协作终极指南

3步搞定PlayCanvas中继功能:零延迟多人协作终极指南 【免费下载链接】editor Issue tracker for the PlayCanvas Editor 项目地址: https://gitcode.com/GitHub_Trending/editor11/editor 想要在PlayCanvas Editor中实现无缝的多人实时协作吗?中继…

作者头像 李华
网站建设 2026/4/3 4:34:54

TorrServer 终极使用指南:如何快速搭建个人流媒体服务器

TorrServer 终极使用指南:如何快速搭建个人流媒体服务器 【免费下载链接】TorrServer Torrent stream server 项目地址: https://gitcode.com/gh_mirrors/to/TorrServer TorrServer 是一款功能强大的开源流媒体服务器,能够在线播放种子文件内容而…

作者头像 李华
网站建设 2026/3/13 20:05:24

Ray与gRPC集成终极指南:构建高性能分布式服务

Ray与gRPC集成终极指南:构建高性能分布式服务 【免费下载链接】ray ray-project/ray: 是一个分布式计算框架,它没有使用数据库。适合用于大规模数据处理和机器学习任务的开发和实现,特别是对于需要使用分布式计算框架的场景。特点是分布式计算…

作者头像 李华
网站建设 2026/3/23 1:04:39

ART强化学习框架:构建智能代理的完整解决方案

ART强化学习框架:构建智能代理的完整解决方案 【免费下载链接】ART OpenPipe ART (Agent Reinforcement Trainer): train LLM agents 项目地址: https://gitcode.com/GitHub_Trending/art32/ART 在人工智能快速发展的今天,智能代理(AI…

作者头像 李华
网站建设 2026/4/1 20:37:55

垃圾分类|基于springboot 垃圾分类系统(源码+数据库+文档)

垃圾分类 目录 基于springboot vue垃圾分类系统 一、前言 二、系统功能演示 三、技术选型 四、其他项目参考 五、代码参考 六、测试参考 七、最新计算机毕设选题推荐 八、源码获取: 基于springboot vue垃圾分类系统 一、前言 博主介绍:✌️大…

作者头像 李华
网站建设 2026/4/2 0:32:47

OpenXR Toolkit:5大核心功能彻底改变你的VR应用性能

OpenXR Toolkit:5大核心功能彻底改变你的VR应用性能 【免费下载链接】OpenXR-Toolkit A collection of useful features to customize and improve existing OpenXR applications. 项目地址: https://gitcode.com/gh_mirrors/op/OpenXR-Toolkit OpenXR Toolk…

作者头像 李华