news 2026/4/3 4:13:05

cudnn实现残差网络(憋出大招)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
cudnn实现残差网络(憋出大招)

我用pytorch写了一个极简单版本的残差网络(默认训练cifar10),架构如下::

classResidualBlock( torch.nn.Module ):
def __init__(self, channels):
super( ResidualBlock, self).__init__()
self.Conv1 = torch.nn.Conv2d( channels, channels, kernel_size=(3, 3), padding=1)
self.Conv2 = torch.nn.Conv2d( channels, channels, kernel_size=(3, 3), padding=1)

self.relu=torch.nn.LeakyReLU()

def forward(self, x):
y = self.relu((self.Conv1(x) ))
y = (self.Conv2(y))

return self.relu( y+x )

classModel( torch.nn.Module ):
def __init__(self):
super( Model, self).__init__()
self.conv1 = torch.nn.Conv2d( 3, 32, kernel_size=(3,3) , padding=1)
self.conv2 = torch.nn.Conv2d( 32, 64,kernel_size=(3,3) , padding=1 )
self.relu=torch.nn.LeakyReLU()
self.resblk1 = ResidualBlock(32)
self.resblk2 = ResidualBlock(64)

self.pool = torch.nn.MaxPool2d(2)
self.out = torch.nn.Linear(4096,10)


def forward(self, x):

x = self.relu( (self.conv1(x) ) )
x = self.resblk1(x)
x = self.pool( self.relu( (self.conv2(x) ) ))
x = self.resblk2(x)
x = self.pool(( ((x) ) ))
x=x.view(x.size(0),-1)
x=self.out(x)
return x

我想,能不能用cudnn写一个呢?难度太大了!!!!!!!!!!!!!!

昨天是吉祥日,竟然尝试成功,虽然还比不上pytorch,但训练上了61分,运行也有些慢!但没关系,比c++cpu版本(61分)残差网络快多了!

lenet改vgg成功后,我们再改为最简单的resnet-CSDN博客

成功运行已经是天大的幸运了!仿照上面的架构,在cudnn上摸索残差!再接再厉cudnn vgg!

最难是要自己写残差的反向传播,因为pytorch反向传播是自动的!这也是为什么大家喜欢用的原因!

使用类是真的好!cudnn残差架构如下:

class LeNet :public Layer {
public:
LeNet(cublasHandle_t &cublas_, cudnnHandle_t &cudnn_, int batch_) :cublas(cublas_), cudnn(cudnn_), batch(batch_) {

//使用pading方式,vgg
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 3, 32, 32, 32, 3,1,1));//输入->>>c1,5*5,1*28*28-》6*24*24
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 32, 32, 32));

////尝试残差,此处要记住输入X
//layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 32, 32, 32, 32, 3,1,1));//c3,6*12*12->>16*8*8
//layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 32, 32, 32)); //c3,6*12*12->>16*8*8
//layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 32, 32, 32, 32, 3, 1, 1));
////尝试残差,此处输出Y,然后操作Y+X,完成后,做relu
////即要定义一个Y+X,而且反向时如何改?//参考自己c++cpu版本

// LeNet LeNet_net(cublas, cudnn, batch_size);
/*layers.emplace_back(std::make_shared<residual>(cublas, cudnn, batch, 32, 32, 32));*/
layers.emplace_back(std::make_shared<residual>(cublas, cudnn, batch));

layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 32, 32, 32));
//第二次做残差,residualExt
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 32, 64, 32, 32, 3, 1, 1));
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 64, 32, 32));
layers.emplace_back(std::make_shared<MaxPool2D>(cudnn, batch, 64, 32, 32, 2, 2, 0, 2));

layers.emplace_back(std::make_shared<residualExt>( cudnn, batch, 64, 16, 16));
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 64, 16, 16));

layers.emplace_back(std::make_shared<MaxPool2D>(cudnn, batch, 64, 16, 16, 2, 2, 0, 2));

layers.emplace_back(std::make_shared<Linear>(cublas, batch, 64 * 8 * 8, 120));//c5,16*4*4->>>120
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 120, 1, 1)); //c5,16*4*4->>>120
//layers.emplace_back(std::make_shared<Linear>(cublas, batch, 120, 84));//120->84
//layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 84, 1, 1)); //120->84
layers.emplace_back(std::make_shared<Linear>(cublas, batch, 120, 10));//84->10


cudaMalloc(&output, batch * 10 * sizeof(float));
cudaMalloc(&grad_input, batch * 3 * 32*32 * sizeof(float));
}

......

};

上面最大的成功是仿照lenet类,写residualExt类,即就是他们都是类的集合,lenet大一些,residualExt类小一些!

而且可以在lenet类中调用,真的是妙不可言!

让我想起机器视觉康耐视visionpro工具的封装,真是一模一样!自己仿照版本机器视觉,其实也可以仿照这种类架构,很妙!也就是工具组中嵌套工具组!这样你不用管理,因为在递归中,他自己就自动化处理了,大神c++原著中有句话:递归是神,迭代是人。就是这个意思了!

残差类的详细如下(residual是尝试成功版本,residualExt是改进版):

classresidualExt:public Layer {
public:
residualExt( cudnnHandle_t &cudnn_, int batch_ ,int c, int h, int w) :cudnn(cudnn_), batch(batch_)
, _c(c), _h(h), _w(w) {


//使用了数字常量,这个残差只能用一次!!!!!!!!!!!!!!202602091332

//尝试残差,此处要记住输入X
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, _c, _c, _h, _w, 3, 1, 1));//c3,6*12*12->>16*8*8
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, _c, _h, _w)); //c3,6*12*12->>16*8*8
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, _c, _c, _h, _w, 3, 1, 1));
//尝试残差,此处输出Y,然后操作Y+X,完成后,做relu
//即要定义一个Y+X,而且反向时改如何?

cudaMalloc(&output, batch * _c * _h * _w * sizeof(float));//输出32*32*32-----------------------显然输入也是32*32*32
cudaMalloc(&input2, batch * _c * _h * _w * sizeof(float));
cudaMalloc(&d_residual, batch * _c * _h * _w * sizeof(float));
// cudaMalloc(&output, batch * 10 * sizeof(float));//这里的10代表10个类,所以不能用
cudaMalloc(&grad_input, batch * _c * _h * _w * sizeof(float));//反向和梯度计算不管!!!!!!!!!!!!!!
}
void forward(float *input_)override {
input = input_;
input2 = input_;
for (const auto &l : layers) {
l->forward(input);
input = l->get_output();
}
/*int NN = _n * _c * _h * _w;*/
/*int NN = batch * 32 * 32 * 32;*/
int NN = batch * _c * _h * _w;
residual_forward_kernel << <(NN + 255) / 256, 256 >> >(output, input, input2, NN);
error_handling(cudaGetLastError());
//cudaMemcpy(input2, inputTemp, sizeof(float)*batch * 10, cudaMemcpyDeviceToDevice);
}
void backward(float *grad_output)override {//梯度来自残差块后的relu,当前只有一个残差块!!!!!!!!!!!
float* grad = grad_output;//要记住这个梯度,即备份一个
float* grad备用 = grad_output;
for (int i = layers.size() - 1; i >= 0; i--) {
layers[i]->backward(grad);
grad = layers[i]->get_grad_input();
}

//float* d_residual = grad备用*X输入数据;//input2 = input_;
// float* d_residual = grad备用*input2;//input2 = input_;
int NN = batch * _c * _h * _w;
/*for (int i = 0; i <NN; i++)
{
d_residual[i] = grad备用[i]*input2[i];
}*/

int threads = 256;
int blocks = (NN + threads - 1) / threads;
mul << <blocks, threads >> >(grad备用, input2, d_residual, NN);//c为输出=d_residual
error_handling(cudaGetLastError());

residual_backprop_kernel << <blocks, threads >> >(grad_input, grad, d_residual, NN);
error_handling(cudaGetLastError());
// cudaMemcpy(grad_input, grad, sizeof(float)*batch * 32 * 32 * 32, cudaMemcpyDeviceToDevice);
}
float* get_output() override { return output; }
float* get_grad_input() override { return grad_input; }
void update(float lr) {
for (const auto &l : layers) {
l->update(lr);

}
}


~residualExt() {
cudaFree(output);
cudaFree(grad_input);
}


private:
// cublasHandle_t &cublas;
int _c, _h, _w;
cudnnHandle_t &cudnn;
int batch;
float *input, *output, *grad_input;
float *input2;
float* d_residual;
std::vector<std::shared_ptr<Layer>> layers;
};

所以,上面pytorch残差网络用cudnn c++重写的话(复现),就是如此!

程序的其他部分参考:

我的第一个cudnn(cuda)人工智能程序(lenet)-CSDN博客

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/31 18:16:14

Spring Boot日期格式注解@DateTimeFormat和@JsonFormat的区别与应用

DateTimeFormat 和 JsonFormat 是 Spring Boot 中处理日期时间格式化的两个常用注解&#xff0c;但它们的用途和工作场景不同。DateTimeFormat用途主要用于 Spring MVC 参数绑定&#xff0c;处理表单提交、URL参数、请求参数中的日期时间字符串转换。使用场景javaController pu…

作者头像 李华
网站建设 2026/3/29 9:20:46

影墨·今颜FLUX.1-dev实战:LoRA权重融合+风格迁移+局部重绘技巧

影墨今颜FLUX.1-dev实战&#xff1a;LoRA权重融合风格迁移局部重绘技巧 1. 认识影墨今颜&#xff1a;重新定义AI人像生成 「影墨今颜」是一款基于FLUX.1-dev引擎的高端AI影像创作系统&#xff0c;专门针对时尚人像生成进行了深度优化。这个系统最大的特点是能够生成极其真实、…

作者头像 李华
网站建设 2026/3/27 12:42:17

Qwen2.5-7B与ChatGLM3-6B性能对比:推理速度实测部署教程

Qwen2.5-7B与ChatGLM3-6B性能对比&#xff1a;推理速度实测部署教程 1. 两款主力7B模型的核心定位与差异 在当前轻量级大模型落地实践中&#xff0c;Qwen2.5-7B-Instruct 和 ChatGLM3-6B 是开发者最常选用的两个开源指令模型。它们参数量相近&#xff08;70亿 vs 62亿&#x…

作者头像 李华
网站建设 2026/4/1 19:40:33

一键部署:Moondream2轻量级视觉问答系统体验

一键部署&#xff1a;Moondream2轻量级视觉问答系统体验 1. 引言&#xff1a;给你的电脑装上“眼睛” 你有没有想过&#xff0c;让电脑像人一样“看懂”图片&#xff0c;并且能回答关于图片的任何问题&#xff1f;比如&#xff0c;你随手拍了一张办公桌的照片&#xff0c;电脑…

作者头像 李华
网站建设 2026/3/31 3:12:36

千问大模型简介及简单应用测试

截至2026年2月&#xff0c;千问&#xff08;Qwen&#xff09;官网&#xff08;即阿里云通义千问平台&#xff09;上提供的大模型体系已非常完善&#xff0c;涵盖开源模型与闭源API模型两大类。以下是主要模型类别、代表型号及其用途与特点的系统梳理&#xff1a;一、开源大模型…

作者头像 李华
网站建设 2026/3/27 7:54:27

lychee-rerank-mm代码实例:自定义Prompt工程与分数正则提取技巧

lychee-rerank-mm代码实例&#xff1a;自定义Prompt工程与分数正则提取技巧 1. 项目简介与核心价值 想象一下&#xff0c;你有一个包含数百张图片的图库&#xff0c;现在需要快速找出所有“在沙滩上奔跑的金毛犬”的照片。传统的关键词搜索在这里几乎失效&#xff0c;因为你无…

作者头像 李华