结构重参数化

结构重参数化:利用参数转换解耦训练和推理结构

结构重参数化(structural re-parameterization)指的是首先构造一系列结构(一般用于训练),并将其参数等价转换为另一组参数(一般用于推理),从而将这一系列结构等价转换为另一系列结构。

训练时的结构较大,具备好的某种性质(更高的精度或其他有用的性质,如稀疏性),转换得到的推理时结构较小且保留这种性质(相同的精度或其他有用的性质)。

“结构重参数化”这个词的本意就是:用一个结构的一组参数转换为另一组参数,并用转换得到的参数来参数化(parameterize)另一个结构。只要参数的转换是等价的,这两个结构的替换就是等价的。
https://zhuanlan.zhihu.com/p/361090497

清华大学丁霄汉:深度网络重参数化——让你的模型更快更强
https://blog.csdn.net/duxinshuxiaobian/article/details/107873144

transformer 与 MLP 的区别是什么 ?

使用 self-attention 做全局感知比使用 MLP 做全局感知有更小的参数和计算量,但显然它们是不同的全局感知,MLP 比 self-attention 更有全局性。
目前视觉 transformer 模型中 self-attention 后面都会接 MLP。

Vision Tranformer 中分为 attention 计算 和 MLP 两部分。
https://www.zhihu.com/question/530310807

FullyConnected(FC) Layer = 一层layer

MLP = 多层FC layer 构成的NN

DNN = MLP 和 CNN的集合相并,通常包括多个卷积layer和FC layer
https://www.zhihu.com/question/349854200

2021-arXiv-中科大&MSRA-A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP
https://zhuanlan.zhihu.com/p/411145994

结构重参数化技术综述
https://mp.weixin.qq.com/s/FwITC1JEG1vr2Y1ePzSvuw

“结构重参数化”是清华大学丁霄汉博士近年来提出的一种通用深度学习模型设计方法论。
https://blog.csdn.net/BAAIBeijing/article/details/122227896?spm=1001.2101.3001.6650.4&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-4-122227896-blog-123826917.pc_relevant_3mothn_strategy_recovery&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-4-122227896-blog-123826917.pc_relevant_3mothn_strategy_recovery&utm_relevant_index=7
 

FLOPS:
注意全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。

FLOPs:
注意s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。
https://zhuanlan.zhihu.com/p/144938518
 

ACNet

2019-ICCV-清华大学-ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric
https://blog.csdn.net/u014380165/article/details/103916114

结构重参数化之一:ACNet
https://blog.csdn.net/ooooocj/article/details/123655581
 

RepVGG

2021-CVPR-清华大学-RepVGG: Making VGG-style ConvNets Great Again

RepVGG网络就是在VGG的基础上面进行改进,主要的改进思路包括:
(1)在VGG网络的Block块中加入了Identity和残差分支,相当于把ResNet网络中的特性应用到VGG网络中;
(2)模型推理阶段,通过Op融合策略将所有的网络层都转换为Conv3*3,便于网络的部署和加速。

网络训练和网络推理阶段使用不同的网络架构,训练阶段更关注精度,推理阶段更关注速度。
 
https://bbs.huaweicloud.com/blogs/detail/259238

结构重参数化之二:RepVGG
https://blog.csdn.net/ooooocj/article/details/123761769?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1-123761769-blog-123655581.pc_relevant_3mothn_strategy_and_data_recovery&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1-123761769-blog-123655581.pc_relevant_3mothn_strategy_and_data_recovery&utm_relevant_index=2
 

DBB

2021-CVPR-清华大学-Diverse Branch Block: Building a Convolution as an Inception-like Unit

本文是清华大学&旷视科技的丁霄汉博士在“过参数化”卷积方面继ACNet、RepVGG之后的又一次探索,它创造性的将Inception的多分支、多尺度思想与过参数化思想进行了一次组合,得到了本文所提出的DBB。
https://jishuin.proginn.com/p/763bfbd5141b

结构重参数化之三:Diverse Branch Block
https://blog.csdn.net/ooooocj/article/details/123826917
 

ResRep

2021-ICCV-清华大学-ResRep: Lossless CNN Pruning via Decoupling Remembering and Forgetting

ResRep:剪枝 SOTA!用结构重参数化实现 CNN 无损压缩(ICCV)

https://www.cvmart.net/community/detail/5612
 

RepMLP

2022-CVPR-清华大学-RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for Image Recognition

本文是清华大学&旷视科技在结构重参数领域继ACNet、RepVGG、DBB之后又一突破:RepMLP,它将重参数卷积与全连接层进行了巧妙地衔接,同时利用了全连接层的全局建模、位置感知特性与卷积的局部结构提取能力。
https://aijishu.com/a/1060000000203655

MLP,RepMLP,全连接与“内卷”
https://zhuanlan.zhihu.com/p/375422742
 

RepLKNet

2022-CVPR-清华大学-Scaling Up Your Kernels to 31×31: Revisiting Large Kernel Design in CNNs

CVPR2022 | RepLKNet: 大核卷积+结构重参数让CNN再次伟大
https://aijishu.com/a/1060000000309144

RepLKNet:不是大卷积不好,而是卷积不够大,31×31卷积了解一下 | CVPR 2022
https://www.yanxishe.com/columnDetail/28958
 

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
青葱年少的头像青葱年少普通用户
上一篇 2023年3月4日 下午12:34
下一篇 2023年3月4日 下午12:35

相关推荐