PP-LCNet:A Lightweight CPU Convolutional Neural Network
论文名称:PP-LCNet: A Lightweight CPU Convolutional Neural Network
作者:Cheng Cui, Tingquan Gao, Shengyu Wei,Yuning Du…
摘要
- 总结了一些在延迟(latency)几乎不变的情况下精度提高的技术;
- 提出了一种基于 MKLDNN 加速策略的轻量级 CPU 网络,即 PP-LCNet。

介绍
目前的轻量级网络在启用 MKLDNN 的 Intel CPU 上速度并不理想,考虑了一下三个基本问题:
- 如何促使网络学习到更强的特征,但不增加延迟?
- 在 CPU 上提高轻量级模型精度的要素是什么?
- 如何有效地结合不同的策略来设计 CPU 上的轻量级模型?
Method
PP-LCNet 使用深度可分离卷积作为基础结构,构建了一个类似 MobileNetV1 的 BaseNet,并在其基础上结合现有的技术,从而得到了 PP-LCNet

参数配置:

Better activation function
激活函数是神经网络中非线性的来源,因此其质量一定程度上决定着网络的表达能力。
当激活函数由 Sigmoid 变为 ReLU 时,网络的性能得到了很大的提升,近来出现了很多超越 ReLU 的激活函数,如 EfficientNet 的 Swish,MobileNetV3 中将其升级为 HSwish,避免了大量的指数运算;因此本网络中使用 HSwish 激活函数代替 ReLU。
首先让我们看一下 ReLU 函数的近似推导:

出于计算量的考虑和实验验证选择了 ReLU
ReLU6:
增加了上界


是个常数或可训练的参数。Swish 具备无上界有下界、平滑、非单调的特性。
Swish 在深层模型上的效果略优于 ReLU。仅仅使用 Swish 单元替换 ReLU 就能把 Mobile NASNetA 在 ImageNet 上的 top-1 分类准确率提高 0.9%,Inception-ResNet-v 的分类准确率提高 0.6%。
导数:

当 时,Swish 变为线性函数
当 , 为 0 或 1,这时 Swish 变为
因此 Swish 函数可以看做是介于线性函数与 ReLU 函数之间的平滑函数。
HSwish:
Swish 函数的计算量是很大的,因此提出了 HSwish,H 表示 Hard,意味着超过某个范围,激活值为常数
对 ReLU6 除以 6 再向左平移三个单位可以得到 HSigmoid:

HSwish 的近似公式为 ,图像如下:

SE modules at appropriate positions
注意力模块无疑是轻量级网络完美的选择,本文探究了 SE 模块放置的位置,发现在网络深层的效果较好。

Larger convolution kernels
使用更大的卷积核尺寸,发现在网络深层效果较好

Larger dimensional1×1conv layer after GAP
在网络最后的 GAP 之后使用 Pointwise 卷积进行升维,以此提高网络的性能
Drop out
实验发现 drop out 可以提高性能

实验结果

与其他网络进行对比
