CNN/HighPerformanceComputing/example/ncnn_源码分析.md
7767517 # 文件头 魔数
75 83 # 层数量 输入输出blob数量
# 下面有75行
Input data 0 1 data 0=227 1=227 2=3
Convolution conv1 1 1 data conv1 0=64 1=3 2=1 3=2 4=0 5=1 6=1728
ReLU relu_conv1 1 1 conv1 conv1_relu_conv1 0=0.000000
Pooling pool1 1 1 conv1_relu_conv1 pool1 0=0 1=3 2=2 3=0 4=0
Convolution fire2/squeeze1x1 1 1 pool1 fire2/squeeze1x1 0=16 1=1 2=1 3=1 4=0 5=1 6=1024
...
层类型 层名字 输入blob数量 输出blob数量 输入blob名字 输出blob名字 参数字典
参数字典,每一层的意义不一样:
数据输入层 Input data 0 1 data 0=227 1=227 2=3 图像宽度×图像高度×通道数量
卷积层 Convolution ... 0=64 1=3 2=1 3=2 4=0 5=1 6=1728
0输出通道数 num_output() ; 1卷积核尺寸 kernel_size(); 2空洞卷积参数 dilation(); 3卷积步长 stride();
4卷积填充pad_size(); 5卷积偏置有无bias_term(); 6卷积核参数数量 weight_blob.data_size();
C_OUT * C_in * W_h * W_w = 64*3*3*3 = 1728
池化层 Pooling 0=0 1=3 2=2 3=0 4=0
0池化方式:最大值、均值、随机 1池化核大小 kernel_size(); 2池化核步长 stride();
3池化核填充 pad(); 4是否为全局池化 global_pooling();
激活层 ReLU 0=0.000000 下限阈值 negative_slope();
ReLU6 0=0.000000 1=6.000000 上下限
综合示例:
0=1 1=2.5 -23303=2,2.0,3.0
数组关键字 : -23300
-(-23303) - 23300 = 3 表示该参数在参数数组中的index
后面的第一个参数表示数组元素数量,2表示包含两个元素
// 参数读取 程序
// 读取字符串格式的 参数文件
int ParamDict::load_param(FILE* fp)
{
clear();
// 0=100 1=1.250000 -23303=5,0.1,0.2,0.4,0.8,1.0
// parse each key=value pair
int id = 0;
while (fscanf(fp, "%d=", &id) == 1)// 读取 等号前面的 key=========
{
bool is_array = id <= -23300;
if (is_array)
{
id = -id - 23300;// 数组 关键字 -23300 得到该参数在参数数组中的 index
}
// 是以 -23300 开头表示的数组===========
if (is_array)
{
int len = 0;
int nscan = fscanf(fp, "%d", &len);// 后面的第一个参数表示数组元素数量,5表示包含两个元素
if (nscan != 1)
{
fprintf(stderr, "ParamDict read array length fail\n");
return -1;
}
params[id].v.create(len);
for (int j = 0; j < len; j++)
{
char vstr[16];
nscan = fscanf(fp, ",%15[^,\n ]", vstr);//按格式解析字符串============
if (nscan != 1)
{
fprintf(stderr, "ParamDict read array element fail\n");
return -1;
}
bool is_float = vstr_is_float(vstr);// 检查该字段是否为 浮点数的字符串
if (is_float)
{
float* ptr = params[id].v;
nscan = sscanf(vstr, "%f", &ptr[j]);// 转换成浮点数后存入参数字典中
}
else
{
int* ptr = params[id].v;
nscan = sscanf(vstr, "%d", &ptr[j]);// 转换成 整数后 存入字典中
}
if (nscan != 1)
{
fprintf(stderr, "ParamDict parse array element fail\n");
return -1;
}
}
}
// 普通关键字=========================
else
{
char vstr[16];
int nscan = fscanf(fp, "%15s", vstr);// 获取等号后面的 字符串
if (nscan != 1)
{
fprintf(stderr, "ParamDict read value fail\n");
return -1;
}
bool is_float = vstr_is_float(vstr);// 判断是否为浮点数
if (is_float)
nscan = sscanf(vstr, "%f", ¶ms[id].f); // 读入为浮点数
else
nscan = sscanf(vstr, "%d", ¶ms[id].i);// 读入为整数
if (nscan != 1)
{
fprintf(stderr, "ParamDict parse value fail\n");
return -1;
}
}
params[id].loaded = 1;// 设置该 参数以及载入
}
return 0;
}
// 读取 二进制格式的 参数文件===================
int ParamDict::load_param_bin(FILE* fp)
{
clear();
// binary 0
// binary 100
// binary 1
// binary 1.250000
// binary 3 | array_bit
// binary 5
// binary 0.1
// binary 0.2
// binary 0.4
// binary 0.8
// binary 1.0
// binary -233(EOP)
int id = 0;
fread(&id, sizeof(int), 1, fp);// 读入一个整数长度的 index
while (id != -233)// 结尾
{
bool is_array = id <= -23300;
if (is_array)
{
id = -id - 23300;// 数组关键字对应的 index
}
// 是数组数据=======
if (is_array)
{
int len = 0;
fread(&len, sizeof(int), 1, fp);// 数组元素数量
params[id].v.create(len);
float* ptr = params[id].v;
fread(ptr, sizeof(float), len, fp);// 按浮点数长度*数组长度 读取每一个数组元素====
}
// 是普通数据=======
else
{
fread(¶ms[id].f, sizeof(float), 1, fp);// 按浮点数长度读取 该普通字段对应的元素
}
params[id].loaded = 1;
fread(&id, sizeof(int), 1, fp);// 读取 下一个 index
}
return 0;
}
+---------+---------+---------+---------+---------+---------+
| weight1 | weight2 | weight3 | weight4 | ....... | weightN |
+---------+---------+---------+---------+---------+---------+
^ ^ ^ ^
0x0 0x80 0x140 0x1C0
所有权重数据连接起来, 每个权重占 32bit
权重数据 weight buffer
[flag] (optional 可选)
[raw data]
[padding] (optional 可选)
flag : unsigned int, little-endian, indicating the weight storage type,
0 => float32,
0x01306B47 => float16,
0x000D4B38 => int8,
0x0002C056 => raw data with extra scaling 带有尺度信息的 float32
其他 非0 => quantized data 256个量化数 和 索引表
raw data : raw weight data, little-endian,
float32 data or float16 data or quantized table
and indexes depending on the storage type flag。
padding : padding space for 32bit alignment, may be omitted if already aligned。
开启轻模式省内存 set_light_mode(true)
每个layer都会产生blob,除了最后的结果和多分支中间结果,大部分blob都不值得保留,
开启轻模式可以在运算后自动回收,省下内存。
举个例子:某网络结构为 A -> B -> C,在轻模式下,向ncnn索要C结果时,A结果会在运算B时自动回收,
而B结果会在运算C时自动回收,最后只保留C结果,后面再需要C结果会直接获得,满足绝大部分深度网络的使用方式。
ncnn的net是网络模型,实际使用的是extractor,
也就是同个net可以有很多个运算实例,而且运算实例互不影响,中间结果保留在extractor内部,
在多线程使用时共用网络的结构和参数数据,初始化网络模型和参数只需要一遍.
举个例子:全局静态的net实例,初始化一次后,就能不停地生成extractor使用.
// 使用OpenMP加速只需要在串行代码中添加编译指令以及少量API即可。
// 如下是一个向量相加的函数(串行):
void add(const int* a, const int* b, int* c, const int len)
{
for(int i=0; i<len; i++)
{
c[i] = a[i] + b[i];
}
}
改成OpenMP多核加速(并行):
#pragma omp parallel for
// #pragma omp parallel for num_threads(opt.num_threads);
void add(const int* a, const int* b, int* c, const int len)
{
for(int i=0; i<len; i++)
{
c[i] = a[i] + b[i];
}
}
// 理想情况下,加速比大约能达到0.75*cores。
缓存对于高速计算是非常重要的一环,通过合理的安排内存读写,能非常有效的加速计算。
数据存储一般是行优先存储,而cpu仿存,是会一次多读取当前内存后的连续几个地址中的数据。
如下面代码的gemm计算:
版本1:
static void gemm_v1(float* matA, float* matB, float* matC, const int M, const int N, const int K, const int strideA, const int strideB, const int strideC)
{
for (int i = 0; i < N; i++)// 外层循环 为 列大小,会造成过多的仿存浪费!!!!
{
for (int j = 0; j < M; j++)
{
float sum = 0.0f;
for (int k = 0; k < K; k++)
{
sum += matA[j*strideA + k] * matB[k*strideB + i];// 矩阵B 是列 访问
}
matC[j*strideC + i] = sum;// 矩阵C也是列 访问(j先变换,列方向)
}
}
}
版本2:
static void gemm_v2(float* matA, float* matB, float* matC, const int M, const int N, const int K, const int strideA, const int strideB, const int strideC)
{
for (int i = 0; i < M; i++)// 外层循环 为 行主导,仿存效果好
{
for (int j = 0; j < N; j++)
{
float sum = 0.0f;
for (int k = 0; k < K; k++)
{
sum += matA[i*strideA + k] * matB[k*strideB + j];// 只有矩阵B是列访问顺序
}
matC[i*strideC + j] = sum;
}
}
}
gemm_v1比gemm_v2速度会慢很多,尤其是数据量比较大的时候。
因为在gemm_v1中,matB和matC的访存以列为方向,会出现很多cache不命中的情况。
而在gemm_v2中则只有matB发生较多cache不命中,而这是gemm计算无法避免的。
在ncnn中,没有将输入和输出展开成两个大矩阵,会比较耗费内存;
就是按照卷积的方式,每次只读取,运算的部分内容。
以卷积计算conv3x3_s1为例,
每次从matA同时访问4行(一般一次3x3卷积只需要访问3行),
由于step是1,所以可以同时生成2行的convolution结果。
可以看到有2行数据直接共用了,缓存利用率得到极大提高。
多通道矩阵内存排布:
SIMD即单指令多数据指令,
目前在x86平台下有MMX/SSE/AVX系列指令,
arm平台下有NEON指令。
一般SIMD指令通过intrinsics或者汇编实现。
使用SSE指令,首先要了解这一类用于进行初始化加载数据以及将暂存器的数据保存到内存相关的指令,
我们知道,大多数SSE指令是使用的xmm0到xmm8的暂存器,
那么使用之前,就需要将数据从内存加载到这些暂存器。
1. load系列,用于加载数据,从内存到暂存器。 ====传入指针====
__m128 _mm_load_ss (float *p) 128字节暂存器, 4*32=128
用于scalar的加载,所以,加载一个单精度浮点数到暂存器的低字节,
其它三个单浮点单元清0,(r0 := *p, r1 := r2 := r3 := 0.0)。
__m128 _mm_load_ps (float *p)
用于packed的加载(下面的都是用于packed的),要求p的地址是16字节对齐,否则读取的结果会出错,
(r0 := p[0], r1 := p[1], r2 := p[2], r3 := p[3])。
__m128 _mm_load1_ps (float *p)
__m128 _mm_loadh_pi (__m128 a, __m64 *p)
__m128 _mm_loadl_pi (__m128 a, __m64 *p)
__m128 _mm_loadr_ps (float *p)
__m128 _mm_loadu_ps (float *p)
2. set系列,用于加载数据,大部分需要多条指令完成,但是可能不需要16字节对齐。 =====传入值====
__m128 _mm_set_ss (float w)
对应于_mm_load_ss的功能,不需要字节对齐,需要多条指令。(r0 = w, r1 = r2 = r3 = 0.0)
__m128 _mm_set_ps (float z, float y, float x, float w)
对应于_mm_load_ps的功能,参数是四个单独的单精度浮点数,所以也不需要字节对齐,需要多条指令。
(r0=w, r1 = x, r2 = y, r3 = z,注意顺序)
__m128 _mm_set1_ps (float w)
对应于_mm_load1_ps的功能,不需要字节对齐,需要多条指令。(r0 = r1 = r2 = r3 = w)
__m128 _mm_setr_ps (float z, float y, float x, float w)
__m128 _mm_setzero_ps ()
是清0操作,只需要一条指令。(r0 = r1 = r2 = r3 = 0.0)
3. store系列,用于将计算结果等SSE暂存器的数据保存到内存中。
void _mm_store_ss (float *p, __m128 a) _mm_store_ss:一条指令,*p = a0
void _mm_store_ps (float *p, __m128 a) 一条指令,p[i] = a[i]
void _mm_store1_ps (float *p, __m128 a)
void _mm_storeh_pi (__m64 *p, __m128 a)
void _mm_storel_pi (__m64 *p, __m128 a)
void _mm_storer_ps (float *p, __m128 a)
void _mm_storeu_ps (float *p, __m128 a) 一条指令,p[i] = a[i],不要求16字节对齐。
void _mm_stream_ps (float *p, __m128 a) 直接写入内存,不改变cache的数据。
这一系列函数和load系列函数的功能对应,基本上都是一个反向的过程。
SSE提供了大量的浮点运算指令,包括加法、减法、乘法、除法、开方、最大值、最小值、近似求倒数、求开方的倒数等等,
可见SSE指令的强大之处。那么在了解了上面的数据加载和数据保存的指令之后,使用这些算术指令就很容易了,下面以加法为例。
SSE中浮点加法的指令有:
__m128 _mm_add_ss (__m128 a, __m128 b); // a =(a0,a1,a2,a3) b = (b0,b1,b2,b3) 结果=(a0+b0,a1,a2,a3)
__m128 _mm_add_ps (__m128 a, __m128 b); // 结果=(a0+b0, a1+b1, a2+b2, a3+b3)
其中,_mm_add_ss表示scalar执行模式,_mm_add_ps表示packed执行模式。
减法指令:
__m128 _mm_sub_ss (__m128 a, __m128 b); // 结果=(a0-b0,a1,a2,a3)
__m128 _mm_sub_ps (__m128 a, __m128 b); // 结果=(a0-b0, a1-b1, a2-b2, a3-b3)
乘法指令:
__m128 _mm_mul_ss (__m128 a, __m128 b);
__m128 _mm_mul_ps (__m128 a, __m128 b);// 结果=(a0*b0, a1*b1, a2*b2, a3*b3)
除法指令:
__m128 _mm_div_ss (__m128 a, __m128 b);
__m128 _mm_div_ps (__m128 a, __m128 b);// 结果=(a0/b0, a1/b1, a2/b2, a3/b3)
加减混合运算:
__m128 _mm_addsub_ps (__m128 a, __m128 b); // 结果=(a0-b0, a1+b1, a2-b3, a3+b3)
开平方 sqrt 去倒数 rcp 平方根的倒数 rsqrt 最小值min 最大值max
般而言,使用SSE指令写代码,
步骤为:1. 使用load/set函数将数据从内存加载到SSE暂存器;
2. 使用相关SSE指令完成计算等;
3. 使用store系列函数将结果从暂存器保存到内存,供后面使用。
// 示例程序
float op1[4] = {1.0, 2.0, 3.0, 4.0}; // 浮点数数组
float op2[4] = {1.0, 2.0, 3.0, 4.0};
float result[4];// 结果数组
__m128 a;
__m128 b;
__m128 c;
// 1. Load 将数据从内存载入到 暂存器
a = _mm_loadu_ps(op1);
b = _mm_loadu_ps(op2);
// 2. Calculate 进行逻辑计算
c = _mm_add_ps(a, b); // c = a + b
// 3. Store 将数据从暂存器 保存到 内存
_mm_storeu_ps(result, c);
/* // Using the __m128 union to get the result.
printf("0: %lf\n", c.m128_f32[0]);
printf("1: %lf\n", c.m128_f32[1]);
printf("2: %lf\n", c.m128_f32[2]);
printf("3: %lf\n", c.m128_f32[3]);
*/
printf("0: %lf\n", result[0]);
printf("1: %lf\n", result[1]);
printf("2: %lf\n", result[2]);
printf("3: %lf\n", result[3]);
ARM CPU最开始只有普通的寄存器,可以进行基本数据类型的基本运算。
自ARMv5开始引入了VFP(Vector Floating Point)指令,该指令用于向量化加速浮点运算。
自ARMv7开始正式引入NEON指令,NEON性能远超VFP,因此VFP指令被废弃。
ARMV7架构包含:
16个通用寄存器(32bit), R0-R15,
R13为栈顶指针 Stack pointer,
R14为Link registr(链接寄存器), 用于存储调用子例程时的返回地址
R15为 程序计数器 Program Counter
16个 NEON寄存器(128bit),Q0-Q15(同时也可以被视为32个64bit的寄存器,D0-D31)
ARMV8(64位cpu) NEON寄存器 用 v来表示 v1.8b v2.8h v3.4s v4.2d
后缀为8b/16b/4h/8h/2s/4s/2d)
16个 VFP寄存器(32bit), S0-S15
NEON和VFP的区别在于VFP是加速浮点计算的硬件不具备数据并行能力,同时VFP更尽兴双精度浮点数(double)的计算,NEON只有单精度浮点计算能力。
armV7指令集主要是针对32bit的,armV8指令集则是针对最新的64bit架构;
首先总体来说,v7指令集在操作Q寄存器时,指令喜欢带个V表示,我这是在操作NEON寄存器,
而v8的ISA64指令集就把这个给取消了,
我只出指令,具体的什么操作细节,你操作数去细化指明。
1.3 预取(就是放入cache中把...)
v7:从%3处预取192个byte;
"pld [%3, #192] \n"
v8: pld1kepp这个参数是可以改的,改为预取到L2中,
不keep,而是流式缓存,也就是不会真放进cache中,具体的可以去看芯片手册。
从%1处预取 128 字节
"prfm pldl1keep, [%1, #128] \n"
1.4 内存加载(从内存加载到 寄存器)
v7:
带了前缀v的就是v7 32bit指令的标志;
ld1表示是顺序读取,还可以取ld2就是跳一个读取,ld3、ld4就是跳3、4个位置读取,这在RGB分解的时候贼方便;
后缀是f32表示单精度浮点,还可以是s32、s16表示有符号的32、16位整型值。
这里Q寄存器是用q表示,q5对应d10、d11可以分开单独访问(注:v8就没这么方便了。)
大括号里面最多只有两个Q寄存器。
"vld1.f32 {q10}, [%3]! \n"
"vld1.s16 {q0, q1}, [%2]! \n"
v8:
ARMV8(64位cpu) NEON寄存器 用 v来表示 v1.8b v2.8h v3.4s v4.2d
后缀为8b/16b/4h/8h/2s/4s/2d)
大括号内最多支持4个V寄存器;
"ld1 {v0.4s, v1.4s, v2.4s, v3.4s}, [%2], #64 \n" // 4s表示float32
"ld1 {v0.8h, v1.8h}, [%2], #32 \n"
"ld1 {v0.4h, v1.4h}, [%2], #32 \n" // 4h 表示int16
// 1. 在容器中填充随机数===========
// 生成器generator:能够产生离散的等可能分布数值
// 分布器distributions: 能够把generator产生的均匀分布值映射到其他常见分布,
// 如均匀分布uniform,正态分布normal,二项分布binomial,泊松分布poisson
static void fill_random_value(std::vector<float>& vec_data)
{
// 浮点数均匀分布 分布器 uniform_int_distribution(整数均匀分布)
std::uniform_real_distribution<float> distribution(
std::numeric_limits<float>::min(),
std::numeric_limits<float>::max());
// 随机数 生成器
std::default_random_engine generator;
// std::default_random_engine generator(time(NULL));// 配合随机数种子
// 为 vec_data 生成随机数,传入首尾迭代器和一个 lambda匿名函数
// [变量截取](参数表){函数提体}; [&](){}, 中括号内的& 表示函数可使用函数外部的变量。
std::generate(vec_data.begin(), vec_data.end(), [&]() { return distribution(generator); });
}
// 下面是各种变量截取的选项:
// [] 不截取任何变量
// [&} 截取外部作用域中所有变量,并作为引用在函数体中使用
// [=] 截取外部作用域中所有变量,并拷贝一份在函数体中使用
// [=, &foo] 截取外部作用域中所有变量,并拷贝一份在函数体中使用,但是对foo变量使用引用
// [bar] 截取bar变量并且拷贝一份在函数体重使用,同时不截取其他变量
// [this] 截取当前类中的this指针。如果已经使用了&或者=就默认添加此选项。
// 2. 判断两vector是否相等====================================
static bool is_equals_vector(const std::vector<float>& vec_a, const std::vector<float>& vec_b)
{
// 首先判断 大小是否一致
if (vec_a.size() != vec_b.size())
return false;
for (size_t i=0; i<vec_a.size(); i++)
{
if(vec_a[i] != vec_b[i]) // 浮点数可以这样 判断不相等??
return false;
}
// 每个元素均相等
return true;
}
// 3. 正常的vector相乘(需要关闭编译器的自动向量优化)====================
static void normal_vector_mul(const std::vector<float>& vec_a,
const std::vector<float>& vec_b,
std::vector<float>& vec_result)
{
// 检查 数组维度
assert(vec_a.size() == vec_b.size());
assert(vec_a.size() == vec_result.size());
// 循环遍历相乘 编译器可能会自动 进行向量化优化 添加标志进行关闭 -ftree-vectorize
for (size_t i=0; i<vec_result.size(); i++)
vec_result[i] = vec_a[i] * vec_b[i];
}
// 4. neon优化的vector相乘======================================
static void neon_vector_mul(const std::vector<float>& vec_a,
const std::vector<float>& vec_b,
std::vector<float>& vec_result)
{
// 检查 数组维度
assert(vec_a.size() == vec_b.size());
assert(vec_a.size() == vec_result.size());
// noon 寄存器操作
int i = 0;
for (; i < (int)vec_result.size() - 3 ; i+=4)// 一次运算四个
{
const auto data_a = vld1q_f32(&vec_a[i]);// 放入寄存器
const auto data_b = vld1q_f32(&vec_b[i]);// 放入寄存器
float* dst_ptr = &vec_result[i]; // 结果矩阵 指针
const auto data_res = vmulq_f32(data_a, data_b); // 32为寄存器 浮点数乘法
vst1q_32(dst_ptr, data_res);// 将 寄存器乘法结果 复制到 结果数组中
}
}
// 这段代码中使用了3条NEON指令:vld1q_f32,vmulq_f32,vst1q_f32
// 5. sse 优化程序=========================================
static void sse_vector_mul(const std::vector<float>& vec_a,
const std::vector<float>& vec_b,
std::vector<float>& vec_result)
{
// 检查 数组维度
assert(vec_a.size() == vec_b.size());
assert(vec_a.size() == vec_result.size());
// sse 寄存器操作
int i=0;
for(; i<vec_result.size()-3; i+=4)
{
// 1. load 数据从内存载入暂存器
__m128 a = _mm_loadu_ps(&vec_a[i]);
__m128 b = _mm_loadu_ps(&vec_b[i]);
__m128 res;
float* dst_ptr = &vec_result[i]; // 结果矩阵 指针
// 2. 进行计算
res = _mm_mul_ps(a, b); // 32为寄存器 浮点数乘法
// 3. 将计算结果 从暂存器 保存到 内存 res ----> dst_ptr
_mm_storeu_ps(dst_ptr, res);
}
}
/src目录:
目录顶层下是一些基础代码,如宏定义,平台检测,mat数据结构,layer定义,blob定义,net定义等。
platform.h.in 平台检测
benchmark.cpp benchmark.h 测试各个模型的执行速度
allocator.cpp allocator.h 内存对齐
paramdict.cpp paramdict.h 层参数解析 读取二进制格式、字符串格式、密文格式的参数文件
opencv.cpp opencv.h opencv 风格的数据结构 的 最小实现
大小结构体 Size
矩阵框结构体 Rect_ 交集 并集运算符重载
点结构体 Point_
矩阵结构体 Mat 深拷贝 浅拷贝 获取指定矩形框中的roi 读取图像 写图像 双线性插值算法改变大小
mat.cpp mat.h 3维矩阵数据结构, 在层间传播的就是Mat数据,Blob数据是花架子
substract_mean_normalize(); 去均值并归一化
half2float(); float16 的 data 转换成 float32 的 data
copy_make_border(); 矩阵周围填充
resize_bilinear_image(); 双线性插值
modelbin.cpp modelbin.h 从文件中载入模型权重、从内存中载入、从数组中载入
layer.cpp layer.h 层接口,四种前向传播接口函数
Blob数据是花架子
net.cpp net.h ncnn框架接口:
注册 用户定义的新层 Net::register_custom_layer();
网络载入 模型参数 Net::load_param();
载入 模型权重 Net::load_model();
网络blob 输入 Net::input();
网络前向传 Net::forward_layer(); 被Extractor::extract() 执行
创建网络模型提取器 Net::create_extractor();
模型提取器提取某一层输出 Extractor::extract();
./src/layer下是所有的layer定义代码
./src/layer/arm是arm下的计算加速的layer
./src/layer/x86是x86下的计算加速的layer。
├── absval.cpp // 绝对值层
├── absval.h
├── argmax.cpp // 最大值层
├── argmax.h
├── arm ============================ arm平台下的层
│ ├── absval_arm.cpp // 绝对值层
│ ├── absval_arm.h
│ ├── batchnorm_arm.cpp // 批归一化 去均值除方差
│ ├── batchnorm_arm.h
│ ├── bias_arm.cpp // 偏置
│ ├── bias_arm.h
│ ├── convolution_1x1.h // 1*1 float32 卷积
│ ├── convolution_1x1_int8.h // 1*1 int8 卷积
│ ├── convolution_2x2.h // 2*2 float32 卷积
│ ├── convolution_3x3.h // 3*3 float32 卷积
│ ├── convolution_3x3_int8.h // 3*3 int8 卷积
│ ├── convolution_4x4.h // 4*4 float32 卷积
│ ├── convolution_5x5.h // 5*5 float32 卷积
│ ├── convolution_7x7.h // 7*7 float32 卷积
│ ├── convolution_arm.cpp // 卷积层
│ ├── convolution_arm.h
│ ├── convolutiondepthwise_3x3.h // 3*3 逐通道 float32 卷积
│ ├── convolutiondepthwise_3x3_int8.h // 3*3 逐通道 int8 卷积
│ ├── convolutiondepthwise_arm.cpp // 逐通道卷积
│ ├── convolutiondepthwise_arm.h
│ ├── deconvolution_3x3.h // 3*3 反卷积
│ ├── deconvolution_4x4.h // 4*4 反卷积
│ ├── deconvolution_arm.cpp // 反卷积
│ ├── deconvolution_arm.h
│ ├── deconvolutiondepthwise_arm.cpp // 反逐通道卷积
│ ├── deconvolutiondepthwise_arm.h
│ ├── dequantize_arm.cpp // 反量化
│ ├── dequantize_arm.h
│ ├── eltwise_arm.cpp // 逐元素操作,product(点乘), sum(相加减) 和 max(取大值)
│ ├── eltwise_arm.h
│ ├── innerproduct_arm.cpp // 即 fully_connected (fc)layer, 全连接层
│ ├── innerproduct_arm.h
│ ├── lrn_arm.cpp // Local Response Normalization,即局部响应归一化层
│ ├── lrn_arm.h
│ ├── neon_mathfun.h // neon 数学函数库
│ ├── pooling_2x2.h // 2*2 池化层
│ ├── pooling_3x3.h // 3*3 池化层
│ ├── pooling_arm.cpp // 池化层
│ ├── pooling_arm.h
│ ├── prelu_arm.cpp // (a*x,x) 前置relu激活层
│ ├── prelu_arm.h
│ ├── quantize_arm.cpp // 量化层
│ ├── quantize_arm.h
│ ├── relu_arm.cpp // relu 层 (0,x)
│ ├── relu_arm.h
│ ├── scale_arm.cpp // BN层后的 平移和缩放层 scale
│ ├── scale_arm.h
│ ├── sigmoid_arm.cpp // sigmod 负指数倒数归一化 激活层 1/(1 + e^(-zi))
│ ├── sigmoid_arm.h
│ ├── softmax_arm.cpp // softmax 指数求和归一化 激活层 e^(zi) / sum(e^(zi))
│ └── softmax_arm.h
|
|
|================================ 普通平台 x86等,待优化=============
├── batchnorm.cpp // 批归一化 去均值除方差
├── batchnorm.h
├── bias.cpp // 偏置
├── bias.h
├── binaryop.cpp // 二元操作: add,sub, div, mul,mod等
├── binaryop.h
├── bnll.cpp // binomial normal log likelihood的简称 f(x)=log(1 + exp(x)) 激活层
├── bnll.h
├── clip.cpp // 截断=====
├── clip.h
├── concat.cpp // 通道叠加
├── concat.h
├── convolution.cpp // 普通卷积层
├── convolutiondepthwise.cpp // 逐通道卷积
├── convolutiondepthwise.h
├── convolution.h
├── crop.cpp // 剪裁层
├── crop.h
├── deconvolution.cpp // 反卷积
├── deconvolutiondepthwise.cpp// 反逐通道卷积
├── deconvolutiondepthwise.h
├── deconvolution.h
├── dequantize.cpp // 反量化
├── dequantize.h
├── detectionoutput.cpp // ssd 的检测输出层================================
├── detectionoutput.h
├── dropout.cpp // 随机失活层 在训练时由于舍弃了一些神经元,因此在测试时需要在激励的结果中乘上因子p进行缩放.
├── dropout.h
├── eltwise.cpp // 逐元素操作, product(点乘), sum(相加减) 和 max(取大值)
├── eltwise.h
├── elu.cpp // 指数线性单元relu激活层 Prelu : (a*x, x) ----> Erelu : (a*(e^x - 1), x)
├── elu.h
├── embed.cpp // 嵌入层,用在网络的开始层将你的输入转换成向量
├── embed.h
├── expanddims.cpp // 增加维度
├── expanddims.h
├── exp.cpp // 指数映射
├── exp.h
├── flatten.cpp // 摊平层
├── flatten.h
├── innerproduct.cpp // 全连接层
├── innerproduct.h
├── input.cpp // 数据输入层
├── input.h
├── instancenorm.cpp // 单样本 标准化 规范化
├── instancenorm.h
├── interp.cpp // 插值层 上下采样等
├── interp.h
├── log.cpp // 对数层
├── log.h
├── lrn.cpp // Local Response Normalization,即局部响应归一化层
├── lrn.h // 对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,
| // 并抑制其他反馈较小的神经元,增强了模型的泛化能力
├── lstm.cpp
├── lstm.h // lstm 长短词记忆层
├── memorydata.cpp // 内存数据层
├── memorydata.h
├── mvn.cpp
├── mvn.h
├── normalize.cpp // 归一化
├── normalize.h
├── padding.cpp // 填充,警戒线
├── padding.h
├── permute.cpp // ssd 特有层 交换通道顺序 [bantch_num, channels, h, w] ---> [bantch_num, h, w, channels]]=========
├── permute.h
├── pooling.cpp // 池化层
├── pooling.h
├── power.cpp // 平移缩放乘方 : (shift + scale * x) ^ power
├── power.h
├── prelu.cpp // Prelu (a*x,x)
├── prelu.h
├── priorbox.cpp // ssd 独有的层 建议框生成层 L1 loss 拟合============================
├── priorbox.h
├── proposal.cpp // faster rcnn 独有的层 建议框生成,将rpn网络的输出转换成建议框========
├── proposal.h
├── quantize.cpp // 量化层
├── quantize.h
├── reduction.cpp // 将输入的特征图按照给定的维度进行求和或求平均
├── reduction.h
├── relu.cpp // relu 激活层: (0,x)
├── relu.h
├── reorg.cpp // yolov2 独有的层, 一拆四层,一个大矩阵,下采样到四个小矩阵=================
├── reorg.h
├── reshape.cpp // 变形层: 在不改变数据的情况下,改变输入的维度
├── reshape.h
├── rnn.cpp // rnn 循环神经网络
├── rnn.h
├── roipooling.cpp // faster Rcnn 独有的层, ROI池化层: 输入m*n 均匀划分成 a*b个格子后池化,得到固定长度的特征向量 ==========
├── roipooling.h
├── scale.cpp // bn 层之后的 平移缩放层
├── scale.h
├── shufflechannel.cpp // ShuffleNet 独有的层,通道打乱,通道混合层=================================
├── shufflechannel.h
├── sigmoid.cpp // 负指数倒数归一化层 1/(1 + e^(-zi))
├── sigmoid.h
├── slice.cpp // concat的反向操作, 通道分开层,适用于多任务网络
├── slice.h
├── softmax.cpp // 指数求和归一化层 e^(zi) / sum(e^(zi))
├── softmax.h
├── split.cpp // 将blob复制几份,分别给不同的layer,这些上层layer共享这个blob。
├── split.h
├── spp.cpp // 空间金字塔池化层 1+4+16=21 SPP-NET 独有===================================
├── spp.h
├── squeeze.cpp // squeezeNet独有层, Fire Module, 一层conv层变成两层:squeeze层+expand层, 1*1卷积---> 1*1 + 3*3=======
├── squeeze.h
├── tanh.cpp // 双曲正切激活函数 (e^(zi) - e^(-zi)) / (e^(zi) + e^(-zi))
├── tanh.h
├── threshold.cpp // 阈值函数层
├── threshold.h
├── tile.cpp // 将blob的某个维度,扩大n倍。比如原来是1234,扩大两倍变成11223344。
├── tile.h
├── unaryop.cpp // 一元操作: abs, sqrt, exp, sin, cos,conj(共轭)等
├── unaryop.h
|
|==============================x86下特殊的优化层=====
├── x86
│ ├── avx_mathfun.h // x86 数学函数
│ ├── convolution_1x1.h // 1*1 float32 卷积
│ ├── convolution_1x1_int8.h // 1×1 int8 卷积
│ ├── convolution_3x3.h // 3*3 float32 卷积
│ ├── convolution_3x3_int8.h // 3×3 int8 卷积
│ ├── convolution_5x5.h // 5*5 float32 卷积
│ ├── convolutiondepthwise_3x3.h // 3*3 float32 逐通道卷积
│ ├── convolutiondepthwise_3x3_int8.h // 3*3 int8 逐通道卷积
│ ├── convolutiondepthwise_x86.cpp // 逐通道卷积
│ ├── convolutiondepthwise_x86.h
│ ├── convolution_x86.cpp // 卷积
│ ├── convolution_x86.h
│ └── sse_mathfun.h // sse优化 数学函数
├── yolodetectionoutput.cpp // yolo-v2 目标检测输出层=========================================
└── yolodetectionoutput.h
slice:在某一个维度,按照给定的下标,blob拆分成几块。
比如要拆分channel,总数50,下标为10,20,30,40,
那就是分成5份,每份10个channel,输出5个layer。
concat:在某个维度,将输入的layer组合起来,是slice的逆过程。
split:将blob复制几份,分别给不同的layer,这些上层layer共享这个blob。
tile:将blob的某个维度,扩大n倍。比如原来是1234,扩大两倍变成11223344。
reduction:将某个维度缩减至1维,方法可以是sum、mean、asum、sumsq。
reshape:这个很简单,就是matlab里的reshape。
eltwise:将几个同样大小的layer,合并为1个,合并方法可以是相加、相乘、取最大。
flatten:将中间某几维合并,其实可以用reshape代替。
# 假设原数据为:32*3*28*28, 表示32张3通道的28*28的彩色图片
reshape_param {
shape {
dim: 0 32->32 # 0表示和原来一致
dim: 0 3->3
dim: 14 28->14
dim: -1 #让其推断出此数值
}
}
# 输出数据为:32*3*14*56
// 绝对值层特性: 单输入,单输出,可直接对输入进行修改
int AbsVal::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w; // 矩阵宽度
int h = bottom_top_blob.h; // 矩阵高度
int channels = bottom_top_blob.c;// 通道数
int size = w * h;// 一个通道的元素数量
#pragma omp parallel for num_threads(opt.num_threads) // openmp 并行
for (int q=0; q<channels; q++)// 每个 通道
{
float* ptr = bottom_top_blob.channel(q);// 当前通道数据的起始指针
for (int i=0; i<size; i++)// 遍历每个值
{
if (ptr[i] < 0)
ptr[i] = -ptr[i];// 小于零取相反数,大于零保持原样
// ptr[i] = ptr[i] > 0 ? ptr[i] : -ptr[i];
}
}
return 0;
}
// arm 内联汇编
// asm(
// 代码列表
// : 输出运算符列表 "r" 表示同用寄存器 "m" 表示内存地址 "I" 立即数
// : 输入运算符列表 "=r" 修饰符 = 表示只写,无修饰符表示只读,+修饰符表示可读可写,&修饰符表示只作为输出
// : 被更改资源列表
// );
// __asm__ __volatile__();
// __volatile__或volatile 是可选的,假如用了它,则是向GCC 声明不答应对该内联汇编优化,
// 否则当 使用了优化选项(-O)进行编译时,GCC 将会根据自己的判定决定是否将这个内联汇编表达式中的指令优化掉。
// 换行符和制表符的使用可以使得指令列表看起来变得美观。
int AbsVal_arm::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w; // 矩阵宽度
int h = bottom_top_blob.h; // 矩阵高度
int channels = bottom_top_blob.c;// 通道数
int size = w * h;// 一个通道的元素数量
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);
#if __ARM_NEON
int nn = size >> 2; // 128位的寄存器,一次可以操作 4个float,剩余不够4个的,最后面直接c语言执行
int remain = size - (nn << 2);// 4*32 =128字节对其后 剩余的 float32个数, 剩余不够4个的数量
#else
int remain = size;
#endif // __ARM_NEON
/*
从内存中载入:
v7:
带了前缀v的就是v7 32bit指令的标志;
ld1表示是顺序读取,还可以取ld2就是跳一个读取,ld3、ld4就是跳3、4个位置读取,这在RGB分解的时候贼方便;
后缀是f32表示单精度浮点,还可以是s32、s16表示有符号的32、16位整型值。
这里Q寄存器是用q表示,q5对应d10、d11可以分开单独访问(注:v8就没这么方便了。)
大括号里面最多只有两个Q寄存器。
"vld1.f32 {q10}, [%3]! \n"
"vld1.s16 {q0, q1}, [%2]! \n"
v8:
ARMV8(64位cpu) NEON寄存器 用 v来表示 v1.8b v2.8h v3.4s v4.2d
后缀为8b/16b/4h/8h/2s/4s/2d)
大括号内最多支持4个V寄存器;
"ld1 {v0.4s, v1.4s, v2.4s, v3.4s}, [%2], #64 \n" // 4s表示float32
"ld1 {v0.8h, v1.8h}, [%2], #32 \n"
"ld1 {v0.4h, v1.4h}, [%2], #32 \n" // 4h 表示int16
*/
#if __ARM_NEON
#if __aarch64__
// ARMv8-A 是首款64 位架构的ARM 处理器,是移动手机端使用的CPU
if (nn > 0)
{
asm volatile(
"0: \n" // 0: 作为标志,局部标签
"prfm pldl1keep, [%1, #128] \n" // 预取 128个字节 4*32 = 128
"ld1 {v0.4s}, [%1] \n" // 载入 ptr 指针对应的值,连续4个
"fabs v0.4s, v0.4s \n" // ptr 指针对应的值 连续4个,使用fabs函数 进行绝对值操作 4s表示浮点数
"subs %w0, %w0, #1 \n" // %0 引用 参数 nn 操作次数每次 -1 #1表示1
"st1 {v0.4s}, [%1], #16 \n" // %1 引用 参数 ptr 指针 向前移动 4*4=16字节
"bne 0b \n" // 如果非0,则向后跳转到 0标志处执行
: "=r"(nn), // %0 操作次数
"=r"(ptr) // %1
: "0"(nn), // %0 引用 参数 nn
"1"(ptr) // %1 引用 参数 ptr
: "cc", "memory", "v0" /* 可能变化的部分 memory内存可能变化*/
);
}
#else
// 32位 架构处理器=========
if (nn > 0)
{
asm volatile(
"0: \n" // 0: 作为标志,局部标签
"vld1.f32 {d0-d1}, [%1] \n" // 载入 ptr处的值 q0寄存器 = d0 = d1
"vabs.f32 q0, q0 \n" // abs 绝对值运算
"subs %0, #1 \n" // %0 引用 参数 nn 操作次数每次 -1 #1表示1
"vst1.f32 {d0-d1}, [%1]! \n" // %1 引用 参数 ptr 指针 向前移动 4*4=16字节
"bne 0b \n" // 如果非0,则向后跳转到 0标志处执行
: "=r"(nn), // %0
"=r"(ptr) // %1
: "0"(nn),
"1"(ptr)
: "cc", "memory", "q0" /* 可能变化的部分 memory内存可能变化*/
);
}
#endif // __aarch64__
#endif // __ARM_NEON
for (; remain>0; remain--) // 剩余不够4个的直接c语言执行
{
*ptr = *ptr > 0 ? *ptr : -*ptr;
ptr++;
}
}
return 0;
}
V7a 有32个64位的D寄存器[D0-D31], 16个128位的Q寄存器 [Q0-Q15] ,一个Q对应2个D(2个D公用Q的高64位和低64位)。
q0(低64位 d0, 高64位 d1) q1(低64位 d2, 高64位 d3) q2(低64位 d4, 高64位 d5) ... q15(低64位 d30, 高64位 d31)
ARMv8 有31 个64位寄存器,1个不同名字的特殊寄存器,用途取决于上下文, 因此我们可以看成 31个64位的X寄存器或者31个32位的W寄存器(X寄存器的低32位)
x0(低32位 w0) x1(低32位 w1) ... x30(低32位 w30)
ARMv8有32个128位的V寄存器,相似的,我们同样可以看成是32个32位的S寄存器或者32个64位的D寄存器。
v0(低64位 d0, 低32位 s0) v1(低64位 d1, 低32位 s1) v2(低64位 d2, 低32位 s2) ... v31(低64位 d31, 低32位 s31)
// 层参数包含两个参数,第一个是是否需要包含值对应在源blob中的位置,第二个是需要前多少个最大的数
int ArgMax::load_param(const ParamDict& pd)
{
out_max_val = pd.get(0, 0);// 是否 需要存储位置
topk = pd.get(1, 1); //在 前topk个最大的数========
return 0;
}
int ArgMax::forward(const Mat& bottom_blob, Mat& top_blob, const Option& opt) const
{
int size = bottom_blob.total();// 输入blob参数总数量
// 创建一个新的输出blob==============
if (out_max_val)
top_blob.create(topk, 2, 4u, opt.blob_allocator);// topk个值 + topk个值对应的位置
else
top_blob.create(topk, 1, 4u, opt.blob_allocator);// 只存 topk个值,不存位置
if (top_blob.empty())
return -100;
const float* ptr = bottom_blob;
// partial sort 部分排序(快排可以实现)===================
// partial sort topk with index
// optional value
std::vector< std::pair<float, int> > vec;
vec.resize(size);
for (int i=0; i<size; i++)
{
vec[i] = std::make_pair(ptr[i], i);// 源 输入blob 的参数的 值:位置id 键值对
}
std::partial_sort(vec.begin(), vec.begin() + topk, vec.end(),
std::greater< std::pair<float, int> >());// 按第一列排序,获取前 topk个
// 保存前面最大的topk个参数===============================
float* outptr = top_blob;
if (out_max_val)
{
float* valptr = outptr + topk;// 前面topk的位置存 值,后面存对应值在源输入blob中的位置ID
for (int i=0; i<topk; i++)
{
outptr[i] = vec[i].first; // 存值
valptr[i] = vec[i].second;// 存位置
}
}
else
{
for (int i=0; i<topk; i++)
{
outptr[i] = vec[i].second;// 只存值
}
}
return 0;
}
// load_model() 函数预处理===============
// 去均值 归一化 合在一起=============
// 各个通道均值 mean_data = sum(xi)/m
// 各个通道方差 var_data = sum((xi - mean_data)^2)/m
// xi‘ = ( xi - mean_data )/(sqrt(var_data + eps)) // 去均值,除以方差,归一化
// yi = slope_data * xi' + bias_data // 缩放 + 平移
// 写成一起=====================
// yi = slope_data / (sqrt(var_data + eps)) * xi + bias_data - slope_data*mean_data/(sqrt(var_data + eps))
// b = slope_data / (sqrt(var_data + eps)) = slope_data /sqrt_var;
// a = bias_data - slope_data*mean_data/(sqrt(var_data + eps)) = bias_data - slope_data*mean_data/sqrt_var;
// yi = b * xi + a
for (int i=0; i<channels; i++)
{
float sqrt_var = sqrt(var_data[i] + eps);// 各个通道 标准差
a_data[i] = bias_data[i] - slope_data[i] * mean_data[i] / sqrt_var;
b_data[i] = slope_data[i] / sqrt_var;
}
// 前向传播函数=====可直接在输入blob上修改=======
// 前向传播函数=====可直接在输入blob上修改=======
int BatchNorm::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
// a = bias - slope * mean / sqrt(var)
// b = slope / sqrt(var)
// value = b * value + a
int dims = bottom_top_blob.dims;
// 1维度====================
if (dims == 1)
{
int w = bottom_top_blob.w;// 1维数据,w为数据总数量============
float* ptr = bottom_top_blob;
#pragma omp parallel for num_threads(opt.num_threads)// 并行======
for (int i=0; i<w; i++)
{
ptr[i] = b_data[i] * ptr[i] + a_data[i];// 归一化 + 缩放 + 平移 一起======
}
}
// 2维度======================
if (dims == 2)
{
int w = bottom_top_blob.w;
int h = bottom_top_blob.h;
#pragma omp parallel for num_threads(opt.num_threads)
for (int i=0; i<h; i++)
{
float* ptr = bottom_top_blob.row(i);// 每一行数据===============
float a = a_data[i];
float b = b_data[i];
for (int j=0; j<w; j++)
{
ptr[j] = b * ptr[j] + a;
}
}
}
// 3维度================================
if (dims == 3)
{
int w = bottom_top_blob.w;
int h = bottom_top_blob.h;
int size = w * h;
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);
float a = a_data[q];
float b = b_data[q];
for (int i=0; i<size; i++)
{
ptr[i] = b * ptr[i] + a;
}
}
}
return 0;
}
作为新的一类 BatchNorm_arm 继承了普通类 BatchNorm, 覆盖了 forward_inplace() 函数
class BatchNorm_arm : public BatchNorm{}
int BatchNorm_arm::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int dims = bottom_top_blob.dims;
// 只有在 维度为3的时候才进行优化,否则执行普通版本的 forward_inplace()
if (dims != 3)
return BatchNorm::forward_inplace(bottom_top_blob, opt);
// a = bias - slope * mean / sqrt(var)
// b = slope / sqrt(var)
// value = b * value + a
int w = bottom_top_blob.w;
int h = bottom_top_blob.h;
int size = w * h;// 每个通道数据总量====
const float* a_data_ptr = a_data; // 合并后的 平移量
const float* b_data_ptr = b_data;// 合并后的 缩放尺度
#pragma omp parallel for num_threads(opt.num_threads)// 并行
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);// 每个通道数据起始指针
float a = a_data_ptr[q];// 该通道 数据 平移量 偏置系数
float b = b_data_ptr[q];// 该通道 数据 缩放尺度 系数
#if __ARM_NEON
int nn = size >> 2;// 每次操作4个float,需要的总次数
int remain = size - (nn << 2);// 剩余不够4个的数量
#else
int remain = size;
#endif // __ARM_NEON
#if __ARM_NEON
#if __aarch64__
if (nn > 0)
{
asm volatile(
"dup v1.4s, %w4 \n" // v1 存储a
"dup v2.4s, %w5 \n" // v2 存储b v3存储数据指针 v0存储 v3指向的值
"0: \n"
"prfm pldl1keep, [%1, #128] \n" // 从%1 ptr 处预读取 128字节 4*32 4个浮点数
"ld1 {v0.4s}, [%1] \n" // 载入 ptr 指针对应的值到 v0,连续4个float
"orr v3.16b, v1.16b, v1.16b \n" // v1 ----> v3, v3 =a
"fmla v3.4s, v0.4s, v2.4s \n" // v3 += v0×b
"subs %w0, %w0, #1 \n" // %0 为nn 执行次数 -1 #1 为1
"st1 {v3.4s}, [%1], #16 \n" // v3寄存器存储 指针,指针移动 #16 16字节 4个float数的宽度
"bne 0b \n" //
: "=r"(nn), // %0
"=r"(ptr) // %1
: "0"(nn), // 输入参数================ %0 为nn 执行次数
"1"(ptr), // %1 为 ptr 当前通道 数据起始指针=======
"r"(a), // %4 存入寄存器 只读, 不变, 参数 偏置
"r"(b) // %5 参数 缩放归一化系数
: "cc", "memory", "v0", "v1", "v2", "v3"
);
}
#else
if (nn > 0)
{
asm volatile(
"vdup.f32 q1, %4 \n"
"vdup.f32 q2, %5 \n"
"0: \n"
"pld [%1, #128] \n"
"vld1.f32 {d0-d1}, [%1 :128] \n"
"vorr.32 q3, q1, q1 \n"
"vmla.f32 q3, q0, q2 \n"
"subs %0, #1 \n"
"vst1.f32 {d6-d7}, [%1 :128]! \n"
"bne 0b \n"
: "=r"(nn), // %0
"=r"(ptr) // %1
: "0"(nn),
"1"(ptr),
"r"(a), // %4
"r"(b) // %5
: "cc", "memory", "q0", "q1", "q2", "q3"
);
}
#endif // __aarch64__
#endif // __ARM_NEON
for (; remain>0; remain--) // 剩余不够 4个的 直接c语言执行
{
*ptr = b * *ptr + a;
ptr++;
}
}
return 0;
}
int Bias::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w;// 特征图宽度
int h = bottom_top_blob.h;// 特征图高度
int channels = bottom_top_blob.c;// 通道数量
int size = w * h;// 单通道特征尺寸
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);// 每个通道数据起始指针
float bias = bias_data[q];// 需要添加的偏置数据 前面从模型中载入的参数 每通道偏置参数一样
for (int i=0; i<size; i++)
{
ptr[i] += bias;// 加上偏置
}
}
return 0;
}
int Bias_arm::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w;// 特征图宽度
int h = bottom_top_blob.h;// 特征图高度
int channels = bottom_top_blob.c;// 通道数量
int size = w * h;// 单通道特征尺寸
const float* bias_ptr = bias_data; // 偏置数据 指针
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);// 每个通道数据起始指针 (原有特征数据)
float bias = bias_ptr[q];// 每通道偏置参数一样
#if __ARM_NEON
int nn = size >> 2; // 一次运算4个数,总次数
int remain = size - (nn << 2);// 剩余不够4个的数量 1~3
#else
int remain = size;
#endif // __ARM_NEON
#if __ARM_NEON
float32x4_t _bias = vdupq_n_f32(bias);// 偏置数据从内存 dup载入到 寄存器
for (; nn>0; nn--)
{
float32x4_t _p = vld1q_f32(ptr);// 载入 特征
float32x4_t _outp = vaddq_f32(_p, _bias);// 加上偏置
vst1q_f32(ptr, _outp); // 从寄存器数据 设置内存数据
ptr += 4;// 特征指针 移动四个单位
}
#endif // __ARM_NEON
for (; remain>0; remain--)
{
*ptr = *ptr + bias; // 普通c 版本 加上偏置
ptr++;
}
}
return 0;
}
// 最大
template<typename T>
struct binary_op_max : std::binary_function<T,T,T> {
T operator() (const T& x, const T& y) const { return std::max(x, y); }
};
// 最小
template<typename T>
struct binary_op_min : std::binary_function<T,T,T> {
T operator() (const T& x, const T& y) const { return std::min(x, y); }
};
// 乘方
template<typename T>
struct binary_op_pow : std::binary_function<T,T,T> {
T operator() (const T& x, const T& y) const { return pow(x, y); }
};
// 后-前
template<typename T>
struct binary_op_rsub : std::binary_function<T,T,T> {
T operator() (const T& x, const T& y) const { return y - x; }
};
// 后/前
template<typename T>
struct binary_op_rdiv : std::binary_function<T,T,T> {
T operator() (const T& x, const T& y) const { return y / x; }
};
int BNLL::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w; // 宽度
int h = bottom_top_blob.h; // 高度
int channels = bottom_top_blob.c;// 通道数
int size = w * h;// 一个通道的数据数量
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);// 特征数据起始指针
for (int i=0; i<size; i++)
{
if (ptr[i] > 0)
ptr[i] = ptr[i] + log(1.f + exp(-ptr[i])); // x + 0~1
else
ptr[i] = log(1.f + exp(ptr[i]));// 0~1 之间
}
}
return 0;
}
int Clip::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w; // 特征宽度
int h = bottom_top_blob.h; // 特征高度
int channels = bottom_top_blob.c;// 通道数量
int size = w * h;// 单通道特征数据数量
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q); // 数据起始指针
for (int i=0; i<size; i++)
{
if (ptr[i] < min)
ptr[i] = min; // 下限
if (ptr[i] > max)
ptr[i] = max; // 上限
}
}
return 0;
}
int ELU::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w;
int h = bottom_top_blob.h;
int channels = bottom_top_blob.c;
int size = w * h;
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);
for (int i=0; i<size; i++)
{ // y = x
if (ptr[i] < 0.f)
ptr[i] = alpha * (exp(ptr[i]) - 1.f); // y = a*(exp(x) - 1)
}
}
return 0;
}
// 指数映射
int Exp::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
int w = bottom_top_blob.w;
int h = bottom_top_blob.h;
int channels = bottom_top_blob.c;
int size = w * h;
if (base == -1.f)
{
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);
for (int i=0; i<size; i++)
{
ptr[i] = exp(shift + ptr[i] * scale);// 平移缩放指数映射
}
}
}
else
{
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);
for (int i=0; i<size; i++)
{
ptr[i] = pow(base, (shift + ptr[i] * scale));// 自定义 平移缩放底数指数映射
}
}
}
return 0;
}
int InstanceNorm::forward_inplace(Mat& bottom_top_blob, const Option& opt) const
{
// x = (x - mean) / (sqrt(var) + eps) * gamma + beta // 去均值除方差 + 缩放 + 平移
int w = bottom_top_blob.w;
int h = bottom_top_blob.h;
int size = w * h;
#pragma omp parallel for num_threads(opt.num_threads)
for (int q=0; q<channels; q++)
{
float* ptr = bottom_top_blob.channel(q);
// mean and var
float sum = 0.f;
float sqsum = 0.f;
for (int i=0; i<size; i++)
{
sum += ptr[i]; // 和
sqsum += ptr[i] * ptr[i]; // 平方和
}
float mean = sum / size; // 均值
float var = sqsum / size - mean * mean;// ???? 方差可以直接这样算????
float gamma = gamma_data[q]; // 缩放系数
float beta = beta_data[q]; // 平移系数
float a = gamma / (sqrt(var) + eps); // 整合成 a*x + b的形式
float b = - mean * a + beta;
for (int i=0; i<size; i++)
{
ptr[i] = ptr[i] * a + b;
}
}
return 0;
}
// 2d 检测框========================================================
struct BBoxRect
{
float xmin;
float ymin;
float xmax;
float ymax;
int label;
};
// 交集区域面积======================================================
static inline float intersection_area(const BBoxRect& a, const BBoxRect& b)
{
if (a.xmin > b.xmax || a.xmax < b.xmin || a.ymin > b.ymax || a.ymax < b.ymin)
{
// no intersection
return 0.f;
}
float inter_width = std::min(a.xmax, b.xmax) - std::max(a.xmin, b.xmin); // 最小的最大值 - 最大的最小值 = 宽度
float inter_height = std::min(a.ymax, b.ymax) - std::max(a.ymin, b.ymin);
return inter_width * inter_height; // 交集面积
}
// 快速排序 升序===================================================
template <typename T>
static void qsort_descent_inplace(std::vector<T>& datas, std::vector<float>& scores, int left, int right)
{
int i = left; // 左边起点
int j = right;// 右边终点
float p = scores[(left + right) / 2];// 取中间的数据为 参照数据
while (i <= j)// 遍历
{
while (scores[i] > p)// 从起点开始找到比参照数据大的
i++;
while (scores[j] < p)// 从重点回溯 找到比参照数据小的
j--;
if (i <= j)
{
// swap
std::swap(datas[i], datas[j]); // 交换对应的数据
std::swap(scores[i], scores[j]);// 交换对应的得分
i++;
j--;
}
}
if (left < j)
qsort_descent_inplace(datas, scores, left, j); // 再递归左边
if (i < right)
qsort_descent_inplace(datas, scores, i, right);// 再递归右边
}
// NMS非极大值抑制 剔除重复的边框=====================================
static void nms_sorted_bboxes(const std::vector<BBoxRect>& bboxes, std::vector<int>& picked, float nms_threshold)
{
picked.clear(); //筛选出来的框
const int n = bboxes.size();// 原来总的框数量
std::vector<float> areas(n);// 每个框的面积
for (int i = 0; i < n; i++)
{
const BBoxRect& r = bboxes[i];
float width = r.xmax - r.xmin;
float height = r.ymax - r.ymin;
areas[i] = width * height;
}
for (int i = 0; i < n; i++)// 遍历每一个框 默认是排序好的
{
const BBoxRect& a = bboxes[i];
int keep = 1;
for (int j = 0; j < (int)picked.size(); j++)// 遍历每一个已经选出来的框
{
const BBoxRect& b = bboxes[picked[j]];
// intersection over union
float inter_area = intersection_area(a, b);// 交集面积
float union_area = areas[i] + areas[picked[j]] - inter_area;// 并集面积
// float IoU = inter_area / union_area
if (inter_area / union_area > nms_threshold)// 与已近选出来的框重叠度较大,剔除
keep = 0;
}
if (keep)
picked.push_back(i);// 保留该框
}
}
// 预测值 解码
int DetectionOutput::forward(const std::vector<Mat>& bottom_blobs, std::vector<Mat>& top_blobs, const Option& opt) const
{
const Mat& location = bottom_blobs[0]; // 预测框位置
const Mat& confidence = bottom_blobs[1];// 置信度
const Mat& priorbox = bottom_blobs[2]; // 先验框
const int num_prior = priorbox.w / 4;// 框总数
// apply location with priorbox
// 结合先验框和预测值 生成真实的预测框==========================
Mat bboxes;
bboxes.create(4, num_prior, 4u, opt.workspace_allocator);// 4 *4*8 4个32位浮点树
if (bboxes.empty())//
return -100;
const float* location_ptr = location;// 预测值
const float* priorbox_ptr = priorbox.row(0);// 先验框
const float* variance_ptr = priorbox.row(1);// 方差
#pragma omp parallel for num_threads(opt.num_threads)
for (int i = 0; i < num_prior; i++)
{
const float* loc = location_ptr + i * 4; // 每个框的预测值起始地址
const float* pb = priorbox_ptr + i * 4; // min max
const float* var = variance_ptr + i * 4;
float* bbox = bboxes.row(i);// 真实的预测框
// CENTER_SIZE
float pb_w = pb[2] - pb[0]; // 宽高
float pb_h = pb[3] - pb[1];
float pb_cx = (pb[0] + pb[2]) * 0.5f;// 中心点
float pb_cy = (pb[1] + pb[3]) * 0.5f;
float bbox_cx = var[0] * loc[0] * pb_w + pb_cx;//中心点
float bbox_cy = var[1] * loc[1] * pb_h + pb_cy;
float bbox_w = exp(var[2] * loc[2]) * pb_w; // 宽高
float bbox_h = exp(var[3] * loc[3]) * pb_h;
bbox[0] = bbox_cx - bbox_w * 0.5f;//左上角点
bbox[1] = bbox_cy - bbox_h * 0.5f;
bbox[2] = bbox_cx + bbox_w * 0.5f;//右下角点
bbox[3] = bbox_cy + bbox_h * 0.5f;
}
// sort and nms for each class
std::vector< std::vector<BBoxRect> > all_class_bbox_rects;
std::vector< std::vector<float> > all_class_bbox_scores;
all_class_bbox_rects.resize(num_class);
all_class_bbox_scores.resize(num_class);
// start from 1 to ignore background class
#pragma omp parallel for num_threads(opt.num_threads)
for (int i = 1; i < num_class; i++)// 每种类别==============
{
// filter by confidence_threshold
std::vector<BBoxRect> class_bbox_rects;
std::vector<float> class_bbox_scores;
for (int j = 0; j < num_prior; j++)
{
float score = confidence[j * num_class + i];
if (score > confidence_threshold) // 置信度阈值滤波
{
const float* bbox = bboxes.row(j);
BBoxRect c = { bbox[0], bbox[1], bbox[2], bbox[3], i };
class_bbox_rects.push_back(c);
class_bbox_scores.push_back(score);
}
}
// sort inplace
qsort_descent_inplace(class_bbox_rects, class_bbox_scores);// 排序
// keep nms_top_k
if (nms_top_k < (int)class_bbox_rects.size())
{
class_bbox_rects.resize(nms_top_k);
class_bbox_scores.resize(nms_top_k);
}
// apply nms
std::vector<int> picked;
nms_sorted_bboxes(class_bbox_rects, picked, nms_threshold);
// select
for (int j = 0; j < (int)picked.size(); j++)
{
int z = picked[j];
all_class_bbox_rects[i].push_back(class_bbox_rects[z]);
all_class_bbox_scores[i].push_back(class_bbox_scores[z]);
}
}
// gather all class
std::vector<BBoxRect> bbox_rects;
std::vector<float> bbox_scores;
for (int i = 1; i < num_class; i++)
{
const std::vector<BBoxRect>& class_bbox_rects = all_class_bbox_rects[i];
const std::vector<float>& class_bbox_scores = all_class_bbox_scores[i];
bbox_rects.insert(bbox_rects.end(), class_bbox_rects.begin(), class_bbox_rects.end());
bbox_scores.insert(bbox_scores.end(), class_bbox_scores.begin(), class_bbox_scores.end());
}
// global sort inplace
qsort_descent_inplace(bbox_rects, bbox_scores);
// keep_top_k
if (keep_top_k < (int)bbox_rects.size())
{
bbox_rects.resize(keep_top_k);
bbox_scores.resize(keep_top_k);
}
// fill result
int num_detected = bbox_rects.size();
Mat& top_blob = top_blobs[0];
top_blob.create(6, num_detected, 4u, opt.blob_allocator);
if (top_blob.empty())
return -100;
for (int i = 0; i < num_detected; i++)
{
const BBoxRect& r = bbox_rects[i];
float score = bbox_scores[i];
float* outptr = top_blob.row(i);
outptr[0] = r.label;
outptr[1] = score;
outptr[2] = r.xmin;
outptr[3] = r.ymin;
outptr[4] = r.xmax;
outptr[5] = r.ymax;
}
return 0;
}