Back to Paddleocr

OCR模型自动压缩示例

deploy/slim/auto_compression/README.md

3.5.015.8 KB
Original Source

OCR模型自动压缩示例

目录:

1. 简介

本示例将以图像分类模型PPOCRV3为例,介绍如何使用PaddleOCR中Inference部署模型进行自动压缩。本示例使用的自动压缩策略为量化训练和蒸馏。

2. Benchmark

PPOCRV4_det

模型策略Metric(hmean)GPU 耗时(ms)ARM CPU 耗时(ms)配置文件Inference模型
PP-OCRv4_mobile_detBaseline72.715.792.0-Model
PP-OCRv4_mobile_det量化+蒸馏71.102.394.1ConfigModel
PP-OCRv4_server_detBaseline79.8232.6844.7-Model
PP-OCRv4_server_det量化+蒸馏79.2712.3635.0ConfigModel
  • GPU测试环境:RTX 3090, cuda11.7+tensorrt8.4.2.4+paddle2.5
  • CPU测试环境:Intel(R) Xeon(R) Gold 6226R,使用12线程测试
  • PP-OCRv4_server_det在不完整的数据集上测试,数据处理流程参考ppocrv4_det_server数据集预处理,仅为了展示自动压缩效果,指标并不具有参考性,模型真实表现请参考PPOCRV4介绍
模型策略Metric(hmean)GPU 耗时(ms)ARM CPU 耗时(ms)配置文件Inference模型
PP-OCRv4_mobile_detBaseline72.714.7198.4-Model
PP-OCRv4_mobile_det量化+蒸馏71.383.3205.2ConfigModel
PP-OCRv4_server_detBaseline79.7750.02159.4-Model
PP-OCRv4_server_det量化+蒸馏79.8142.41834.8ConfigModel
  • GPU测试环境:Tesla V100, cuda11.7+tensorrt8.4.2.4+paddle2.5.2
  • CPU测试环境:Intel(R) Xeon(R) Gold 6271C,使用12线程测试
  • PP-OCRv4_server_det在不完整的数据集上测试,数据处理流程参考ppocrv4_det_server数据集预处理,仅为了展示自动压缩效果,指标并不具有参考性,模型真实表现请参考PPOCRV4介绍

PPOCRV4_rec

模型策略Metric(accuracy)GPU 耗时(ms)ARM CPU 耗时(ms)配置文件Inference模型
中文PPOCRV4-rec_mobileBaseline78.921.733.3-Model
中文PPOCRV4-rec_mobile量化+蒸馏78.411.434.0ConfigModel
中文PPOCRV4-rec_serverBaseline81.624.062.5-Model
中文PPOCRV4-rec_server量化+蒸馏81.032.064.4ConfigModel
  • GPU测试环境:Tesla V100, cuda11.2+tensorrt8.0.3.4+paddle2.5
  • CPU测试环境:Intel(R) Xeon(R) Gold 6271C,使用12线程测试

3. 自动压缩流程

3.1 准备环境

  • PaddlePaddle == 2.5 (可从Paddle官网下载安装)
  • PaddleSlim == 2.5
  • PaddleOCR == develop

安装paddlepaddle:

shell
# CPU
python -m pip install paddlepaddle==2.5.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
# GPU 以Ubuntu、CUDA 10.2为例
python -m pip install paddlepaddle-gpu==2.5.1.post102 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html

安装paddleslim 2.5:

shell
pip install paddleslim@git+https://gitee.com/paddlepaddle/PaddleSlim.git@release/2.5

安装其他依赖:

shell
pip install scikit-image imgaug

下载PaddleOCR:

shell
git clone -b release/2.7 https://github.com/PaddlePaddle/PaddleOCR.git
cd PaddleOCR/
pip install -r requirements.txt

3.2 准备数据集

公开数据集可参考OCR数据集,然后根据程序运行过程中提示放置到对应位置。

3.2.1 PPOCRV4_det_server数据集预处理

PPOCRV4_det_server在使用原始数据集推理时,默认将输入图像的最小边缩放到736,然而原始数据集中存在一些长宽比很大的图像,比如13:1,此时再进行缩放就会导致长边的尺寸非常大,在实验过程中发现最大的长边尺寸有10000+,这导致在构建TensorRT子图的时候显存不足。

为了能顺利跑通自动压缩的流程,展示自动压缩的效果,因此需要对原始数据集进行预处理,将长宽比过大的图像进行剔除,处理脚本可见ppocrv4_det_server_dataset_process.py

注意:使用不同的数据集需要修改配置文件中dataset中数据路径和数据处理部分。

3.3 准备预测模型

预测模型的格式为:model.pdmodelmodel.pdiparams两个,带pdmodel的是模型文件,带pdiparams后缀的是权重文件。

注:其他像__model____params__分别对应model.pdmodelmodel.pdiparams文件。

可在PaddleOCR模型库中直接获取Inference模型,具体可参考下方获取中文PPOCRV4模型示例:

shell
https://paddleocr.bj.bcebos.com/PP-OCRv4/chinese/ch_PP-OCRv4_rec_infer.tar
tar -xf ch_PP-OCRv4_rec_infer.tar
shell
wget https://paddleocr.bj.bcebos.com/PP-OCRv4/chinese/ch_PP-OCRv4_det_infer.tar
tar -xf ch_PP-OCRv4_det_infer.tar

蒸馏量化自动压缩示例通过run.py脚本启动,会使用接口 paddleslim.auto_compression.AutoCompression 对模型进行量化训练和蒸馏。配置config文件中模型路径、数据集路径、蒸馏、量化和训练等部分的参数,配置完成后便可开始自动压缩。

单卡启动

shell
export CUDA_VISIBLE_DEVICES=0
python run.py --save_dir='./save_quant_ppocrv4_det/' --config_path='./configs/ppocrv4/ppocrv4_det_qat_dist.yaml'

多卡启动

若训练任务中包含大量训练数据,如果使用单卡训练,会非常耗时,使用分布式训练可以达到几乎线性的加速比。

shell
export CUDA_VISIBLE_DEVICES=0,1,2,3
python -m paddle.distributed.launch run.py --save_dir='./save_quant_ppocrv4_det/' --config_path='./configs/ppocrv4/ppocrv4_det_qat_dist.yaml'

多卡训练指的是将训练任务按照一定方法拆分到多个训练节点完成数据读取、前向计算、反向梯度计算等过程,并将计算出的梯度上传至服务节点。服务节点在收到所有训练节点传来的梯度后,会将梯度聚合并更新参数。最后将参数发送给训练节点,开始新一轮的训练。多卡训练一轮训练能训练batch size * num gpus的数据,比如单卡的batch size为32,单轮训练的数据量即32,而四卡训练的batch size为32,单轮训练的数据量为128。

注意 learning ratebatch size 呈线性关系,这里单卡 batch size 8,对应的 learning rate 为0.00005,那么如果 batch size 增大4倍改为32,learning rate 也需乘以4;多卡时 batch size 为8,learning rate 需乘上卡数。所以改变 batch size 或改变训练卡数都需要对应修改 learning rate

验证精度

根据训练log可以看到模型验证的精度,若需再次验证精度,修改配置文件./configs/ppocrv3_det_qat_dist.yaml中所需验证模型的文件夹路径及模型和参数名称model_dir, model_filename, params_filename,然后使用以下命令进行验证:

shell
export CUDA_VISIBLE_DEVICES=0
python eval.py --config_path='./configs/ppocrv3_det_qat_dist.yaml'

4.预测部署

4.1 Paddle Inference 验证性能

输出的量化模型也是静态图模型,静态图模型在GPU上可以使用TensorRT进行加速,在CPU上可以使用MKLDNN进行加速。

TensorRT预测环境配置:

  1. 如果使用 TesorRT 预测引擎,需安装 WITH_TRT=ON 的Paddle,上述paddle下载的2.5满足打开TensorRT编译的要求。
  2. 使用TensorRT预测需要进一步安装TensorRT,安装TensorRT的方式参考TensorRT安装说明

以下字段用于配置预测参数:

参数名含义
model_pathinference 模型文件所在目录,该目录下需要有文件 .pdmodel 和 .pdiparams 两个文件
model_filenameinference_model_dir文件夹下的模型文件名称
params_filenameinference_model_dir文件夹下的参数文件名称
dataset_config数据集配置的config
image_file待测试单张图片的路径,如果设置image_file,则dataset_config将无效。
device预测时的设备,可选:CPU, GPU
use_trt是否使用 TesorRT 预测引擎,在device为GPU时生效。
use_mkldnn是否启用MKL-DNN加速库,注意use_mkldnn,在device为CPU时生效。
cpu_threadsCPU预测时,使用CPU线程数量,默认10
precision预测时精度,可选:fp32, fp16, int8

准备好预测模型,并且修改dataset_config中数据集路径为正确的路径后,启动测试:

4.1.1 使用测试脚本进行批量测试:

我们提供两个脚本文件用于测试模型自动化压缩的效果,分别是test_ocr_det.shtest_ocr_rec.sh,这两个脚本都接收一个model_type参数,用于区分是测试mobile模型还是server模型,可选参数为mobileserver,使用示例:

shell
# 测试mobile模型
bash test_ocr_det.sh mobile
bash test_ocr_rec.sh mobile
# 测试server模型
bash test_ocr_det.sh server
bash test_ocr_rec.sh server
4.1.2 基于压缩模型进行基于GPU的批量测试:
shell
cd deploy/slim/auto_compression
python test_ocr.py \
      --model_path save_quant_ppocrv4_det \
      --config_path configs/ppocrv4/ppocrv4_det_qat_dist.yaml \
      --device GPU  \
      --use_trt True  \
      --precision int8
4.1.3 基于压缩前模型进行基于GPU的批量测试:
shell
cd deploy/slim/auto_compression
python test_ocr.py \
      --model_path ch_PP-OCRv4_det_infer \
      --config_path configs/ppocrv4/ppocrv4_rec_det_dist.yaml \
      --device GPU  \
      --use_trt True  \
      --precision int8
4.1.4 基于压缩模型进行基于CPU的批量测试:
  • MKLDNN预测:
shell
cd deploy/slim/auto_compression
python test_ocr.py \
      --model_path save_quant_ppocrv4_det \
      --config_path configs/ppocrv4/ppocrv4_det_qat_dist.yaml \
      --device GPU  \
      --use_trt True  \
      --use_mkldnn=True \
      --precision=int8 \
      --cpu_threads=10

4.2 PaddleLite端侧部署

PaddleLite端侧部署可参考:

5.FAQ

5.1 报错找不到模型文件或者数据集文件

如果在推理或者跑ACT时报错找不到模型文件或者数据集文件,可以检查一下配置文件中的路径是否正确,以det_mobile为例,配置文件中的指定模型路径的配置信息如下:

yaml
Global:
  model_dir: ./models/ch_PP-OCRv4_det_infer
  model_filename: inference.pdmodel
  params_filename: inference.pdiparams

指定训练集验证集路径的配置信息如下:

yaml
Train:
  dataset:
    name: SimpleDataSet
    data_dir: datasets/chinese
    label_file_list:
        - datasets/chinese/zhongce_training_fix_1.6k.txt
        - datasets/chinese/label_train_all_f4_part2.txt
        - datasets/chinese/label_train_all_f4_part3.txt
        - datasets/chinese/label_train_all_f4_part4.txt
        - datasets/chinese/label_train_all_f4_part5.txt
        - datasets/chinese/synth_en_my_clip.txt
        - datasets/chinese/synth_ch_my_clip.txt
        - datasets/chinese/synth_en_my_largeword_clip.txt
Eval:
  dataset:
    name: SimpleDataSet
    data_dir: datasets/v4_4_test_dataset
    label_file_list:
      - datasets/v4_4_test_dataset/label.txt

5.2 软件环境一致,硬件不同导致精度差异很大?

这种情况是正常的,TensorRT针对不同的硬件设备有着不同的优化方法,同一种优化策略在不同硬件上可能有着截然不同的表现,以本实验的ppocrv4_det_server为举例。截取test_ocr.py中的一部分代码如下所示:

python
if args.precision == 'int8' and "ppocrv4_det_server_qat_dist.yaml" in args.config_path:
    # Use the following settings only when the hardware is a Tesla V100. If you are using
    # a RTX 3090, use the settings in the else branch.
    pred_cfg.enable_tensorrt_engine(
        workspace_size=1 << 30,
        max_batch_size=1,
        min_subgraph_size=30,
        precision_mode=precision_map[args.precision],
        use_static=True,
        use_calib_mode=False, )
    pred_cfg.exp_disable_tensorrt_ops(["elementwise_add"])
else:
    pred_cfg.enable_tensorrt_engine(
    workspace_size=1 << 30,
    max_batch_size=1,
    min_subgraph_size=4,
    precision_mode=precision_map[args.precision],
    use_static=True,
    use_calib_mode=False, )

当硬件为RTX 3090的时候,使用else分支中的策略即可得到正常的结果,但是当硬件是Tesla V100的时候,必须使用if分支中的策略才能保证量化后精度不下降,具体结果参考benchmark