pytorch_keypoint/HRNet/README.md
pip install pycocotools; Windows:pip install pycocotools-windows(不需要额外安装vs))requirements.txt ├── model: 搭建HRNet相关代码
├── train_utils: 训练验证相关模块(包括coco验证相关)
├── my_dataset_coco.py: 自定义dataset用于读取COCO2017数据集
├── person_keypoints.json: COCO数据集中人体关键点相关信息
├── train.py: 单GPU/CPU训练脚本
├── train_multi_GPU.py: 针对使用多GPU的用户使用
├── predict.py: 简易的预测脚本,使用训练好的权重进行预测
├── validation.py: 利用训练好的权重验证/测试数据的COCO指标,并生成record_mAP.txt文件
└── transforms.py: 数据增强相关
由于原作者提供的预训练权重(Imagenet和COCO)是放在GoogleDrive和OneDrive上的,国内无法正常访问。所有我提前将权重文件全部下载并放在百度网盘中, 需要的可以自行下载,链接:https://pan.baidu.com/s/1Lu6mMAWfm_8GGykttFMpVw 提取码:f43o
下载后的目录结构如下:
├── pytorch
├── pose_mpii
├── pose_coco
│ ├── pose_resnet_50_384x288.pth
│ ├── pose_resnet_50_256x192.pth
│ ├── pose_resnet_101_384x288.pth
│ ├── pose_resnet_101_256x192.pth
│ ├── pose_hrnet_w32_384x288.pth
│ └── pose_hrnet_w32_256x192.pth
└── imagenet
├── resnet50-19c8e357.pth
├── resnet152-b121ed2d.pth
├── resnet101-5d3b4d8f.pth
└── hrnet_w32-36af842e.pth
如果要直接使用在COCO数据集上预训练好的权重进行预测,下载pose_coco下的pose_hrnet_w32_256x192.pth使用即可。
如果要从头训练网络,下载imagenet下的hrnet_w32-36af842e.pth文件,并重命名为hrnet_w32.pth即可。
除此之外,还有一个person_detection_results文件,存储的是论文中提到的人体检测器的检测结果,如果需要使用可以下载,但个人建议直接使用COCO val中GT信息即可。
链接: https://pan.baidu.com/s/19Z4mmNHUD934GQ9QYcF5iw 密码: i08q
2017 Train images [118K/18GB]:训练过程中使用到的所有图像文件2017 Val images [5K/1GB]:验证过程中使用到的所有图像文件2017 Train/Val annotations [241MB]:对应训练集和验证集的标注json文件coco2017文件夹下,可得到如下文件夹结构:├── coco2017: 数据集根目录
├── train2017: 所有训练图像文件夹(118287张)
├── val2017: 所有验证图像文件夹(5000张)
└── annotations: 对应标注文件夹
├── instances_train2017.json: 对应目标检测、分割任务的训练集标注文件
├── instances_val2017.json: 对应目标检测、分割任务的验证集标注文件
├── captions_train2017.json: 对应图像描述的训练集标注文件
├── captions_val2017.json: 对应图像描述的验证集标注文件
├── person_keypoints_train2017.json: 对应人体关键点检测的训练集标注文件
└── person_keypoints_val2017.json: 对应人体关键点检测的验证集标注文件夹
--num-joints(对于人体检测的关键点个数,COCO是17个点)、--fixed-size(输入目标图像的高宽,默认[256, 192])和--data-path(指向coco2017目录)torchrun --nproc_per_node=8 train_multi_GPU.py指令,nproc_per_node参数为使用GPU数量CUDA_VISIBLE_DEVICES=0,3(例如我只要使用设备中的第1块和第4块GPU设备)CUDA_VISIBLE_DEVICES=0,3 torchrun --nproc_per_node=2 train_multi_GPU.py--data-path设置为自己存放数据集的根目录:
假设要使用COCO数据集,启用自定义数据集读取CocoDetection并将数据集解压到成/data/coco2017目录下python train.py --data-path /data/coco2017
results.txt是每个epoch在验证集上的COCO指标,前10个值是COCO指标,后面两个值是训练平均损失以及学习率weights_path设置为你自己生成的权重路径。https://www.bilibili.com/video/BV1bB4y1y7qP
https://www.bilibili.com/video/BV1ar4y157JM