以下链接是个人关于行为分析(商用级别)所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信:17575010159 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。文末附带 公 众 号 − \color{blue}{公众号 -} 公众号− 海 量 资 源 。 \color{blue}{ 海量资源}。 海量资源。
行为分析(商用级别)00-目录-史上最新无死角讲解
本人提供(强烈推荐)下面的这些链接,无论是源码,还是数据集等等,都是本人处理过的。是完全配套的,如果出现比较特别的bug,请联系本人。 下 载 之 后 请 按 照 本 人 的 说 明 进 行 摆 放 \color{red}{下载之后请按照本人的说明进行摆放} 下载之后请按照本人的说明进行摆放
(1)github源码(希望大家能给个star):https://github.com/Wenhai-Zhu/JN-OpenLib-mmaction2
(2)所有相关数据集(目前包含得部分如下): 链接:https://pan.baidu.com/s/1hLs_5fv0ebovbPZ4Rx37LA 提取码:ajsc
ava: 该数据集为本人经过初步处理过的数据集,后续还需要进一步通过脚本处理(已集成)
annotations 包含了其所有注释文件
videos_15min 切割成15分钟之后的视频(训练以及测试的视频数据)
该数据集的详细信息如下链接:https://blog.csdn.net/irving512/article/details/107212801
Interaction(UT-Interaction) 人类动作视频数据: 该数据集为使用via3标注工具标注的数据集,后续会讲解该标注工具的使用,使用该数据集标注的数据,我们可以直接进行训练
annotations 包含了其所有注释文件
images:(训练以及测试的测试数据)
标注工具下载链接(请下载vi3): https://www.robots.ox.ac.uk/~vgg/software/via/
也可以通过本人的百度云: 链接:https://pan.baidu.com/s/1xUV2A9dIlwl8-0Kd5767HA 提取码:ixh6
注释文件解析:https://gitlab.com/vgg/via/-/blob/via-3.x.y/via-3.x.y/CodeDoc.md#structure-of-via-project-json-file
(3)所有预训练模型: 链接:https://pan.baidu.com/s/1vrFAGotiPix0XpT3arkoTg 提取码:mrz6
mmaction : 动作识别的模型
# 官方在训练ava数据集之前,使用 kinetics 数据集训练获得的预训练模型
slowfast_kinetics_pretrained_r50_8x8x1_20e_ava_rgb_20201217-ae225e97.pth
mmdetection : 行人检测的模型
faster_rcnn_r50_fpn_2x_coco_bbox_mAP-0.384_20200504_210434-a5d8aa15.pth
如果因为工程需求,想要更快、更好的行人检测模型,请加本人微信私聊。
下载好之后呢,大家主要获得三个文件夹,本人的分布如下(请大家严格按照该方式进行摆放,未熟悉代码之前,暂时不要修改文件名):
官方提供
下面的这些链接,是官方的源码。本人就是再这些源码上进行修改,然后整合成一个项目(最终变成了上面的代码):
mmaction2-v0.12.0:https://github.com/open-mmlab/mmaction2/tree/v0.12.0