基于人体姿态的时空动作检测(cpu fps25+)源码
最近更新 2024年09月26日
资源编号 43512

#热门
基于人体姿态的时空动作检测(cpu fps25+)源码

2022-09-26 AI 0 3,121
温馨提示丨请勿私下交易,出现任何后果均与本站无关!
增值服务:
安装指导
环境配置
二次开发
模板修改
源码安装
¥ 108人民币 特别注意:购买前请再三测试前端和后台功能是否有BUG!
立即下载 查看演示 注意事项
详情介绍

人体姿态估计目前最为广泛的应用是在智能监控中.随 着人们安防意识的提升以及监控技术的日益成熟,智能监控 系统的应用领域在不断扩大.智能监控与普通监控的区别主 要在于其将人体姿态估计算法、判断监控画面场景中的人体姿态,提取其中的关键信 息,当出现异常行为时及时向用户发出提示.
原文链接:https://blog.csdn.net/qq_34351067/article/details/124258600
本源码主要识别多人(最多5人).的异常行为:打架和摔倒,走动,站立。本源码可以在限时免费的云gpu上运行调试,也可以本地电脑运行,支持自建数据集和动作检测训练。售后加qq

计算机视觉中, 人体姿态估计是指基于视频,图像信息对人体的各个关节和刚性部件进行准确检测和有效组合, 其目的是获取人身体各个关键点的位置, 得到正确位置后, 对关键点进行正确的连接形成人体骨架信息, 后续研究可以利用骨架信息对人的动作和行为进行分析一般我们可以这个问题再具体细分成4个任务:

单人姿态估计 (Single-Person Skeleton Estimation)

多人姿态估计 (Multi-person Pose Estimation)

人体姿态跟踪 (Video Pose Tracking)

3D人体姿态估计 (3D Skeleton Estimation)

人体姿态估计在人机交互、智能监控、虚拟现实以及运动 分析等领域有着广阔的应用前景.本文主要介绍在人机交互 和智能监控领域的应用.。

人机交互: 人机交互指人与机器的互动和交流,目的是让机器人能 理解和模仿人的语言和行为,让人类能够更有效、更自然地与 机器人互动.想要实现互动自然,传统的输入输出方式是远 远不够的,人与人之间的互动交流在很大程度上依赖于语音 和视觉,因此 人 机 交 互 势 必 会 沿 着 语 音 和 视 觉 交 互 的 方 向 发展. 姿态估计作为计算机视觉。

人体姿态估计目前最为广泛的应用是在智能监控中.随 着人们安防意识的提升以及监控技术的日益成熟,智能监控 系统的应用领域在不断扩大.智能监控与普通监控的区别主 要在于其将人体姿态估计技术嵌入视频服务器中,运用算法 估计、判断监控画面场景中的人体姿态,提取其中的关键信 息,当出现异常行为时及时向用户发出警报. 智能监控可应用于校园、监狱、家居、医院等场景,例如, 将智能化监控引入校园,智能化监控系统利 用人体姿态估计监测学生的心理状态,有效防止校园暴力事 件的发生。

姿态估计还可应用于体育项 目、队列评分、智能驾驶、厅店零售等.例如,在体育领域建立人工智能教练系统来帮助运动员调整专业动作,为运动员提供个性化的运动训练体验。

 

自定义数据集概述:
根据生成数据集#fall1.mp4 ==0 fight1.mp4==1 stand1.mp4==2 walk1.mp4==3
用关键点模型从每个视频(视频格式720p MP4)提取骨骼关键点制作数据集.
fall(跌倒),0
fight(打架),1
stand(站立),2
walk1(走动),3
单个帧的输入(其中 j 指关节)存储为:

[ j0_x,j0_y,j1_x,j1_y,j2_x,j2_y,j3_x,j3_y,j4_x,j4_y,j5_x,j5_y,j6_x,j6_y,j7_x,j7_y,j8_x,j8_y,j9_x,j9_y,j10_x,j10_y,j11_x,j12_y, j12_y,j13_x,j13_y,j14_x,j14_y,j15_x,j15_y,j16_x,j16_y]

对于以下实验,对数据集进行了很少的预处理。 采取了以下步骤:

关键点模型 在单个帧上运行,针对每个主题、动作和视图,输出 17 个关节 x 和 y 位置关键点 以及每帧的准确度 转换为 txt 格式,仅保留每帧的 x 和 y 位置、帧期间执行的操作以及帧的顺序。这用于创建关联活动类别编号和相应系列的关节 2D 位置的数据库 没有进行进一步的预置。

 

方案说明:
使用关键点检测和多目标姿态跟踪获取视频输入中的行人及跟踪ID序号,对每个人的动作分别识别。
截取每个人,并使用得到对应的17个骨骼特征点,骨骼特征点的顺序及类型与COCO一致。
每个跟踪ID对应的目标行人各自累计骨骼特征点结果,组成该人物的时序关键点序列。当累计到预定帧数,动作检测模型判断时序关键点序列的动作类型,输出每个人动作标签。
可以直接在限时免费云gpu上运行
支持自定义数据集和训练自己的动作类别,支持本地摄像头推断。
自定义数据集方法:找单人的单动作类型的视频,不要找镜头一直切换的,要找像监控那样镜头基本不动的,不同视频可以用win10的视频编辑器拆分拼接为一个长视频,有几个动作类型就拼接几个长视频,视频格式为mp4,720p。
原博客地址:

demo视频

基于人体姿态的时空动作检测(cpu fps25+)源码

基于人体姿态的时空动作检测(cpu fps25+)源码

资源下载此资源下载价格为108人民币立即购买

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 AI 基于人体姿态的时空动作检测(cpu fps25+)源码 https://www.7claw.com/43512.html

常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、七爪会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、七爪无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在七爪上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于七爪介入快速处理。
查看详情
  • 1、七爪作为第三方中介平台,依据交易合同(商品描述、交易前商定的内容)来保障交易的安全及买卖双方的权益; 2、非平台线上交易的项目,出现任何后果均与互站无关;无论卖家以何理由要求线下交易的,请联系管理举报。
查看详情

相关文章

发表评论
2 条评论
2022年9月27日 下午9:19

人体姿态估计目前最为广泛的应用是在智能监控中.随 着人们安防意识的提升以及监控技术的日益成熟,智能监控 系统的应用领域在不断扩大.智能监控与普通监控的区别主 要在于其将人体姿态估计算法、判断监控画面场景中的人体姿态,提取其中的关键信 息,当出现异常行为时及时向用户发出提示.
原文链接:https://blog.csdn.net/qq_34351067/article/details/124258600
本源码主要识别多人(最多5人).的异常行为:打架和摔倒,走动,站立。本源码可以在限时免费的云gpu上运行调试,也可以本地电脑运行,支持自建数据集和动作检测训练。售后加qq

2022年10月19日 下午8:21

售后加qq 568897492

官方客服团队

为您解决烦忧 - 24小时在线 专业服务