[发明专利]一种大学舞蹈考试测评方法及装置在审
| 申请号: | 202011147588.5 | 申请日: | 2020-10-23 |
| 公开(公告)号: | CN112381118A | 公开(公告)日: | 2021-02-19 |
| 发明(设计)人: | 邵进圆 | 申请(专利权)人: | 百色学院 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00;G06Q50/20 |
| 代理公司: | 河南豫龙律师事务所 41177 | 代理人: | 王长坤 |
| 地址: | 533000 广西*** | 国省代码: | 广西;45 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 大学 舞蹈 考试 测评 方法 装置 | ||
1.一种大学舞蹈考试测评方法,其特征在于,包括下述步骤:
采集学生舞蹈考试的现场视频;
获取网络上只标注动作类别的大量舞蹈动作图片,构建舞蹈图片集;
将所述舞蹈图片集作为训练集,传入预设的TLSVM模型,识别出所述训练集中不同动作种类;
获取所述不同动作种类对应的图像特征空间,并基于随机聚类森林的线性变换法,获取所述图像特征空间映射的视频特征空间,确定每一个所述视频特征空间对应的时空区域,构建所述训练集对应的时空区域集合;
将所述现场视频作为测试集,获取所述测试集中每一个动作对应的视频特征空间,确定所述视频特征空间对应的时空区域,作为测试时空区域;
基于所述时空区域集合,确定所述测试时空区域对应的时空区域,基于所述时空区域识别所述现场视频中不同的舞蹈动作;
将所述现场视频中识别出舞蹈动作与预设的测试舞蹈动作进行对比,并基于预设算法确定两者间的相似度,将所述相似度作为测评结果,完成大学舞蹈考试测评。
2.根据权利要求1所述的大学舞蹈考试测评方法,其特征在于,所述获取网络上只标注动作类别的大量舞蹈动作图片,包括:
将舞蹈动作图片作为关键词,基于大数据检索的方式在互联网上进行检索,下载大量所述舞蹈动作图片。
3.根据权利要求2所述的大学舞蹈考试测评方法,其特征在于,所述预设的TLSVM模型,识别出所述训练集中不同动作种类,包括步骤如下:
对所述训练集中不同舞蹈图片,进行人物图像获取,确定所述人物图像中的不同肢体位置;
基于所述不同肢体位置,构建肢体位置集,其中,所述肢体位置集包括:左手集、右手集、左腿集、右腿集、头部集、人体躯干集;
基于所述肢体位置集,确定所述不同肢体位置对应的时空区域;
通过判定所述不同肢体位置对应的所述时空区域,识别出所述训练集中不同动作种类。
4.根据权利要求1至3任一项所述的大学舞蹈考试测评方法,其特征在于,所述获取所述不同动作种类对应的图像特征空间,包括:
获取所述不同动作种类对应的不同肢体位置,基于Hessian矩阵的方式,识别所述不同肢体对应空间的极值;
基于所述极值,构建不同肢体对应的尺度空间;
获取所述尺度空间中的特征点,并进行过滤,对所述特征点进行精确定位;
获取所述不同特征点的主方向和所述不同特征点的特征值,基于所述主方向和特征值构建所述不同特征点对应形状特征,将所述形状特征作为所述不同动作种类对应的图像特征空间。
5.根据权利要求4所述的大学舞蹈考试测评方法,其特征在于,所述获取所述测试集中每一个动作对应的视频特征空间,包括:
对所述测试集进行视频分割处理,将所述测试集分割成连贯的图像;
获取所述图像的颜色特征,纹理特征,人物形状特征;
分别获取所述图像的图像特征空间,并基于随机聚类森林的线性变换法,获取所述图像特征空间映射的视频特征空间。
6.根据权利要求5所述的大学舞蹈考试测评方法,其特征在于,所述确定所述视频特征空间对应的时空区域,作为测试时空区域,包括:
获取视频中人物对应的二维图像块;
基于所述视频时间顺序,对所述二维图像块进行三维图像块构建;
将所述三维图像块对应的立方体块,作为所述视频特征空间对应的测试时空区域。
7.根据权利要求5或6所述的大学舞蹈考试测评方法,其特征在于,所述基于预设算法确定两者间的相似度,将所述相似度作为测评结果,完成大学舞蹈考试测评,包括:
若测评学生为单人测评,则直接将所述现场视频中识别出舞蹈动作与预设的测试舞蹈动作进行对比,判断动作的相似度,若所述相似度超过预设的测评合格阈值,则所述学生测评结果合格,否则,所述学生测评结果不合格;
若测评学生为小组测评,则获取所述现场视频中识别出舞蹈动作与预设的测试舞蹈动作进行对比,判断小组中所有学生的动作相似度,并进行相似度平均值获取,若所述相似度平均值超过预设的测评合格阈值,则所述小组测评结果合格,否则,所述测评学生测评结果不合格。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百色学院,未经百色学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011147588.5/1.html,转载请声明来源钻瓜专利网。





