[发明专利]一种赛况展示方法、装置、计算机设备及可读存储介质在审
申请号: | 202011384047.4 | 申请日: | 2020-11-30 |
公开(公告)号: | CN114584685A | 公开(公告)日: | 2022-06-03 |
发明(设计)人: | 侯欣如 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | H04N5/222 | 分类号: | H04N5/222;H04N5/262 |
代理公司: | 北京中知恒瑞知识产权代理事务所(普通合伙) 11889 | 代理人: | 吴迪 |
地址: | 100080 北京市海淀区北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 赛况 展示 方法 装置 计算机 设备 可读 存储 介质 | ||
本公开实施例提供了一种赛况展示方法、装置、计算机设备及可读存储介质,通过根据增强现实AR设备拍摄的现实场景图像,确定处于运动状态的目标运动对象;获取所述目标运动对象呈现出的运动动作的动作解析信息;基于所述动作解析信息以及所述现实场景图像,控制所述AR设备展示所述目标运动对象呈现所述运动动作时的AR特效。
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种赛况展示方法、装置、计算机设备及可读存储介质。
背景技术
目前,人们在观看体育赛事时,例如体操、跳水、花样滑冰等,大多是坐在体育馆、体育场的观众席现场观看,或者是坐在电视、电脑等显示设备前,观看运动员运动,在运动员进行比赛或者表演完成后,有现场的赛事解说才能了解赛况信息,并且播放得分等信息,用户了解运动信息和比赛内容具有时间差,观赛过程呈现内容局限、呆板。
发明内容
本公开实施例至少提供一种赛况展示方法、装置、计算机设备及可读存储介质。
第一方面,本公开实施例提供了一种赛况展示方法,所述方法包括:
根据增强现实AR设备拍摄的现实场景图像,确定处于运动状态的目标运动对象;
获取所述目标运动对象呈现出的运动动作的动作解析信息;
基于所述动作解析信息以及所述现实场景图像,控制所述AR设备展示所述目标运动对象呈现所述运动动作时的AR特效。
这样,通过AR设备拍摄的现实场景图像确定目标运动对象,并根据目标运动对象的动作解析信息以及现实场景图像,通过AR设备展示目标运动对象运动的AR特效,可以使得所展示的比赛内容更加丰富多彩,给用户提供更加直观多样的赛事内容,并且可以帮助用户及时和实时的了解运动员的动作解析信息,使得用户的观看更加具有针对性。
在一种可选的实施方式中,所述根据AR设备拍摄的现实场景图像,确定处于运动状态的目标运动对象,包括:
确定与所述现实场景图像匹配的目标赛事类型;
从所述现实场景图像中的至少一个运动对象中,确定正在呈现与所述目标赛事类型匹配的运动类型的所述目标运动对象。
这样,通过所述现实场景图像匹配的目标赛事类型确定目标运动对象,可以具有针对性的确定要展示AR效果的对象,使得后的动作解析信息的获取和呈现具有针对性,有助于提高内容呈现的准确性和针对性。
在一种可选的实施方式中,所述根据AR设备拍摄的现实场景图像,确定处于运动状态的目标运动对象,包括:
从所述现实场景图像中的至少一个运动对象中,识别与预设的参赛人脸数据库中存储的参赛者面部特征相匹配的运动对象;将识别出的运动对象确定为处于运动状态的目标运动对象;或者,
获取与所述现实场景图像呈现的赛事信息匹配的参赛标识;从所述现实场景图像中的至少一个运动对象中,识别出携带有所述参赛标识的运动对象;将识别出的运动对象确定为处于运动状态的目标运动对象;或者,
基于用户对所述现实场景图像中的至少一个运动对象的选择操作,确定处于运动状态的目标运动对象。
这样,通过人脸识别确定目标运动对象,或者通过参赛标识确定目标运动对象,或者通过用户的选择确定目标运动对象,可以通过不同方式确定目标运动对象,可以实现针对不同的情况下目标运动对象之间的识别切换。
在一种可选的实施方式中,所述动作解析信息包括动作评分结果;所述获取所述目标运动对象呈现出的运动动作的动作解析信息,包括:
通过设置于现实场景中的图像采集设备采集的现场赛事图像,或者所述AR设备采集的所述现实场景图像,识别所述目标运动对象的运动姿势信息,以及所述运动姿势信息对应的运动姿势类别;所述运动姿势信息中包括多个关键点的位置信息;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011384047.4/2.html,转载请声明来源钻瓜专利网。