[发明专利]一种面向智能电视应用的交互情景事件关联智能感知方法在审
申请号: | 201510312111.0 | 申请日: | 2015-06-09 |
公开(公告)号: | CN105007525A | 公开(公告)日: | 2015-10-28 |
发明(设计)人: | 冯志全;徐治鹏 | 申请(专利权)人: | 济南大学 |
主分类号: | H04N21/442 | 分类号: | H04N21/442;H04N21/485;H04N21/422 |
代理公司: | 济南舜源专利事务所有限公司 37205 | 代理人: | 商金婷 |
地址: | 250022 山东省济南市*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 智能 电视 应用 交互 情景 事件 关联 感知 方法 | ||
1.一种面向智能电视应用的交互情景事件关联智能感知方法,其特征在于:
捕获当前K时刻交互情景事件状态上下文信息tag和K时刻之前的用户体态行为轨迹的有效连续历史帧图像frames;
与体态行为模型模式数据库中的基本体态行为进行匹配,识别出用户当前的体态行为,据此辨识出当前发生的交互情景事件;
根据辨识出的交互情景事件推测出未来时刻将要激活发生的交互情景事件。
2.根据权利要求1所述的面向智能电视应用的交互情景事件关联智能感知方法,其特征在于:所述方法利用kinect3D体感设备获取K时刻之前的用户体态行为轨迹的有效连续历史帧图像frames。
3.根据权利要求2所述的面向智能电视应用的交互情景事件关联智能感知方法,其特征在于:所述基本体态行为包括:
WF:向前挥手
WA:左右挥手
WUD:上下挥手
Fist:握拳。
4.根据权利要求3所述的面向智能电视应用的交互情景事件关联智能感知方法,其特征在于:所述方法包括:
S1,初始化交互情景事件关联关系驱动图;
S2.检测K时刻的智能电视播放状态和kinect3D体感设备获取的连续图像帧中人体手势的动态动作信息,捕获体态行为;
S3,与人体行为数据模式库中基本的人体行为模型进行匹配,然后返回S2。
5.根据权利要求4所述的面向智能电视应用的交互情景事件关联智能感知方法,其特征在于:所述交互情景事件关联关系驱动图如下:
EDG=<(WPU-SmartTV,cxt).E,(WPU-SmartTV,cxt).V>;
其中,WPU-SmartTV表示用户使用智能电视观看电视节目的场景,cxt表示情景上下文信息;
(WPU-SmartTV,cxt).V=(V0,V1,V2,V3,V4);
其中,V0是节目播放状态情景事件、V1是体感手势操作功能开启情景事件、V2是频道调节情景事件、V3是音量调节情景事件、V4是手势操作功能关闭情景事件;
(WPU-SmartTV,cxt).E=(e01,e12,e13,e22,e23,e24,e32,e33,e34,e41)
其中,e01为WF;e12、e32为WUD;e13、e23为WA;e24、e34为Fist。
6.根据权利要求5所述的面向智能电视应用的交互情景事件关联智能感知方法,其特征在于:述S1是这样实现的:
A1、获取智能电视的基本功能状态标记参数,输入到顶点集(WPU-SmartTV,cxt).V的数组中;
A2、将基本体态行为模型数据库中的基本体态行为存储在边集(WPU-SmartTV,cxt).E的数组中;
A3,设置EDG的初始有效状态值tag=0,智能电视初始状态为V0。
7.根据权利要求6所述的面向智能电视应用的交互情景事件关联智能感知方法,其特征在于:所述S2是这样实现的:
B1,获取智能电视的基本功能状态标记参数,并赋值给tag;tag=0表示节目播放状态;tag=1表示打开体感操作功能状态;tag=2表示频道操作状态;tag=3表示音量操作状态;tag=4表示关闭体感操作功能;
B2,当tag=1时,获取人体手势的动作上下文信息:利用Kinect 3D体感设备获取人体深度信息,获取人手的动态手势运动轨迹信息,再利用Kinect3D体感设备获取到的深度图像信息和RGB图像信息,利用自然人手肤色模型对图像进行分割,获得自然人手的静态手势图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于济南大学,未经济南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510312111.0/1.html,转载请声明来源钻瓜专利网。