[发明专利]视频场景中的物件侦测系统与方法无效
申请号: | 201010129494.5 | 申请日: | 2010-03-23 |
公开(公告)号: | CN102201121A | 公开(公告)日: | 2011-09-28 |
发明(设计)人: | 陈建霖;杨智程 | 申请(专利权)人: | 鸿富锦精密工业(深圳)有限公司;鸿海精密工业股份有限公司 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06K9/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518109 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 场景 中的 物件 侦测 系统 方法 | ||
1.一种视频场景中的物件侦测方法,其特征在于,该方法包括如下步骤:
(a)设定一个空背景模型,接收N幅彩色视频场景中的第一幅视频场景;
(b)将该存入了第一幅视频场景的背景模型作为现有背景模型,以第二幅视频场景为当前场景;
(c)将该当前场景中的各像素与现有背景模型中的像素进行比较,以确定相应像素间的像素值之差和亮度差值;
(d)当所述确定的像素值之差和亮度差值均小于或等于预先设定的门槛值时,判定该像素为背景像素,将该像素加入现有背景模型中生成新背景模型,且由所有背景像素组成的物件为背景物件;或
(e)当上述确定的像素值之差和亮度差值均大于所述预先设定的门槛值时,判定该像素为前景像素,由所有前景像素组成的物件为前景物件;及
(f)依次将所述N幅视频场景中的第三至第N幅视频场景中的一幅视频场景作为当前场景,并将侦测该当前场景之前的所有场景得到的背景模型作为现有背景模型,执行步骤(c)至步骤(e)以侦测出每幅视频场景中的前景物件和背景物件。
2.如权利要求1所述的视频场景中的物件侦测方法,其特征在于,在步骤(d)与步骤(e)之间,该方法还包括步骤:
(d1)暂存所述前景像素及所述现有背景模型得到一个暂存背景模型B;
(d2)监控该暂存背景模型B中的各像素的像素值和亮度值在预设时间间隔内是否有变化;
(d3)若该暂存背景模型B中的各像素的像素值和亮度值在所述预设时间间隔内没有变化,则以该暂存背景模型B更新所述现有背景模型后生成新背景模型;或
(d4)若该暂存背景模型B中的像素的像素值和亮度值在所述预设时间间隔内有变化,变化后的暂存背景模型为B`,则返回步骤(d2)监控该暂存背景模型B`在预设时间间隔内是否有变化。
3.一种视频场景中的物件侦测系统,运行于电子设备中,其特征在于,该系统包括:
模型建立单元,用于设定一个空背景模型,接收N幅彩色视频场景中的第一幅视频场景;
像素分离单元,用于将该存入了第一幅视频场景的背景模型作为现有背景模型,以第二幅视频场景为当前场景,将该当前场景中的各像素与现有背景模型中的像素进行比较,以确定相应像素间的像素值之差和亮度差值,当所确定的像素值之差和亮度差值均小于或等于预先设定的门槛值时,判定该像素为背景像素,由所有背景像素组成的物件为背景物件,或当所确定的像素值之差和亮度差值均大于所述预先设定的门槛值时,判定该像素为前景像素,由所有前景像素组成的物件为前景物件;及
存储单元,用于将所述背景像素加入现有背景模型中生成新背景模型;及
所述像素分离单元还用于依次将所述N幅视频场景中的第三至第N幅视频场景中的一幅视频场景作为当前场景,并将侦测该当前场景之前的所有场景得到的背景模型作为现有背景模型,继续将上述当前场景与现有背景模型中相应像素进行比较,直到侦测出每幅视频场景中的前景物件和背景物件。
4.如权利要求3所述的视频场景中的物件侦测系统,其特征在于,所述存储单元还用于暂存所述前景像素及现有背景模型得到一个暂存背景模型B。
5.如权利要求4所述的视频场景中的物件侦测系统,其特征在于,该系统还包括:
暂存背景模型监控单元,用于实时监控所述暂存背景模型B中的像素的像素值和亮度值在预设时间间隔内是否有变化;及
背景模型更新单元,用于当上述监控的结果为该暂存背景模型B中的各像素的像素值和亮度值在所述预设时间间隔内没有变化时,以该暂存背景模型B更新所述现有背景模型后生成新背景模型。
6.如权利要求5所述的视频场景中的物件侦测系统,其特征在于,所述暂存背景模型监控单元还用于当上述监控的结果为该暂存背景模型B中的像素的像素值和亮度值在所述预设时间间隔内有变化,且变化后的暂存背景模型为B`时,监控该暂存背景模型B`在所述预设时间间隔内是否有变化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于鸿富锦精密工业(深圳)有限公司;鸿海精密工业股份有限公司,未经鸿富锦精密工业(深圳)有限公司;鸿海精密工业股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201010129494.5/1.html,转载请声明来源钻瓜专利网。