[发明专利]基于卷积神经网络的视频图像中家畜识别方法及装置在审
申请号: | 202110047803.2 | 申请日: | 2021-01-14 |
公开(公告)号: | CN112651381A | 公开(公告)日: | 2021-04-13 |
发明(设计)人: | 陈明;刘维丰;王丰 | 申请(专利权)人: | 南京通盛弘数据有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 冯艳芬 |
地址: | 210016 江苏省南京市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 卷积 神经网络 视频 图像 家畜 识别 方法 装置 | ||
本发明公开了一种基于卷积神经网络的视频图像中家畜识别方法及装置,主要包括:(1)建立家畜识别网络,所述家畜网络具体为YOLOv3改进网络,所述YOLOv3改进网络将YOLOv3网络的损失函数进行了改进;(2)采集若干已知家畜的图像,对图片进行特征提取,将提取的特征作为训练样本,输入家畜识别网络进行训练;(3)获取待识别家畜视频,将视频划分为若干图像帧,对图像帧进行特征提取,并输入训练好的家畜识别网络,从而识别出所有家畜。本发明识别性能和效果更好。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于卷积神经网络的视频图像中家畜识别方法及装置。
背景技术
计算机视觉技术起源于20世纪50年代,经过半个世纪的发展,目前已经广泛地应用于工业、医疗保险、航空航天、军事等各个领域,也划分出不同的方向,如图像分割、目标检测与目标跟踪等。随着人们对各个领域更加深入的研究,处理计算机视觉问题的技术也在不断更新。
目标检测,是指通过图像处理技术、模式识别、深度学习等领域的知识与方法,对视频图像中感兴趣的对象实现定位和分类。目标检测任务主要分为目标定位和目标分类两个任务。目标定位负责检测目标的位置,目标分类负责判断目标的类别。传统的目标检测算法主要分为两种:基于特征点匹配的目标检测算法和基于滑窗定位的目标检测算法。随着神经网络的发展,基于神经网络的目标检测技术发展起来,包括R-CNN,YOLO,SSD等算法,此类算法能够识别多种目标,在许多测试数据集上拥有优异的表现,但将此类算法在处理视频图像中的效果不好,性能有待提高。
发明内容
发明目的:本发明针对现有技术存在的问题,提供一种性能和效果更好的基于卷积神经网络的视频图像中家畜识别方法及装置。
技术方案:本发明所述的基于卷积神经网络的视频图像中家畜识别方法包括:
(1)建立家畜识别网络,所述家畜网络具体为YOLOv3改进网络,所述YOLOv3改进网络将YOLOv3网络的损失函数改进为:
式中,S2为网格的数目,B为先验框的数目,表示第i个网格的第j个先验框是否存在目标,存在为1不存在为0,
表示第i个网格的第j个先验框的坐标向量,坐标向量中从第一项到第四项分别对应表示该框中心点横坐标、纵坐标、宽、高,表示第i个网格的第j个真实框的坐标向量,表示第i个网格的第j个预测框的坐标向量;Cij为实际置信度,为预测置信度,pij(c)为c类存在的概率,为预测框中c类存在的概率;
(2)采集若干已知家畜的图像,对图片进行特征提取,将提取的特征作为训练样本,输入家畜识别网络进行训练;
(3)获取待识别家畜视频,将视频划分为若干图像帧,对图像帧进行特征提取,并输入训练好的家畜识别网络,从而识别出所有家畜。
进一步的,步骤(2)和(3)中特征提取的步骤具体为:将图片进行放缩变换,变换到416×416像素的同一尺度;使用darknet53网络对图片进行特征提取,得到三个尺度的特征。
进一步的,对家畜识别网络进行训练时采用迁移学习方式。识别到的所有家畜采用矩形框标记。
本发明所述的基于卷积神经网络的视频图像中家畜识别装置包括处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述方法。
有益效果:本发明与现有技术相比,其显著优点是:本发明对YOLOv3网络进行了改进,改进后的网络提高了边缘目标和模糊目标的检测效果,性能进一步提高,检测准确率为84.52%,可以使家畜管理者更加方便的利用视频监控,减轻牧场管理者的压力。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京通盛弘数据有限公司,未经南京通盛弘数据有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110047803.2/2.html,转载请声明来源钻瓜专利网。