[发明专利]一种基于GAN的电力场所有害生物运动模糊图像检测方法在审
| 申请号: | 201910786873.2 | 申请日: | 2019-08-24 |
| 公开(公告)号: | CN110472699A | 公开(公告)日: | 2019-11-19 |
| 发明(设计)人: | 钟尚平;叶东阳;陈开志 | 申请(专利权)人: | 福州大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/02;G06T5/00 |
| 代理公司: | 35100 福州元创专利商标代理有限公司 | 代理人: | 钱莉;蔡学俊<国际申请>=<国际公布>= |
| 地址: | 350108 福建省福州市闽*** | 国省代码: | 福建;35 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 神经网络模型 检测结果 模糊图像 清晰图片 生物入侵 生物运动 输入图片 运动模糊 检测 标注 还原 样本 对抗 引入 图片 网络 | ||
1.一种基于GAN的电力场所有害生物运动模糊图像检测方法,其特征在于,引入生成对抗网络M1,将输入图片中的运动模糊图片还原成清晰图片,利用已经标注的有害动物的样本进行训练,得到训练好的神经网络模型M2;将输入的图片先后经过M1与M2,得到检测结果。
2.根据权利要求1所述的一种基于GAN的电力场所有害生物运动模糊图像检测方法,其特征在于,具体包括以下步骤:
步骤S1:收集电力场所有害生物的数据集,对数据集进行分类和画框标签,将数据集划分为用于训练生成对抗网络的数据集以及用于训练目标检测模型的数据集;
步骤S2:将用于训练生成对抗网络的数据集图片输入生成器生成伪造图片;
步骤S3:将生成器生成的图片和真实的图片送入判别器判断真假,训练网络权重,得到生成对抗网络模型M1;
步骤S4:用残差网络提取图像特征;
步骤S5:RPN阶段判断是正负样本,并预测物体边框位置;
步骤S6:经过ROI Pooling将不同大小的输入转换成相同大小的输出;
步骤S7:输出候选区所属的位置和所属的类别来训练模型参数,并得到训练好的目标检测模型M2;
步骤S8:将待测图片输入训练好的生成对抗网络M1,生成清晰的图像,再将生成的图像输入训练好的目标检测模型M2,输出预测的物体类别和预测的物体位置。
3.根据权利要求2所述的一种基于GAN的电力场所有害生物运动模糊图像检测方法,其特征在于,步骤S2中,所述生成器由两个步长为0.5的跨步卷积块、九个残余块和两个转置卷积块构成;每个残余块由卷积层,实例标准化层和ReLU激活层组成。
4.根据权利要求2所述的一种基于GAN的电力场所有害生物运动模糊图像检测方法,其特征在于,步骤S3中,所述判别器的架构采用Patchgan结构,在训练过程中,采用WGAN-GP,其中判别器的损失函数公式为:
式中,Loss是损失函数值,为生成图像的分布,x~pr为真实图像的分布;D(*)表示判别器,▽表示梯度;是从Pg和Pr的联合空间里采样,即:
其中,ε~Uniform[0,1]。
5.根据权利要求2所述的一种基于GAN的电力场所有害生物运动模糊图像检测方法,其特征在于,步骤S4具体为,用resnet50提取用于训练目标检测模型的数据集里图像的特征,得到feature maps。
6.根据权利要求2所述的一种基于GAN的电力场所有害生物运动模糊图像检测方法,其特征在于,步骤S5具体包括以下步骤:
步骤S51:将步骤S3提取的图像特征经过3X3的卷积,提升特征信息;然后将特征图的每一个点生成9个anchor;
步骤S52:对每个像素的9个anchor进行二分类,判断其是正负样本;
步骤S53:通过对ground truth box与预测的anchor box之间的差异来进行学习,从而使RPN网络中的权重能够学习到预测box的能力。
7.根据权利要求7所述的一种基于GAN的电力场所有害生物运动模糊图像检测方法,其特征在于,步骤S52具体包括以下步骤:
步骤S521:去除掉超过原图边界的anchor box;
步骤S522:如果anchor box与ground truth的IOU值最大,标记为正样本,并令label=1;
步骤S523:如果anchor box与ground truth的IOU大于0.7,标记为正样本,则令label=1;
步骤S524:如果anchor box与ground truth的IOU小于0.3,标记为负样本,label=0;
步骤S525:不满足步骤S522至步骤S524中条件的既不是正样本,也不是负样本,不用于最终训练,令其label=-1。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910786873.2/1.html,转载请声明来源钻瓜专利网。





