[发明专利]一种基于无监督聚类和深度学习的群猪躺模式识别方法在审
| 申请号: | 202210081495.X | 申请日: | 2022-01-24 |
| 公开(公告)号: | CN114419674A | 公开(公告)日: | 2022-04-29 |
| 发明(设计)人: | 徐爱俊;徐金阳;周素茵;叶俊华 | 申请(专利权)人: | 浙江农林大学 |
| 主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/26;G06V10/28;G06V10/30;G06V10/762;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 杭州创造力专利代理事务所(普通合伙) 33332 | 代理人: | 冉国政 |
| 地址: | 311300 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 监督 深度 学习 群猪躺 模式识别 方法 | ||
1.一种基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:包括以下步骤,
采集初始数据集并对图像进行统一裁剪;
利用Grabcut图像分割的方法提取出目标图像;
通过动态阈值分割,使所述目标图像二值化,利用中值模糊滤波算法多次迭代,消除图像噪声的干扰并对移动生猪进行排除;
对分割区域进行标记,再进行分水岭分割,并在分割基础上进行椭圆拟合,同时获取每个拟合的椭圆的中心点;
基于椭圆拟合后的群猪图像,利用无监督聚类算法Mean-shift找到聚类中心,通过各个椭圆拟合中心到聚类中心的距离并输出其方差和标准差;
对所述标准差进行处理,使其数据的值映射到[0,1]之间,并将归一化后的数据定义为5等分,不同数值范围代表不同猪群聚集模式,并将每帧图像群猪聚集归一化后的方差和标准差作为训练数据输入至CNN-SVM模型分类器中;
利用训练完成的所述CNN-SVM模型对群猪躺模式进行识别。
2.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:所述标准差的映射处理,如下式,
式中,xi代表该某帧图像中生猪椭圆拟合的中心的坐标,Xi代表生猪椭圆拟合中心到聚类中心的距离,m代表一帧图像中生猪的数量,xcentroids-X代表该帧图像中聚类中心的坐标,SN-Fr(j)代表该图像帧中的标准差,Sx(j)*代表标准差标准化后的数值。
3.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:归一化出来的数据,定义的5等份分别为
4.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:所述CNN-SVM模型分类器内部框架的前一层的输入公式如下,
式中,xl-1i和zlj分别代表卷积层的输入和输出,kl-1ij权核是从l-1层的第i个神经元到l层的第j个神经元,dconv代表卷积操作,blj表示l层第j个神经元的偏差,Ml-1表示l-1层内核滤波器的数量。
5.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:ReLU激活函数公式如下,
xlj是下采样前的l层输出,当前层的输出表示如下:
式中,DS表示最大池函数,ylj是l层的输出同时是l+1的输入,最后一个池层的输出连接是全连接的输入。
6.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:所述CNN-SVM模型得到预测输出后,使用代价函数中带有交叉熵的softmax函数来计算预测误差E,公式如下,
式中,Yni,yni分别代表目标标签和预测输出,i为第n个训练集的类别数,模型学习的作用是优化无网络参数,使预测误差E最小化,其中权重和偏差随学习率(η)而更新。
7.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:使用随机梯度随机下降(SGD)作为优化算法,并应用权重的初始化,模型学习率(η)为0.001,卷积层和全连接层中权重和偏差更新公式如下,
8.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:利用多分类评价指标对所述CNN-SVM模型识别的群猪躺模式姿态进行评估。
9.如权利要求1所述的基于无监督聚类和深度学习的群猪躺模式识别方法,其特征在于:所述多分类评价指标为标准精度(P)、召回率(R)、F1和准确率(ACC)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江农林大学,未经浙江农林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210081495.X/1.html,转载请声明来源钻瓜专利网。





