[发明专利]一种鱼类摄食状态检测方法在审
| 申请号: | 202210275358.X | 申请日: | 2022-03-21 |
| 公开(公告)号: | CN114612454A | 公开(公告)日: | 2022-06-10 |
| 发明(设计)人: | 黄平;郑金存;闭吕庆;黄添林;廖益杰 | 申请(专利权)人: | 玉林师范学院 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/90;G06T7/73;G06T7/50;G06K9/62;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 广州海心联合专利代理事务所(普通合伙) 44295 | 代理人: | 莫秀波 |
| 地址: | 537000 广西*** | 国省代码: | 广西;45 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 鱼类 摄食 状态 检测 方法 | ||
本发明公开了一种鱼类摄食状态检测方法,涉及鱼类养殖技术领域,解决现有的分鱼群摄食状态分类方法无法应用于复杂的工厂化养殖环境的技术问题,方法包括:通过深度相机采集鱼群一次完整摄食过程的深度图像;根据深度变化将深度图像转换成深度伪彩色图;将深度伪彩色图按强摄食、中等强度摄食、弱摄食、未摄食进行标注;构建简单卷积神经网络模型,使用标注好的深度伪彩色图训练简单卷积神经网络模型得到第一检测模型;使用第一检测模型进行实际检测鱼类摄食状态。本发明使用深度相机与图像处理程序相结合可实时获得鱼群摄食状态深度图和摄食状态序列数据,可使用较为简单卷积网络进行分类,或者可使用简单的循环神经网络进行分类。
技术领域
本发明涉及鱼类养殖技术领域,更具体地说,它涉及一种鱼类摄食状态检测方法。
背景技术
目前,通过使用反映鱼群的摄食状态的特征向量与神经网络分类模型相结合的方式来实现鱼群摄食行为的研究成为了热点。如使用LeNet5卷积神经网络 (ConvolutionalNeural Network,CNN)对鱼群摄食的近红外图像进行分类,其平均准确率达到90%。使用以VGGNet和ResNet为骨干网络结构的双循环神经网络(Dual Stream Recurrent Network,DSRN)实现了对20帧鱼群摄食图像的2分类,分类准确率达到81.4%;由于DSRN网络结构较为复杂,计算参数多、计算时间长,因此需要配备高性能显卡的计算机,成本较高,不利于在工厂化养殖环境中推广。通过投票策略对鱼群摄食视频筛选,再使用光流法提取视频帧间运动特征(相角特征和幅值分布),并结合CNN网络对鱼群摄食状态进行分类,平均准确率达97.6%。采用基于光流法的动能模型来量化鱼群摄食行为的空间特征,再使用长短期记忆人工神经网络(Long-Short Term Memory,LSTM) 对基于空间特征的向量序列进行分类,平均精度达到98.31%。使用光流法提取鱼群帧间运动特征,需对视频进行后期处理,特征提取过程繁琐,不具实时性和连续性,不能实现对鱼群摄食状态长时间监测,同时视频采集容易受到光照环境因素的影响,也不利于工程应用。
此外,大部分鱼群摄食状态分类算法都基于理想条件下开展研究,如循环水养殖、良好光源照明,导致此类算法在应用时往往受到生成成本、光照环境、水质清晰度等条件的限制,同时也存在部署困难的问题,无法应用于复杂的工厂化养殖环境。
发明内容
本发明要解决的技术问题是针对现有技术的上述不足,本发明的目的是提供一种鱼类摄食状态检测方法,在保证较高识别精度的同时,又降低对计算机资源的需求,有利于在实际生产环境中推广。
本发明的技术方案是:一种鱼类摄食状态检测方法,包括:
通过深度相机采集鱼群一次完整摄食过程的深度图像;
根据深度变化将所述深度图像转换成深度伪彩色图;
将所述深度伪彩色图按强摄食、中等强度摄食、弱摄食、未摄食进行标注;
构建简单卷积神经网络模型,使用标注好的深度伪彩色图训练所述简单卷积神经网络模型得到第一检测模型;
使用所述第一检测模型进行实际检测鱼类摄食状态。
作为进一步地改进,使用不同的颜色表示不同的深度,将所述深度图像中鱼群的距离信息线性转换为HSV颜色模型的Hue值,再将HSV模型的颜色数值转换成对应的RGB彩色值得到深度伪彩色图,计算Hue值的公式如下:
Hue=γ×[1-(Z(x,y)-Z0)/Z1-Z0] (1)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于玉林师范学院,未经玉林师范学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210275358.X/2.html,转载请声明来源钻瓜专利网。





