[发明专利]基于卷积神经网络和双向长短期记忆的插针定位方法在审
申请号: | 202010179171.0 | 申请日: | 2020-03-13 |
公开(公告)号: | CN113392850A | 公开(公告)日: | 2021-09-14 |
发明(设计)人: | 吴鹏飞;刘勇飞;李彦晖 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06K9/46 | 分类号: | G06K9/46;G06T7/73;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 541004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 卷积 神经网络 双向 短期 记忆 定位 方法 | ||
1.一种基于卷积神经网络和双向长短期记忆的插针定位方法,包括如下步骤:
(1)利用VGG-16网络模型从图像中提取边缘点特征;
(2)设置一个转换模块与VGG-16网络模块、双向LSTM网络模型连接,通过VGG-16计算出n组数据,输出特征为n个一维矢量,双向LSTM的输入为具有n个矩的时序,通过转换模块将提取的特征转换为序列数据;
(3)引入双向LSTM网络模型,访问过去的上下文信息,并获取接下来的上下文信息,一幅图像中的n个边缘点具有逻辑联系,其值与向前和向后的值几乎没有变化,LSTM的输入是时序,对于任何时候的输入,LSTM单元中包括三个步骤:
1)遗忘门的sigmoid函数来决定将哪个上下文信息从最后时刻的单元格状态中丢弃。该门会读取ht-1和xt,输出一个在0到1之间的数值给每个在细胞状态Ct-1中的数字;1表示“完全保留”,0表示“完全舍弃”。ft决定丢弃哪些信息,ft的表达式如下:
ft=σ(Wf·[ht-1,xt]+bf)
其中Wf是遗忘门的权重,bf是偏置,xt是当前输入,ht-1是上一时刻输出,σ是sigmoid函数;
2)使用sigmoid函数的传入门来决定应该保留哪些信息;决定保留哪些信息,it和的表达式如下:
it=σ(Wi·ht-1,xt]+bi)
Ct=tanh(WC·[ht-1,xt]+bC)
其中Wi和WC是传入门的权重,bi和bC是相应的偏置;
3)是确定应输出的信息,该层称为输出门,ht用来决定将要输出的信息,ht的表达式如下:
ot=σ(Wo·[ht-1,xt]+bo)
ht=ot*tanh(Ct)
(4)损失函数:模型的网络末端采用均方误差(MSE)损失函数,MSE的表达式为:
其中是预测值,Xi是真实值,m是批大小,在训练阶段,通过随机梯度下降(SGD)算法训练所提网络,以最小化MSE损失;
(5)训练数据:
1)对原始图像进行四次下采样,得到低分辨率图像,选择接插件的感兴趣区域(ROI),并以等间隔选取一维水平向量作为输入数据;
2)采用VGG-16从图像中提取特征;
3)对提取的特征引入双向LSTM处理序列信息,增加抗噪能力;
4)使用梯度下降算法,引入均方误差作为损失函数,通过反向传播优化网络参数。
2.根据权利要求1所述的插针定位方法,其特征是:步骤(2)所述转换模块的转换算法,包括如下步骤:
(1)VGG-16的所有输出都表示为Vi,形式为(w,h,c),其中w,h是特征图的宽度和高度,c是通道数。在第一维扩展Vi的维数,Vi的新形式是(1,w,h,c);
(2)在第一维上连接所有Vi,输出表示为V,形式为(N,w,h,c);
(3)扩大V的维数,新的形式为(1,N,w,h,c);
(4)将宽度,高度和通道压缩为一维,最终输出的形式为(1,N,w*h*c)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010179171.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种确定不良域名的方法及系统
- 下一篇:一种对话文本生成方法及装置