[发明专利]一种实现原-异位训练的GRU神经网络电路在审
申请号: | 202110863399.6 | 申请日: | 2021-07-29 |
公开(公告)号: | CN113642723A | 公开(公告)日: | 2021-11-12 |
发明(设计)人: | 代月花;王旭;冯哲;胡古月;邹建勋;杨菲;强斌;朱成龙 | 申请(专利权)人: | 安徽大学 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06N3/08 |
代理公司: | 北京凯特来知识产权代理有限公司 11260 | 代理人: | 郑立明;陈亮 |
地址: | 230601 安徽*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 实现 训练 gru 神经网络 电路 | ||
本发明公开了一种实现原‑异位训练的GRU神经网络电路,所述电路包括3个M+N+1行M列个忆阻器构成的阵列,以及多个模拟乘法器和加法器,其中每个忆阻器阵列的下方均连接有由电阻和运放构成的反向比例电路,每个阵列都形成下方的运算结构;对于左边的忆阻器阵列,每列输出电压经过反向比例电路后输出电压与前一时刻的输出电压经过模拟乘法器后得到结果,该结果再输入至右边忆阻器阵列的横向输入端;前一时刻电压与中间忆阻器阵列每列输出电压经过模拟乘法器运算后,结果输出至加法器;最终加法器输出的电压,用于下一时刻的输入。该电路能够解决GRU神经网络电路异位训练映射误差大,原位训练结构复杂且抗噪能力弱的问题。
技术领域
本发明涉及神经网络电路,尤其涉及一种实现原-异位训练的GRU神经网络电路。
背景技术
目前,人工智能的成功很大程度上是由于深度神经网络的进步,深度神经网络有多种结构,其中循环神经网络(RNN)是一个重要的结构,循环神经网络(RNN)有多种改进版本,较为常用的有长短时记忆(LSTM)和门可控循环单元(GRU)等,这些版本可以有效的改善了RNN中的梯度消失以及梯度爆炸问题。其中长短时记忆(LSTM)已存在神经网络电路,但是另一种改进版本门可控循环单元(GRU)神经网络电路却少有设计。
现有技术中的GRU神经网络电路普遍存在异位训练映射误差大,原位训练结构复杂且抗噪能力弱的问题,而现有技术中缺乏相应的解决方案。
发明内容
本发明的目的是提供一种实现原-异位训练的GRU神经网络电路,该电路能够解决GRU神经网络电路异位训练映射误差大,原位训练结构复杂且抗噪能力弱的问题。
本发明的目的是通过以下技术方案实现的:
一种实现原-异位训练的GRU神经网络电路,所述电路包括3个M+N+1行M列个忆阻器构成的阵列,以及多个模拟乘法器和加法器,其中:
每个忆阻器阵列的下方均连接有由电阻RF和运放构成的反向比例电路,每个阵列都形成下方的运算结构,M是GRU神经网络电路的单元数;N是输入电压的数量;
对于左边的忆阻器阵列,每列输出电压经过反向比例电路后输出电压Γr与前一时刻的输出电压经过模拟乘法器后得到结果,该结果再输入至右边忆阻器阵列的横向输入端;
右边忆阻器阵列的每列输出电压经过反向比例电路后输出的电压C′t与中间忆阻器阵列的每列输出电压经过反向比例电路后输出的电压Γu经过模拟乘法器运算,结果输出到加法器;
前一时刻电压与中间忆阻器阵列每列输出电压-Γu经过模拟乘法器运算后,结果输出至加法器;
同时前一时刻电压也输出至加法器;
最终加法器输出的电压用于下一时刻的输入。
由上述本发明提供的技术方案可以看出,上述电路能够解决GRU神经网络电路异位训练映射误差大,原位训练结构复杂且抗噪能力弱的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的实现原-异位训练的GRU神经网络电路结构示意图;
图2为发明实施例所述原位模拟运算的忆阻器交叉杆阵列结构示意图;
图3为本发明实施例所述电导调整电路的结构示意图;
图4为本发明实施例所述GRU神经网络电路后端的异位训练网络电路结构示意图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽大学,未经安徽大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110863399.6/2.html,转载请声明来源钻瓜专利网。