[发明专利]信息处理装置在审
申请号: | 201880014603.3 | 申请日: | 2018-02-20 |
公开(公告)号: | CN110366733A | 公开(公告)日: | 2019-10-22 |
发明(设计)人: | 福井启 | 申请(专利权)人: | 索尼公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 余刚 |
地址: | 日本*** | 国省代码: | 日本;JP |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 二进制运算 信息处理设备 信息处理装置 输出数据 计算量 使用层 输出 应用 | ||
本技术涉及一种能够减少神经网络的计算量和参数数目的信息处理设备。二进制运算层构成神经网络的层,使用层输入数据中的两个值来执行二进制运算,并输出两个值的结果作为层输出数据。本技术可应用于神经网络。
技术领域
本技术涉及一种信息处理设备,以及更具体地,涉及一种能够减少例如神经网络的计算量和参数数目的信息处理设备。
背景技术
例如,有一种使用配置图像的像素中的两个像素的像素值之间的差来检测预定对象是否出现在图像中(参见,例如专利文献1)的检测装置。
在这样的检测装置中,多个弱分类器中的每一个根据图像的两个像素的像素值之间的差来获得指示预定对象是否出现在图像中的估计值。然后,对多个弱分类器的各个估计值进行加权相加,并且根据作为加权相加的结果获得的加权相加值来确定预定对象是否出现在图像中。
用于加权相加的弱分类器和权重的学习是通过诸如AdaBoost的增强来执行的。
引用列表
专利文献
专利文献1:日本专利第4517633号
发明内容
本发明要解决的问题
近年来,具有卷积层的卷积神经网络(CNN)引起了对图像聚类等方面的关注。
然而,为了提高诸如CNN的神经网络(NN)的性能,NN的参数数目增加,并且计算量也增加。
鉴于上述,本技术已经被研发,并且能够减少NN的计算量和参数数目。
问题的解决办法
根据本技术的第一信息处理设备是配置神经网络的层的信息处理设备,并且被配置为使用要输入到层中的层输入数据的二进制值来执行二进制运算,并且输出二进制运算的结果作为要从层输出的层输出数据。
在上述第一信息处理设备中,配置神经网络的层,并且执行使用要输入到该层的层输入数据的二进制值的二进制运算,并且输出二进制运算的结果作为要从层输出的层输出数据。
根据本技术的第二信息处理设备是包括生成单元的信息处理设备,生成单元被配置为使用要输入到层中的层输入数据的二进制值来执行二进制运算,并且生成包括二进制运算层的神经网络,二进制运算层是将二进制运算的结果作为要从层输出的层输出数据的层。
在上述第二信息处理设备中,执行使用要输入到层的层输入数据的二进制值的二进制运算,并且生成包括二进制运算层的神经网络,二进制运算层是输出二进制运算的结果作为要从层输出的层输出数据的层。
注意,第一信息处理设备和第二信息处理设备可以通过使计算机执行程序来实现。这样的程序可以通过经由传输介质传输或通过记录在记录介质上来分发。
本发明的效果
根据本技术,可以减少NN的计算量和参数数目。
注意,本文描述的效果不一定受限,并且可以展示本公开中描述的任何效果。
附图说明
[图1]是示出应用本技术的用作NN等的个人计算机(PC)的硬件的配置示例的框图。
[图2]是示出由PC 10实现的NN的第一配置示例的框图。
[图3]是用于描述卷积层104的卷积处理的示例的示图。
[图4是示出卷积核F的示图,其中m×n×c(in)=3×3×3。
[图5]是描述A×B(>1)卷积的示图。
[图6]是用于描述1×1卷积的示图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于索尼公司,未经索尼公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201880014603.3/2.html,转载请声明来源钻瓜专利网。
- 上一篇:用于在卷积神经网络中进行矩阵处理的方法和设备
- 下一篇:优化神经网络架构