专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果19个,建议您升级VIP下载更多相关专利
  • [发明专利]一种视频运动字幕检测方法-CN202111003875.3有效
  • 宋一平;梁骏;钟宇清;宋蕴;杨常星 - 杭州国芯科技股份有限公司
  • 2021-08-30 - 2023-05-16 - H04N21/435
  • 本发明公开了一种视频运动字幕检测方法。目前的视频图像处理技术往往针对所有像素采取一样的图像处理手段,而不会对运动字幕区域采取单独的处理方式。本发明方法首先输入连续两帧视频逐行序列,然后提取运动像素区域,再提取运动字幕区域,优化、展宽运动字幕区域后,输出运动字幕区域。本发明方法利用输入两帧逐行图像序列的差值,选取运动像素区域,进而从中选取运动字幕区域,可以有效提取视频中的运动字幕区域,从而可以对运动字幕进行单独的图像处理,达到改善运动字幕显示效果的目的。
  • 一种视频运动字幕检测方法
  • [发明专利]基于循环Unet网络的视频去隔行及超分的方法-CN202211402681.5在审
  • 杨常星;凌云;钟宇清;宋一平;宋蕴 - 杭州国芯科技股份有限公司
  • 2022-11-09 - 2023-01-20 - H04N7/01
  • 本发明公开了基于循环Unet网络的视频去隔行及超分的方法。本发明方法是基于循环Unet神经网络的多帧输入多帧输出自适应视频去隔行,每次输入当前相邻两帧数据,以及前一次预测的两场去隔行预测数据,将上述数据输入到Unet神经网络中,输出当前次预测的两场去隔行数据,及结合输入数据恢复的去隔行数据。若输入为标清数据,输出要求高清数据,则将去隔行数据输入到SRnet(超分辨率恢复网络)中,输出高清的去隔行数据。若无需数据转换要求,则直接输出去隔行数据。本发明的循环Unet神经网络具有强大的视频去隔行复原能力,无需场景判断能够自适应的处理不同场景的隔行数据,获得理想的去隔行效果。
  • 基于循环unet网络视频隔行方法
  • [发明专利]一种基于双神经网络模型的语音降噪方法-CN202211212035.2在审
  • 梁骏;叶丰;钟宇清;陈谢;沈旭东;宋蕴;杨常星 - 杭州国芯科技股份有限公司
  • 2022-09-30 - 2022-12-30 - G10L21/0208
  • 本发明公开了一种基于双神经网络模型的语音降噪方法。本发明根据嵌入式系统所能提供的资源确定系统的总计算量和总参数量,对接收到的语音数字信号进行分帧和FFT变换,将每帧的FFT谱作为两个神经网络模型的输入,两个神经网络模型分别使用卷积结构的多层网络和RNN结构的多层网络,利用两个神经网络模型的输出和预设的分频带混合参数计算得到每个频带的总语音保留系数,分频带混合参数与该帧的FFT谱对应的频带值相乘,得到处理后每帧FFT谱,逆快速傅里叶变换和去帧后成为时域输出。本发明使用的模型参数量与计算量较小,适合低内存低算力的嵌入式设备使用。本发明针对不同用户的需求,不需要重新训练修改模型,节省了时间与成本。
  • 一种基于神经网络模型语音方法
  • [发明专利]一种稀疏神经网络的压缩编码方法-CN201910073303.9有效
  • 莫冬春;钟宇清;黄磊;杨常星;宋蕴;胡俊;陈伟;钟天浪 - 杭州国芯科技股份有限公司
  • 2019-01-25 - 2022-12-02 - G06T9/00
  • 本发明涉及一种稀疏神经网络的压缩编码方法。本发明首先进行量化和预处理,根据稀疏程度选择压缩编码方法:稀疏度S≥ε2时,采用零游程和k阶指数哥伦布组合编码;稀疏度ε1<S<ε2时,采用k阶GX编码;稀疏度S≤ε1时,采用k阶指数哥伦布编码;ε1和ε2为设定阈值。k阶GX编码方法是:若预处理完成数据为0,直接编码为二进制形式的1,若大于0,以二进制形式表示,不足k位,高位补0,去掉该二进制比特序列的低k位后得到的序列转换为十进制数y;若高位补0后为k位,则y为0;计算y+1二进制形式的最低有效位数LSB,先输出LSB个0,然后输出y+1比特序列,将去掉的k位二进制序列放在输出的最低位之后,得到编码后码字。本发明利用了稀疏神经网络权重矩阵分布特性,具有更高的压缩率和更低的实现复杂度。
  • 一种稀疏神经网络压缩编码方法
  • [发明专利]基于神经网络特征识别的数据压缩方法-CN202010126059.0有效
  • 杨常星;梁骏;钟宇清;宋蕴;宋一平 - 杭州国芯科技股份有限公司
  • 2020-02-27 - 2022-09-02 - G06N3/04
  • 本发明公开了基于神经网络特征识别的数据压缩方法。本发明方法首先对神经网络识别模型的特征数据进行约束,然后对模型进行重训练,模型经验证集测试,若测试结果满足要求,则固化模型参数,得到推断模型,该推断模型输出的特征数据的分布满足后续压缩需求。根据推断模型和库数据得到类特征数据。对类特征数据进行量化,然后对类内特征数据依次按特征相近度排序,依据排序结果进行差值存储,实现类内特征数据压缩。得到压缩后的特征比对库,结合推断模型,将其部署到实际的设备中。本发明方法部署到存储有限的离线端或移动端设备的模型,在保证模型的鲁棒识别性能基础上,既降低了库模型所需内存,又不额外增加解码计算量。
  • 基于神经网络特征识别数据压缩方法
  • [发明专利]一种基于帧内数据差值神经网络加速方法-CN202110117712.1在审
  • 钟宇清;梁骏;杨常星;宋蕴;宋一平;黄磊;应屹航 - 杭州国芯科技股份有限公司
  • 2021-01-28 - 2021-05-25 - G06N3/04
  • 本发明公开了一种基于帧内数据差值神经网络加速方法。本发明方法流程包括:通道相关性重排、权重累加预处理、第一层作为当前计算层、当前层输入数据差值处理、矩阵乘加、是否进行过行列方向差值、行或者列方向差值恢复,激活函数处理、是否为最后一层,下一层作为当前层。本发明方法通过对神经网络的数据进行通道方向、行或者列方向进行差值得到差值后数据,相比原始数据稀疏性增强。本发明方法通过对神经网络全连接层权重进行累加预处理,对神经网络卷积层进行差值恢复处理,使得可以使用差值后数据作为计算输入。当神经网络计算支持稀疏矩阵计算加速时,相比直接采用原始数据,采用差值后数据作为输入提升了稀疏矩阵计算的加速效果。
  • 一种基于数据差值神经网络加速方法
  • [发明专利]一种神经网络数据量化存储方法-CN202011500074.3在审
  • 宋一平;梁骏;钟宇清;宋蕴;杨常星 - 杭州国芯科技股份有限公司
  • 2020-12-17 - 2021-03-19 - G06F3/06
  • 本发明公开了一种神经网络量化存储方法。本发明方法首先将长度为L位的数据由高到低逐位判断是否为零,找到第一个非零数值对应的位置;如果数据为无符号数据,设定有效位数n,从第一个非零位置截取长度为n的数据进行存储,如果到第L‑n位依旧为零,保留L‑n位到L‑1位的数据段,添加标志位后进行存储;如果数据为有符号数据,设定有效位数m,从第一个非零位置截取长度为m的数据进行存储,如果到第L‑m+1位依旧为零,保留L‑m+1位到L‑1位的数据段,添加标志位、符号位后进行存储。本发明方法按照有效位数进行量化存储,过滤了高位为零的数据以及低位对神经网络预测精度影响较小的数据,大幅节约了存储空间和硬件算力。
  • 一种神经网络数据量化存储方法
  • [发明专利]神经网络量化存储方法-CN202011495066.4在审
  • 宋一平;梁骏;钟宇清;宋蕴;杨常星 - 杭州国芯科技股份有限公司
  • 2020-12-17 - 2021-03-09 - G06F3/06
  • 本发明公开了神经网络量化存储方法。本发明方法首先取得神经网络需要量化的数据,然后对数据进行高低位分割,判断判断高位数据是否等于零:如果为零,则舍去高位数据,仅保留低位数据;如果不为零,则舍去低位数据,仅保留高位数据。如果是无符号数据,在保留数据的头部或尾部添加标志位,将保留数据和标志位进行存储;如果是有符号数据,在保留高位的头部或尾部添加标志位,并在整体数据段前添加符号位,将符号位、标志位和保留数据进行存储。利用该方法存储神经网络数据,表示数据的比特位长度有效缩短,利于嵌入式设备存储,计算和部署,在相同数据位长的情况下相比于线性量化神经网络的预测精度更高。
  • 神经网络量化存储方法
  • [发明专利]一种基于数据高位稀疏性的神经网络量化训练方法-CN202011504963.7在审
  • 宋一平;梁骏;钟宇清;宋蕴;杨常星 - 杭州国芯科技股份有限公司
  • 2020-12-18 - 2021-03-09 - G06N3/04
  • 本发明公开了一种基于数据高位稀疏性的神经网络量化训练方法。本发明方法首先将数据分为高位数据和低位数据两段,低位数据训练时施加正则化,高位数据不参与训练;若低位数据训练时发生进位或者退位,更新高位数据;训练完毕后检查高位数据是否更新,若更新则继续训练,否则,判断低位数据是否大于阈值:若低位数据大于阈值,继续训练;否则,令低位数据等于0。将最终的高位数据和低位数据合并为新数据,并且锁死,在神经网络训练时不再更新;等待神经网络其他权重训练完毕,最后输出数据。本发明方法在线性量化或者其他简单量化的基础上,对其他量化得到的数据进行进一步量化,使得数据稀疏性更强,有利于硬件计算和存储,同时保证网络性能。
  • 一种基于数据高位稀疏神经网络量化训练方法
  • [发明专利]一种低功耗的神经网络加速器装置-CN201711379852.6有效
  • 钟宇清;黄磊;莫冬春;杨常星 - 杭州国芯科技股份有限公司
  • 2017-12-20 - 2020-12-15 - G06N3/063
  • 本发明涉及一种低功耗的神经网络加速器架构。现有技术功耗高、启动慢,数据吞吐量大。本发明包括CPU、神经网络加速模块、只读存储模块、内部可读写随机存储器、外部可读写随机存储器、可读写非易失性存储器、电源管理模块、两个电源域。神经网络加速模块,用于对神经网络的命令进行硬件加速,并支持权重拆分和按结构拆分的神经网络;只读存储模块,用于存储固化的神经网络权重参数和结构参数;内部可读写随机存储器为SRAM,外部可读写随机存储器为DRAM;两个电源域分为高频开启电源域A和低频开启电源域B。本发明升级过程中不需要更换所有掩膜,只需要更改其中一层掩膜,大幅降低了升级成本。
  • 一种功耗神经网络加速器装置
  • [发明专利]一种图像插值卷积核的设计方法-CN202010299716.1在审
  • 梁骏;宋蕴;宋一平;钟宇清;杨常星 - 杭州国芯科技股份有限公司
  • 2020-04-16 - 2020-08-11 - G06T3/40
  • 本发明公开了一种图像插值卷积核的设计方法。现有插值方法都具有局部性的特点,曲线上的点的值只对附近的插值点有影响。本发明方法通过对卷积核进行相位采样实现插值卷积核的离散化,构造带约束的边缘波动率优化的插值目标函数,对目标函数进行非线性最小值优化求解卷积核,再对解出的卷积核进行函数拟合,得到图像插值所需要的卷积核。本发明提出的图像插值所需要的卷积核插值所获得的插值图像可以减少斜边的波动率,提升了对图像斜边的观看质量。本发明方法优化的卷积核只需要进行2N×2N点插值,计算量低,而且不需要场景判断,适合在机顶盒或电视机上的VLSI上用流水线实现。
  • 一种图像卷积设计方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top