专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果1670109个,建议您升级VIP下载更多相关专利
  • [发明专利]目标追踪模型的训练方法及装置-CN202311168764.7在审
  • 蒋召 - 深圳须弥云图空间科技有限公司
  • 2023-09-12 - 2023-10-24 - G06V10/774
  • 本申请提供了一种目标追踪模型的训练方法及装置。该方法包括:在残差神经网络的第一阶段网络和第二阶段网络之间插入第一分片注意网络,其中,第一分片注意网络具有K个分片注意分支;在残差神经网络的第二阶段网络和第三阶段网络之间插入第二分片注意网络,其中,第二分片注意网络具有N个分片注意分支;在残差神经网络的第三阶段网络和第四阶段网络之间插入第三分片注意网络,其中,第三分片注意网络具有M个分片注意分支,K、N和M依次增大;将插入三个分片注意网络后的残差神经网络的作为目标追踪模型,对目标追踪模型进行训练。
  • 目标追踪模型训练方法装置
  • [发明专利]一种轻量化图像分割方法、装置及存储介质-CN202210618018.2在审
  • 谌东东;阮佳程;李迪 - 西安电子科技大学
  • 2022-05-31 - 2022-08-23 - G06T7/10
  • 该方法包括:获取第一图像数据;将所述第一图像数据通过空洞门控注意模型进行分割处理,获得分割结果,所述空洞门控注意模型包括两个部分:编码部分和解码部分;其中,所述编码部分包括普通编码单元和注意编码单元;所述解码部分包括注意解码单元和普通解码单元;所述普通编码单元、所述注意编码单元、所述注意解码单元以及所述普通解码单元依次连接。通过空洞门控注意模型对第一图像数据进行分割,较大的减少了图像分割中的参数量和计算量,并获得了较好的分割结果。
  • 一种量化图像分割方法装置存储介质
  • [发明专利]一种基于注意图的视觉Transformer模型剪枝方法-CN202211239440.3在审
  • 王琼;黄丹;毛君竹;姚亚洲 - 南京理工大学
  • 2022-10-11 - 2022-11-08 - G06N3/08
  • 本发明公开了一种基于注意图的视觉Transformer模型剪枝方法,应用于机器视觉推理系统,包括如下步骤:在机器视觉推理系统中,通过数据训练网络对ViT模型执行若干轮初始训练,以生成完整的注意图;计算注意图的信息熵,根据计算的信息熵大小对注意头进行剪枝操作;移除被剪枝注意头关联的各权重参数,以获得新ViT模型;重新微调新ViT模型的参数;通过对多头注意模块进行剪枝,删除具有高不确定性的特征图和相应的注意头,以减少ViT模型的参数和复杂性,降低ViT模型的计算复杂度和参数量,能够缩减ViT模型大小,最终达到在ViT模型性能有限损失的情况下实现ViT模型的轻量化。
  • 一种基于注意力图视觉transformer模型剪枝方法
  • [发明专利]基于注意模型长短时记忆网络的洪水预测方法-CN201811317514.4有效
  • 巫义锐;王晓珂;徐维刚;冯钧 - 河海大学
  • 2018-11-07 - 2022-08-26 - G06N3/04
  • 本发明公开了一种基于注意模型长短时记忆网络的洪水预测方法,包括采集洪水相关数据,洪水相关数据包括不同时间点的流量和洪水因子;在长短时记忆网络中引入注意模型,构建基于注意模型长短时记忆网络;用标准化后的洪水相关数据对基于注意模型长短时记忆网络进行训练;利用训练后的基于注意模型长短时记忆网络进行洪水预测。本发明保留了原有长短时记忆网络的序列建模能力,引入了注意模型,使用循环方案来优化,它将局部情境信息描述为一种权重方案,忽略了一些对于预测没有用处的洪水因子,大大缩短了预测平均时间,同时也增加了准确性。
  • 基于注意力模型短时记忆网络洪水预测方法
  • [发明专利]基于发散-聚合注意的图像描述方法-CN202010092633.5有效
  • 杜卓然;冀俊忠;张晓丹 - 北京工业大学
  • 2020-02-14 - 2022-05-17 - G06F16/50
  • 本发明公开了基于发散‑聚合注意的图像描述方法,获取MS COCO图像描述数据集并预处理:构建多角度观察模型,实现从MS COCO图像数据I的视觉以及细粒度语义信息的提取,得到图像特征V以及细粒度语义信息S*:构建聚合注意模型;语言生成模型。本发明将这两种思维方式引入到了模型设计中,提出了发散‑聚合注意模型,实现了视觉信息和语义信息的交互。图1是发散‑聚合注意模型的概念图,可以看到通过发散观察和聚合注意模块,模型产生了更生动准确的描述。
  • 基于发散聚合注意力图像描述方法
  • [发明专利]一种基于多部件自注意机制的行人重识别方法-CN202010467045.5有效
  • 陆易;叶喜勇;徐晓刚;张逸;张文广;祝敏航 - 之江实验室
  • 2020-05-28 - 2020-09-04 - G06K9/00
  • 本发明提供了一种基于多部件自注意机制的行人重识别方法,该方法首先预训练深度卷积神经网络骨干模型;然后对骨干模型进行分支后构建多部件自注意网络,获得多部件自注意特征;接着将多部件自注意特征输入分类器,联合训练最小化交叉熵损失和度量损失;最后将测试集图片输入训练好的模型,融合输出的部件特征获得整体特征,经度量排序实现行人重识别。本发明通过充分考虑行人重识别问题中存在的各种挑战,提出了多部件自注意机制,有效地扩展了注意激活区域,丰富了行人特征;自注意模块使网络更充分细致地关注具有判别特性的区域就,其中空间注意模块和通道注意模块以残差的形式融入网络
  • 一种基于部件注意力机制行人识别方法
  • [发明专利]一种文本分类方法及装置-CN202310660414.6有效
  • 吴亚军;蒋敏;暴宇健 - 深圳须弥云图空间科技有限公司
  • 2023-06-06 - 2023-08-11 - G06F16/35
  • 该方法利用随机注意层通过在待处理文本中不同的字符的位置上随机选择不同的位置进行注意计算,以防止模型过拟合;利用局部注意层通过选择与待处理文本中各个字符位置相邻的位置进行注意计算,可以确定待处理文本中各个字符之间的局部关系,以及利用全局注意层基于整个待处理文本中的所有字符的位置进行注意计算确定待处理文本的全局关系。这样,通过将随机注意层、局部注意层和全局注意层进行结合,可以利用待处理文本中字符的局部关系和全局关系对待处理文本进行更加准确的分类,从而可以提高待处理文本的类别确定结果的精确度,以及,可以防止模型过拟合,可以提高模型性能。
  • 一种文本分类方法装置
  • [发明专利]一种信息处理方法、装置、计算机设备及存储介质-CN201910888623.X有效
  • 吴晓琳 - 北京小米智能科技有限公司
  • 2019-09-19 - 2023-10-27 - G06F40/58
  • 本公开是关于一种信息处理方法、装置、计算机设备及存储介质,所述方法包括:利用机器翻译模型的编码器对待翻译词句进行编码,得到编码信息;保存所述全局注意参数;利用所述机器翻译模型的解码器,在所述待翻译词句中每一个词语的所述编码信息的解码循环中,根据所述全局注意参数确定所述解码器的全局注意;根据所述全局注意获得对应所述解码循环中所要预测的词语的预测结果。由于会将解码时需要用到的全局注意参数保存起来,因此,在解码器需要利用全局注意参数确定全局注意时可以直接调取存储的全局注意参数,而不需要再次通过处理编码信息得到全局注意参数,减少解码过程中的计算量;从而提高机器翻译模型的推理效率。
  • 一种信息处理方法装置计算机设备存储介质
  • [发明专利]基于并行时空注意机制的TCN多元时间序列预测方法-CN202011089562.X在审
  • 章轲;樊谨;黄益攀;刘振涛;陈佰平 - 杭州电子科技大学
  • 2020-10-13 - 2021-01-22 - G06Q10/04
  • 本发明公开了一种基于并行时空注意机制的TCN多元时间序列预测方法,首先对公式进行定义,然后构建多元时间序列预测模型,包括两个并行的网络主干,空间注意分支主干通过空间注意模块提取外生序列和目标序列之间的空间相关性,时间注意分支主干则通过时间注意模块来捕捉窗口中所有时间步间的时间依赖性。空间注意模块和时间注意模块分别连接两个相同的堆叠TCN主干和全连接层;最后将多变量的时间序列输入多元时间序列预测模型中,获得最终的预测结果。本发明方法将时空注意机制与TCN相结合相较于传统TCN取得了更高的准确率,同时提高网络计算效率相较于基于RNN的模型大大缩减了模型训练所需要的时间。
  • 基于并行时空注意力机制tcn多元时间序列预测方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top