专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果29个,建议您升级VIP下载更多相关专利
  • [发明专利]一种提升基于对抗的无监督域适应效果的迁移学习方法-CN202310415819.3在审
  • 林玉娥;刘二虎;梁兴柱;方贤进 - 安徽理工大学
  • 2023-04-18 - 2023-09-05 - G06N3/096
  • 本发明公开了一种提升基于对抗的无监督域适应效果的迁移学习方法,该方法基于CNN与Transformer的混合网络结构,以利用卷积运算和自关注机制来增强表示学习,从而充分对齐域适应中域漂移的关键问题。基于域适应对抗范式,设计方法为:步骤1:先对源域和目标域数据进行预处理;步骤2:构造训练集和测试集;步骤3:搭建CNN与Transformer耦合的双分支并行混合模型作为主干网络(包含特征特区器G和分类器F)及域判别器D;步骤4:将步骤2得到的来自源域与目标域的图像按批次输入网络两个分支进行对抗训练直至训练完成;步骤5:将测试集上的图片经过训练好的模型,得到模型预测结果并报告分类精度。本发明无监督域适应方法提出了双分支对齐模块来分别对齐源域与目标域不同语义下的特征分布,提高了迁移学习领域中源域与目标域存在域漂移的问题下的域适应效果。
  • 一种提升基于对抗监督适应效果迁移学习方法
  • [发明专利]融合局部全局人脸特征的驾驶员疲劳检测方法-CN202310429878.6在审
  • 梁兴柱;姚伟 - 安徽理工大学
  • 2023-04-21 - 2023-08-22 - G06V20/59
  • 本发明公开了辅助驾驶领域的一种融合局部全局人脸特征的驾驶员疲劳检测方法,所述方法包括:对真实行车采集的数据进行处理;对数据集图片中的人脸使用多任务卷积神经网络MTCNN网络进行人脸对齐和人脸定位;将处理的图片使用多粒度特征提取方法MTE获得人脸面部全局图像和局部细节图像;将全局人脸图像输入GT‑Net中训练,局部特征图像输入PT‑Net中训练;对GT‑Net和PT‑Net两个网络的预测概率进行集成学习,重新分配权重,获得疲劳检测的最终结果。本发明结合驾驶员面部全局图像和局部图像的不同信息,融合了两个模型的预测结果,提高对驾驶员疲劳驾驶的检测精度。
  • 融合局部全局特征驾驶员疲劳检测方法
  • [发明专利]一种基于多尺度注意力融合的轻量级单目深度预测方法-CN202310238309.3在审
  • 夏晨星;段秀真;葛斌;崔建华;葛国庆;梁兴柱;王列伟 - 安徽理工大学
  • 2023-03-14 - 2023-07-07 - G06V10/774
  • 发明提出一种基于多尺度注意力融合的轻量级单目深度预测方法,采用相对轻量级的主干网络完成单目深度预测任务。尝试将轻量级网络所产生的多层次特征与所提出的注意力机制模块结合,在速度有所提升的同时不损失精确度。首先利用主干网络生成多层次特征,将多层特征进行分组,在第3、4、5层使用通道注意力,关注通道之间的关系,通过对通道的加权来增强重要的特征,学习每个通道的重要性,使得模型能够更好地捕捉不同通道之间的信息,提高模型性能;在第1、2层采用空间注意力,关注空间位置之间的关系,通过对不同位置的特征进行加权来突出重要的位置信息。除此之外,将每层特征的差异融合到注意力机制,增强边界。通过提出的注意力机制进一步获得密集的深度信息,得到高质量的深度图,用于SLAM(SimultaneousLocalizationandMapping)、三维重建、自动驾驶、目标检测等下游任务。
  • 一种基于尺度注意力融合轻量级深度预测方法
  • [发明专利]一种基于深度质量加权的RGB-D显著性目标检测方法-CN202310201765.0在审
  • 夏晨星;杨凤;梁兴柱;崔建华;王列伟;段松松 - 安徽理工大学
  • 2023-02-28 - 2023-06-23 - G06V10/46
  • 本发明属于计算机视觉领域,提供了一种基于深度质量加权的RGB‑D显著性目标检测方法,包括以下步骤:1)获取训练和测试该任务的RGB‑D数据集,并定义本发明的算法目标;2)构建用于提取RGB图像特征RGB编码器和深度(Depth)图像特征Depth编码器;3)构建跨模态加权融合模块,通过加权式引导的深度质量评估机制指导提取的RGB图像特征和Depth图像特征进行加权融合;4)构建用于多尺度特征提取融合的双向尺度相关卷积机制,以增强多模态特征的高级语义信息;5)建立解码器以生成显著图Pest;6)预测的显著图Pest与人工标注的显著目标分割图PGT计算损失;7)对测试数据集进行测试,生成显著图Pest,并使用评价指标进行性能评估。本发明可有效整合来自不同模态图像的互补信息,提升复杂场景下显著性目标预测的准确度。
  • 一种基于深度质量加权rgb显著目标检测方法
  • [发明专利]一种将离线训练和在线学习相结合的单目标追踪方法-CN202310246736.6在审
  • 林玉娥;李梦凡;梁兴柱;王列伟 - 安徽理工大学
  • 2023-03-10 - 2023-06-13 - G06T7/246
  • 本发明公开了一种将离线训练和在线学习相结合的单目标追踪方法,所述方法包括:步骤1:获取追踪数据集,将追踪视频切分成一帧一帧的图片,并将图片裁剪成固定的大小;步骤2:构建一个基于孪生网络的单目标追踪器,在视频序列的第一帧指定目标后,利用边界框持续跟踪目标,实现目标的定位与尺度估计;步骤3:在步骤2构建好的孪生网络的基础上引入基于IoU的排名损失作为优化约束,并构建多分类分支用于区分目标与背景,使得分类置信度分数与目标定位预测IoU保持一致;步骤4:在步骤3的基础上构建基于注意力机制的在线训练模块,以并行的方式与孪生网络相结合,通过这样的方法可以充分利用背景信息提取目标特定上下文信息,提高追踪器的准确率。最后实验表明该理论具有可行性并展示了实验结果。
  • 一种离线训练在线学习相结合目标追踪方法
  • [发明专利]一种基于多级特征并行交互融合的单目深度预测方法-CN202211252277.4在审
  • 夏晨星;段秀真;梁兴柱;王列伟;孙延光;段松松 - 安徽理工大学
  • 2022-10-13 - 2023-01-06 - G06T7/55
  • 本发明提出一种基于多级特征并行交互融合的单目深度预测方法,尝试提出一种CNN与Transformer层级交互融合的方式,使用SwinTransformer和CNN不同分辨率特征图进行融合,以获得更好的编码器,获取更丰富的全局和局部特征信息,达到提取密集特征的效果。使用分层ResNet和SwinTransformer作为编码器,分别提取局部相邻信息特征与全局长范围上下文信息,通过层级ResNet网络与Transformer的融合,在编码器阶段获得丰富的局部与全局信息,避免因为重复的下采样而丢失过多的特征信息。此外,本发明构建了一个新的融合模块(FFM),在层级特征提取阶段,更好的促进卷积神经网络输出与Transformer输出高效融合,进一步获得密集的深度信息,得到高质量的深度图,用于三维重建、自动驾驶、智能机器人等领域。
  • 一种基于多级特征并行交互融合深度预测方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top