专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果23个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于信息增强与感受野增强的小目标检测方法-CN202111119578.5有效
  • 王佩;罗会兰 - 江西理工大学
  • 2021-09-24 - 2023-07-25 - G06V10/82
  • 本发明公开了一种基于信息增强与感受野增强的小目标检测方法,旨在提高小目标的检测精度。本发明设计了两个模块来增强小目标的信息,其具体方法如下:首先为了获得输入特征的全局信息,局部信息和多尺度信息,设计了信息增强模块;其次设计了感受野增强模块,利用扩张卷积获得不同尺度感受野的特征并将其进行密集连接,从而获得具有判别性的特征;然后输入特征分别使用这两个模块进行信息增强,得到增强后的特征图;最后在得到增强后的特征图基础上进行下采样,共获得6个不同尺度的特征图,分别对这6个不同尺度的特征图进行目标检测,得到最终的检测结果。在数据集上的实验结果表明本发明算法对检测小目标具有较高的检测精度。
  • 一种基于信息增强感受目标检测方法
  • [发明专利]一种基于多尺度特征交互和增强的实时语义分割方法-CN202310224674.9在审
  • 刘春燕;罗会兰 - 江西理工大学
  • 2023-03-09 - 2023-07-04 - G06V10/26
  • 本发明提供一种基于多尺度特征交互和增强的实时语义分割方法,涉及计算机视觉领域。该基于多尺度特征交互和增强的实时语义分割方法,包括以下步骤:S1.通过主干网络得到丰富的空间特征和语义特征;S2.增强高级语义特征;S3.增强的语义特征和浅层空间特征进行信息交互;S4.融合多尺度特征产生分割预测图。通过聚合高级语义特征,有效增强上下文特征的表示能力,从而获得更具有鉴别性的特征用以处理相似目标;而浅层特征的融合为模型补充了空间细节信息,在分割小物体方面具有较好的性能。该模型通过单个特征提取流来解决实时语义分割挑战,用最小化计算成本增强了空间和语义信息交互,实现了高精度分割和快速推理的平衡。
  • 一种基于尺度特征交互增强实时语义分割方法
  • [发明专利]一种基于上下文和浅层空间编解码网络的图像语义分割方法-CN201911345717.9有效
  • 罗会兰;黎宵;童康 - 江西理工大学
  • 2019-12-24 - 2023-06-16 - G06T7/10
  • 当前图像语义分割研究基本围绕如何提取有效的语义上下文信息和还原空间细节信息两个因素来设计更有效算法。现有的语义分割模型,有的忽视了网络浅层的空间细节信息,有的没有获取高质量的语义上下文特征。针对此问题,本发明提出了一种基于上下文和浅层空间编解码网络的图像语义分割方法。在编码端采用二分支策略,其中上下文分支设计了一个新的语义上下文模块来获取高质量的语义上下文信息,而空间分支设计成反U型结构,并结合链式反置残差模块,在保留空间细节信息的同时提升语义信息。解码端,本发明设计优化模块对融合后的上下文信息与空间信息进一步优化。通过大量实验,本发明在三个基准数据集CamVid、SUN RGB‑D和Cityscapes上取得了有竞争力的结果。
  • 一种基于上下文空间解码网络图像语义分割方法
  • [发明专利]一种注意力边缘交互的光学遥感图像显著性目标检测方法-CN202310204943.5在审
  • 梁柏诚;罗会兰 - 江西理工大学
  • 2023-03-06 - 2023-05-16 - G06V20/13
  • 本发明公开了一种注意力边缘交互的光学遥感图像显著性目标检测方法,旨在提高光学遥感图像中显著性目标的检测精度。当前光学遥感图像的显著目标检测存在以下两方面问题:由于边缘信息没有得到充分利用,显著性目标预测图在光学遥感图像的一些复杂场景中容易出现边界模糊;模型提取的高级语义信息在逐步向浅层传递的过程中,较深层捕获的位置信息可能同时被逐渐稀释。针对第一个问题,本发明设计了多尺度注意力交互模块来有效融合精细的边缘特征。针对第二个问题,本发明设计了语义指导融合模块来减少低层次特征在融合过程中的信息损失。结合上述两个设计,本发明设计的模型可以鲁棒且准确地检测到光学遥感图像中的显著性目标,并具有处理各种复杂场景的能力,值得大力推广。
  • 一种注意力边缘交互光学遥感图像显著目标检测方法
  • [发明专利]一种基于多维动态拓扑学习图卷积的骨架动作识别方法-CN202211582847.6在审
  • 曹立京;罗会兰;包中生;黄国辉 - 江西理工大学
  • 2022-12-09 - 2023-05-09 - G06V40/20
  • 本发明提供了一种基于多维动态拓扑学习图卷积的骨架动作识别方法,涉及计算机视觉领域。该基于多维动态拓扑学习图卷积的骨架动作识别方法包含三个组成部分:纯粹节点拓扑学习图卷积、动态时序特异性拓扑学习图卷积、通道特异性拓扑学习图卷积。其中,动态时序特异性拓扑学习图卷积中我们提出动态骨架拓扑建模方法,用以高效地建模富含全局时空拓扑特征的动态骨架拓扑。并且使用了多尺度时间卷积来获取多尺度时间特征。此外,为了对骨架数据的空间信息进行补充,我们额外引入了相对节点数据和相对骨骼数据进行多流网络的融合。该模型能够提取到更加全面有效的动作特征,感知更加细微的动作差别,值得大力推广。
  • 一种基于多维动态拓扑学习图卷骨架动作识别方法
  • [发明专利]一种基于多维特征激励网络的视频动作识别方法-CN202211583336.6在审
  • 于亚威;罗会兰;郭宇辰;曾振 - 江西理工大学
  • 2022-12-09 - 2023-03-28 - G06V40/20
  • 本发明提供了一种基于多维特征激励网络的视频动作识别方法,涉及计算机视觉和图像领域。该多维特征激励网络方法包括3个部分:S1.通过运动补足激励模块建模时序运动特征,激发时间通道运动信息;S2.经过联合特征激励模块,通过空间信息注意力激励时序维和通道信息注意力激励时序维的操作,学习更好的时空特征表达;S3.融合运动补足激励模块和联合特征激励模块构建最终的多维度特征激励融合网络用于动作识别。该模型通过使用多维度特征激励融合网络可以有效地表达时空特征,获得更好的复杂度和分类准确率平衡,在HMDB51和UCF101数据集上的实验结果表明了本发明算法具有较高的识别准确率,值得大力推广。
  • 一种基于多维特征激励网络视频动作识别方法
  • [发明专利]一种基于Transformer与跨维度注意力的交通标志检测方法-CN202211583330.9在审
  • 陈圆;罗会兰;吴少玲;胡伟霞 - 江西理工大学
  • 2022-12-09 - 2023-03-21 - G06V20/58
  • 本发明公开了一种基于Transformer与跨维度注意力的交通标志检测方法,旨在提高小目标的检测精度。当前的交通标志检测方法存在以下两方面问题:模型不能在初期学习到特征间丰富的长程依赖关系;小目标的有效特征易在特征融合阶段淹没在复杂的背景信息中。针对第一个问题,本发明设计了基于Transformer的模块来扩大网络初期的有效感受野并学习不同特征间的语义关系。针对第二个问题,本发明设计了跨维度注意力来加强网络对小目标的关注程度。结合两个模块后,网络学习到了丰富的细粒度特征及复杂的上下文关系,该模型能够有效抑制冗余信息,并具有处理复杂场景的能力,能广泛应用于交通标志检测的各种场景,值得大力推广。
  • 一种基于transformer维度注意力交通标志检测方法
  • [发明专利]一种生成对抗网络用于图像修复的方法-CN202010598518.5有效
  • 罗会兰;敖阳 - 江西理工大学
  • 2020-06-28 - 2022-09-23 - G06T5/00
  • 本发明公开了一种图像修复模型PRGAN,由两个相互独立的生成对抗网络模块组成。其中图像修复网络模块PConv‑GAN由部分卷积与对抗网络组合而成,用于对不规则掩模进行修复,同时根据判别器的反馈使得图像的整体纹理结构以及色彩更加逼近于原图。为解决因修复网络模块的不足而造成图像产生局部色差和轻度边界伪影的问题,本发明设计了图像优化网络模块。图像优化网络模块Res‑GAN将深度残差网络与对抗网络相结合,并且通过结合对抗损失、感知损失及内容损失对图像优化网络模块进行训练,使得图像中非缺失区域的信息得到保留,从而保持了图像在非缺失区域内纹理结构的一致性,达到消除局部色差现象和解决伪边界的目的。
  • 一种生成对抗网络用于图像修复方法
  • [发明专利]一种用于视频动作识别的串流深度网络模型构建方法-CN201910418398.3有效
  • 罗会兰;文彪 - 江西理工大学
  • 2019-05-20 - 2022-08-19 - G06V10/82
  • 本发明公开了一种用于视频动作识别的串流深度网络模型构建方法,视频中动作识别研究从传统方法到深度学习方法,深度学习方法中结合空间信息和时间信息的双流方法是当前动作识别领域最主流的方法。本发明基于双流方法进行改进,在空间流上采用迭代交互训练的方式得到一个效果更佳的空间流模型,在时间流上提出一个基于残差网络改进的新型时间特征提取网络,最后联合空间流和时间流各自的分类优势,将训练好的空间流和时间流采用多层分类的方式组成一个整体串流分类模型。该模型构建方法在UCF101数据集上进行测试,在单个空间流上较原始方法提升了1.21%,在时间流上较原始方法提升了1.42%,在最终模型上较单个的空间流和时间流获得了6%左右的大额提升。
  • 一种用于视频动作识别串流深度网络模型构建方法
  • [发明专利]基于多光谱成像技术的人工智能控制方法及装置-CN201910443489.2有效
  • 钟杨俊;罗会兰;张晓昕 - 江西理工大学
  • 2019-05-24 - 2022-07-22 - G05D1/02
  • 本申请提供一种基于多光谱成像技术的人工智能控制方法及装置,该方法包括:以预设角度向周围物体发射光路;将反射光路处理得到周围物体的可见光图像;将可见光图像与周围物体的预存可见光图像信息对比,校正预存可见光图像信息中的其它物体的图像信息得到校正的周边物体图像信息;将周边物体图像信息投影至周围物体的实际空间位置;将周边物体图像信息与周围物体的转动图像信息进行合并处理后得到投影的图像信息;获取车辆当前的行驶状态及周边环境信息;将车辆当前的行驶状态及周边环境信息与预设的车辆行驶策略对比控制车辆自动行驶。本发明能够准确地得到车辆周边环境的实时图像信息,进而结合车辆智能控制分析实时图像信息进行自动驾驶。
  • 基于光谱成像技术人工智能控制方法装置
  • [发明专利]一种基于融合特征的视频行为识别方法-CN201810382014.2有效
  • 罗会兰;王婵娟;王吉源 - 江西理工大学
  • 2018-04-25 - 2022-07-15 - G06V40/20
  • 本发明公开了一种新的基于融合特征的视频行为识别方法。针对单一特征描述符在描述视频空间信息的不足,提出将位置信息映射到描述符中进行融合编码。即在特征提取阶段分别提取视频的描述符特征和位置信息,生成相对应的视觉词典和位置词典,然后将位置信息映射到描述符中进行编码。在编码阶段为了克服传统VLAD方法只考虑特征与其最接近聚类中心的不足,提出在其基础之上另外计算每个聚类中心与其最相似特征的差值,并将两者结合起来作为特征的编码向量,获取更全面的视频表示。在两个大型数据库UCF101及HMDB51数据库上的实验比较结果表明,本发明提出的方法比传统VLAD方法具有较大的性能提升。
  • 一种基于融合特征视频行为识别方法
  • [发明专利]一种基于区域和深度残差网络的图像语义分割方法-CN201811596891.6有效
  • 罗会兰;卢飞;余乐陶 - 江西理工大学
  • 2018-12-26 - 2022-05-03 - G06V10/26
  • 本发明公开了一种基于区域和深度残差网络的图像语义分割方法。基于区域的语义分割方法使用多尺度提取相互重叠的区域,可识别多种尺度的目标并得到精细的物体分割边界。基于全卷积网络的方法使用卷积神经网络自主学习特征,可以针对逐像素分类任务进行端到端训练,但是这种方法通常会产生粗糙的分割边界。本发明将两种方法的优点结合起来:首先使用区域生成网络在图像中生成候选区域,然后将图像通过带扩张卷积的深度残差网络进行特征提取得到特征图,结合候选区域以及特征图得到区域的特征,并将其映射到区域中每个像素上;最后使用全局平均池化层进行逐像素分类。本发明还使用了多模型融合的方法,在相同的网络模型中设置不同的输入进行训练得到多个模型,然后在分类层进行特征融合,得到最终的分割结果。在SIFT FLOW和PASCAL Context数据集上的实验结果表明本发明算法具有较高的平均准确率。
  • 一种基于区域深度网络图像语义分割方法
  • [发明专利]一种跨层多模型特征融合与基于卷积解码的图像描述方法-CN202010960151.7有效
  • 罗会兰;岳亮亮;陈鸿坤 - 江西理工大学
  • 2020-09-14 - 2022-03-29 - G06F16/583
  • 本发明提供一种跨层多模型特征融合与基于卷积解码的图像描述方法,涉及计算机视觉和自然语言处理领域。该跨层多模型特征融合与基于卷积解码的图像描述方法,包括以下步骤:S1.得到嵌入向量序列和最终文本特征;S2.计算得到视觉与文本融合匹配的注意力向量;S3.将注意力向量和文本特征向量和进行相加融合;S4.生成一个完整的描述句子。通过使用跨层多模型特征融合,有效弥补低层图像特征信息的丢失,从而获得更加细节的图像特征及学习到更加详细的描述句子,该模型能够有效提取和保存复杂背景图像中的语义信息,且具有处理长序列单词的能力,对图像内容的描述更准确、信息表达更丰富,值得大力推广。
  • 一种跨层多模型特征融合基于卷积解码图像描述方法
  • [发明专利]一种使用卷积神经网络和双向匹配算法的视频多目标跟踪方法-CN202111391364.3在审
  • 曾泽华;罗会兰 - 江西理工大学
  • 2021-11-23 - 2022-02-25 - G06T7/246
  • 本发明公开了一种使用卷积神经网络和双向匹配算法的视频多目标跟踪方法。基于无锚框目标检测方法的卷积神经网络,能够通过融合不同尺度的特征信息,提供目标的中心点位置和目标尺度信息。本发明在该卷积神经网络的基础上,增加了针对目标的双向运动预测分支,并基于双向运动信息设计了对应的多目标跟踪匹配算法,从而通过多帧视频信息的输入,完成对目标的双向跟踪匹配,并通过搁浅区的设计缓解因目标短时遮挡导致的跟踪间断。本文还在卷积神经网络中使用了注意力模块,有效减少了模型的训练时间,从而提升算法的使用效率。在MOT17多目标跟踪数据集上的实验结果表明本发明算法具有较高的跟踪准确率。
  • 一种使用卷积神经网络双向匹配算法视频多目标跟踪方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top