专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果275个,建议您升级VIP下载更多相关专利
  • [发明专利]基于交错空洞卷积UNet的图像语义分割方法-CN202211106328.2在审
  • 王少帆;刘玉坤;孙艳丰;尹宝才 - 北京工业大学
  • 2022-09-11 - 2022-12-16 - G06V10/26
  • 基于交错空洞卷积UNet的图像语义分割方法适用于计算机视觉领域。该方法使用了交错空洞卷积模块以及边缘保持模块。交错空洞卷积模块通过交错式的融合方式,即避免了将表达不同物体的特征进行相加,又有效的融合分布在不同通道的特征。而边缘保持模块通过将不同卷积核的卷积层的输出做差得到边缘特征,经整合后加和到输出特征上。该模块具有锐化特征边缘信息的能力。从而增强模型对于边缘的预测能力。该方法的提出,主要解决的技术问题包括多感受野的特征融合与图像语义分割的细节优化,从而获得更好的语义分割性能。
  • 基于交错空洞卷积unet图像语义分割方法
  • [发明专利]一种基于上下文信息融合的知识图谱补全方法-CN202211031111.X在审
  • 马战川;张立和;孔雨秋;陈思龙;尹宝才 - 大连理工大学
  • 2022-08-26 - 2022-11-29 - G06F16/36
  • 本发明属于自然语言处理技术领域,具体涉及一种基于上下文信息融合的知识图谱补全方法。本发明首次利用3D卷积处理知识图谱上下文信息,并引入头尾双关系来解决复杂关系的编码问题。首先使用实体关系编码模块对输入的实体关系对进行编码得到实体关系特征;再使用上下文编码模块对输入的上下文信息进行编码得到上下文特征;然后将实体关系特征和上下文特征输入到特征融合模块进行特征融合得到查询向量;最后计算查询向量与候选尾实体向量的相似度得到不同候选实体的得分。本发明利用3D卷积对上下文结构信息进行特征提取,将其融入实体关系特征中,在多个常用的数据集上进一步提高知识图谱补全方法的准确率。
  • 一种基于上下文信息融合知识图谱方法
  • [发明专利]一种用于场景图生成的自适应上下文建模方法及装置-CN202211008807.0在审
  • 王立春;徐凯;尹宝才 - 北京工业大学
  • 2022-08-22 - 2022-11-25 - G06V10/77
  • 一种用于场景图生成的自适应上下文建模方法及装置,可以根据场景内容自适应地序列化其中的物体,从而改善生成的场景图的效果。方法包括:(1)使用经过预训练的目标检测器对输入图像进行目标检测,输出一系列物体提议,选择置信度较高的前80个,将其视为该场景中存在的物体;(2)将细化后的语义标签映射为200维的向量表示,然后将其与物体的视觉特征以及上下文特征拼接起来作为物体的完整特征表示,将图像中n个物体的特征O分别输入物体选择位置分支和位置选择物体分支,衡量物体与其在链式结构中的位置的匹配程度,计算得到物体与位置的匹配分数矩阵,对物体的序列化问题看作指派问题来求解;(3)上下文信息融合以及关系预测。
  • 一种用于场景生成自适应上下文建模方法装置
  • [发明专利]基于视角生成的室内场景建模方法-CN201910671271.2有效
  • 杨鑫;张肇轩;王诚斌;尹宝才;朴星霖 - 大连理工大学
  • 2019-07-24 - 2022-11-18 - G06T17/00
  • 本发明属于计算机视觉技术领域,尤其涉及基于视角生成的室内场景建模方法。本发明通过低分辨体素场景提供的结构辅助信息,生成多视角下的深度图进行信息补全以完成单视角场景建模过程。以视角生成的方式,深入分析了点云、体素、深度图等不同三维表达方式之间的客观联系,基于深度图生成与融合的方式进行深度图的预测并完成室内场景建模的过程。本发明的单视角建模框架,结合了单视角的彩色图片信息、低分辨率场景信息,通过深度信息补全的方式,将单视角下信息缺失的部分利用多个视角的深度图进行补全。
  • 基于视角生成室内场景建模方法
  • [发明专利]一种基于多任务协作的镜子检测方法-CN202010112812.0有效
  • 梅海洋;杨鑫;魏小鹏;尹宝才;刘圆圆 - 大连理工大学
  • 2020-02-24 - 2022-10-14 - G06V20/10
  • 本发明公开了一种基于多任务协作的镜子检测方法,属于目标检测领域。本发明针对单张RGB图像,通过多任务协作实现镜子检测。本发明所述镜子检测网络SemirNet包括共享编码器和协作网络,协作网络包括镜子分割网络、镜子边界检测网络和深度预测网络;通过深度预测网络预测的深度和镜子边界检测网络的边界信息,加强镜子分割网络对图像域中不连续的特征的判别能力,从而对输入的镜子图像生成最终的镜子检测结果。本发明解决了由于镜子的存在所导致的复杂的场景理解的困难,帮助系统区分镜子中的反射内容和真实场景中的内容,去除镜子的干扰,产生精确的镜子检测结果;且适用于多种形状、大小的镜子及不同场景下的镜子检测。
  • 一种基于任务协作镜子检测方法
  • [发明专利]一种基于多源信息融合的运动目标视觉跟踪方法-CN202110015551.5有效
  • 傅应锴;杨鑫;张吉庆;尹宝才;魏小鹏 - 大连理工大学
  • 2021-01-07 - 2022-10-14 - G06T7/246
  • 本发明属于计算机视觉技术领域,提供了一种基于多源信息融合的运动目标视觉跟踪方法。本发明针对在快速运动和光照恶劣的场景下的运动目标视觉跟踪任务,首先制作了一个基于事件相机的运动目标跟踪数据集,同时,基于该数据集,提出了一种基于跨域注意力的视觉目标跟踪算法用以对视觉目标进行准确跟踪。该发明可以利用结合帧图像和事件数据各自的优势:帧图像可以提供丰富的纹理信息,事件数据在有挑战性的场景仍然能提供清晰的物体边缘信息。通过在不同场景下对两种域信息的权重分别设置,本专利能有效地融合两种传感器的优势从而解决在复杂条件下的目标跟踪难题。
  • 一种基于信息融合运动目标视觉跟踪方法
  • [发明专利]一种单张深度图点云场景语义补全的方法-CN202010741547.2有效
  • 杨鑫;李童;张肇轩;尹宝才;朴星霖 - 大连理工大学
  • 2020-07-29 - 2022-09-20 - G06T5/00
  • 本发明提供了一种单张深度图点云场景语义补全的方法,属于计算机视觉领域中的三维重建领域。该方法通过在深度图、深度分割图和点云相互投影的过程中转换视点修补漏洞,实现同时进行高分辨率点云补全和语义分割。本发明解决了场景语义补全问题中体素表现形式分辨率低、点云表现形式无法兼顾语义分割的问题,通过在三维点云上进行场景语义补全,可以同时恢复场景的高分辨率几何结构和语义信息细节;本发明基于单张深度图,可以同时完成三维点云补全和语义分割的任务;证实了语义信息和三维几何信息约束对点云场景语义补全的有效性。
  • 一种单张深度图点云场景语义方法
  • [发明专利]一种场景点云语义分割方法-CN201811204443.7有效
  • 李坤;杨鑫;尹宝才;张强;魏小鹏 - 大连理工大学
  • 2018-10-16 - 2022-09-20 - G06T15/30
  • 本发明属于计算机视觉技术领域,提供了一种场景点云语义分割方法,设计基于深度学习技术的大规模密集场景点云语义分割模型的框架,对于输入的大规模密集场景点云,能够在信息不丢失的情况下将点云的三维信息转化为卷积可以直接处理的二维信息,并结合图像语义分割的技术来完成点云语义分割的任务。在这种框架下,能有效解决大规模密集场景点云的语义分割任务。本发明的方法得到的场景点云的语义分割结果可以直接利用在机器人导航、自动驾驶等任务。并且该方法在非人工合成的自然场景中效果尤其显著。
  • 一种景点语义分割方法
  • [发明专利]基于卷积神经网络的三维重建方法-CN201811207269.1有效
  • 王诚斌;杨鑫;尹宝才;魏小鹏;张强 - 大连理工大学
  • 2018-10-17 - 2022-09-20 - G06T17/00
  • 本发明提供了一种基于卷积神经网络的三维重建方法,属于计算机视觉技术领域。三维特征更加精确,检索精度更高:相较于目前流行的特征提取网络,本方法的网络学习能力更强,通过网络提取出的对象点云特征信息更丰富。本算法具有良好的实时性,无论是建模、特征提取、数据库检索还是最后的模型配准均能在较短时间内完成。并且,本方法提出的网络模型在模型分类任务中的精确度优于多种基于深度学习的模型,说明本网络结构可以直接从三维点云学习到数据分布规律。优化时间大大缩短:相较于传统的特征提取方法,利用本方法提出的基于卷积神经网络提取特征方法显著减少计算时间,同时利用欧氏距离按类检索的算法也将提高检索的效率。
  • 基于卷积神经网络三维重建方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top