专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果104个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于查找表和拉普拉斯滤波的色调映射方法及系统-CN202310893696.4在审
  • 桑农;田铭;张锋;高常鑫 - 华中科技大学
  • 2023-07-19 - 2023-10-03 - G06T5/20
  • 本发明公开了一种基于查找表和拉普拉斯滤波的色调映射方法及系统,属于图像处理技术领域。本发明先将输入图像分解为自适应拉普拉斯金字塔;再将自适应拉普拉斯金字塔最底层的低频图像通过权重预测器,得到像素级权重图,同时使用三维查找表对低频图像进行三线性插值,得到初步映射图,之后将初步映射图与所述权重图逐像素融合生成微调后拉普拉斯金字塔最底层图像;再通过滤波器参数预测模块学习自适应拉普拉斯金字塔剩余层图像的参数值图,并将参数值图应用于局部拉普拉斯滤波器后得到微调后拉普拉斯金字塔剩余层图像;最后将微调后拉普拉斯金字塔重建得到色调映射后的图像。使用本发明进行全局色调映射的同时能保留图像的局部边缘细节。
  • 一种基于查找拉普拉斯滤波色调映射方法系统
  • [发明专利]一种语义对齐的实时语义分割方法、系统及存储介质-CN202310670044.4在审
  • 高常鑫;徐正泽;吴东岳;桑农 - 华中科技大学
  • 2023-06-07 - 2023-09-05 - G06V10/26
  • 本发明公开了一种语义对齐的实时语义分割方法、系统及存储介质,属于实时语义分割领域,包括:训练阶段:采用训练集对实时语义分割模型训练,所述训练集中各样本包括与语义分割任务相关的图像及对应的用于指示分割结果的标签;所述实时语义分割模型包括:卷积网络、语义提取分支以及语义对齐网络;所述卷积网络包括局部卷积模块、卷积注意力模块及语义解码模块;应用阶段:将待处理的图像输入至训练好的卷积网络中,得到分割结果。本发明能够提高实时语义分割任务的准确度,并通过在推理时舍弃语义提取分支和语义对齐网络,简化推理时主干网络为单分支卷积网络,以高分割精度和低推理延迟的特性,改善了实时语义分割网络在实际应用中部署的前景。
  • 一种语义对齐实时分割方法系统存储介质
  • [发明专利]一种跨域小样本图像识别方法及系统-CN202310258589.4在审
  • 桑农;付鹏展;邵远杰;高常鑫 - 华中科技大学
  • 2023-03-14 - 2023-06-27 - G06V10/74
  • 本发明提供一种跨域小样本图像识别方法及系统,包括:确定训练好的小样本识别网络;小样本识别网络用于对不同类别的样本进行匹配分类;小样本识别网络的训练过程需要用到图像生成网络,图像生成网络包括:变分自编码器模块和风格转换模块,变分自编码器模块用于提取并重建目标域样本的特征分布,变分自编码器包括中间参数,用于梯度上升将目标域样本重建成风格更复杂的样本;风格转换模块用于对源域样本进行风格化以得到属于目标域数据分布的带标签训练样本;将待识别的目标域样本输入到训练好的小样本识别网络,以进行预测分类,得到图像识别结果。本发明在训练阶段有效引入目标域信息,提高模型对目标域的泛化能力。
  • 一种跨域小样本图像识别方法系统
  • [发明专利]基于跨摄像头自蒸馏的行人重识别模型建立方法及其应用-CN202310176476.X在审
  • 高常鑫;陈济远;桑农 - 华中科技大学
  • 2023-02-27 - 2023-06-06 - G06V40/10
  • 本发明公开了基于跨摄像头自蒸馏的行人重识别模型建立方法及其应用,属于行人重识别领域,包括:利用特征提取网络提取行人图片的特征后聚类,标注全局伪标签,按摄像头将聚类类别划分为多个子聚类,标注局部伪标签;标注完成后得到训练集;构建包含特征提取网络以及与摄像头一一对应的多个分类器的监督网络,各分类器分别根据特征进行分类,得到分类概率分布;利用训练集对监督网络进行训练;训练损失包括分类损失和蒸馏损失,分别表示同摄像头分类概率分布与局部伪标签之间的差异,以及跨摄像头分类概率分布与同摄像头分类概率分布之间的差异;重复以上步骤,直至特征提取网络收敛,输出该网络。本发明能够提高无监督行人重识别的准确度。
  • 基于摄像头蒸馏行人识别模型建立方法及其应用
  • [发明专利]适用于全天的图像低照度增强和语义分割联合方法和系统-CN202310136152.3在审
  • 刘欣然;桑农;高常鑫;夏惟 - 华中科技大学
  • 2023-02-20 - 2023-05-30 - G06T5/00
  • 本发明公开了适用于全天的图像低照度增强和语义分割联合方法和系统,属于计算机视觉技术领域。本发明首次将低照度增强和语义分割结合在一起,整个网络采用端到端的训练方式,增强任务和分割任务通过分享底部的层学习一些共有的低层次的特征,共享信息,相互补充,提升两者的表现;通过将增强网络和语义分割网络联合优化,增强网络对图像增强的结果会在下游特征提取网络和两任务分支信息的引导下进行重构,同时语义分割网络学习低照度图像增强中恢复的结构细节特征和颜色特征,提高语义分割网络的精度;既能对低光图像进行增强从而辅助驾驶员对低光环境的感知,又能从视觉任务的角度获得语义分割结果,对夜间数据和白天数据同时具有较强的适应性。
  • 适用于全天图像照度增强语义分割联合方法系统
  • [发明专利]一种视觉理解模型的建立方法和图像分割预测方法-CN202310173572.9在审
  • 高常鑫;吴东岳;桑农 - 华中科技大学
  • 2023-02-28 - 2023-04-28 - G06V10/26
  • 本发明公开了一种视觉理解模型的建立方法和图像分割预测方法,属于视觉理解技术领域,建立方法包括:建立条件边缘损失函数;训练初始视觉理解模型过程通过条件边缘损失函数调整模型参数得到目标视觉理解模型。条件边缘损失函数通过采样各个锚点所对应的正样本与负样本,利用正样本产生锚点所对应的条件局部类中心,通过监督条件局部类中心特征使其含有丰富的本类判别性特征,通过提升锚点特征与其对应的条件局部类中心特征之间的相似性,通过基于类别的锚点到样本间相似性监督将锚点周围的局部类别特征信息编码到锚点特征中。本发明能够使处于类别边缘的像素在学习到精确的类别相关信息,提高视觉理解任务中对于边缘像素分类的准确度。
  • 一种视觉理解模型建立方法图像分割预测
  • [发明专利]一种零样本目标检测模型及其建立方法-CN202010005939.2有效
  • 胡菲;赵世震;高常鑫;桑农 - 华中科技大学
  • 2020-01-03 - 2023-04-07 - G06V10/764
  • 本发明公开了一种零样本目标检测模型及其建立方法,属于模式识别领域。具体包括:根据可见类RoI视觉特征、高斯随机噪声以及可见类的语义嵌入向量,训练IoUGAN;将不可见类的语义嵌入向量输入IoUGAN,获取不可见类的视觉特征;用不可见类的视觉特征训练零样本分类器;将零样本分类器与特征提取器、框回归器结合,建立零样本目标检测模型。IoUGAN用于接收不可见类的语义嵌入向量,生成不可见类的视觉特征训练零样本分类器;IoUGAN包括CFU、FFU和BFU;本发明获取的零样本目标检测模型根据输入的不可见类的测试样本,可准确识别目标的位置以及类别,并且实用性也较强。
  • 一种样本目标检测模型及其建立方法
  • [发明专利]一种自监督低照度图像增强方法及系统-CN202211362449.3在审
  • 桑农;张锋;邵远杰;高常鑫 - 华中科技大学
  • 2022-11-02 - 2023-04-04 - G06T5/00
  • 本发明提供了一种自监督低照度图像增强方法及系统,属于计算机视觉技术以及图像处理技术领域,方法包括:对低照度图像进行直方图均衡化处理,再采用先验映射函数提取出直方图均衡先验信息;将最大通道值与低照度图像结合采用卷积层获取连接图中的特征图像;以直方图均衡先验信息和连接图中的特征图像为空间特征转换层的输入,学习直方图均衡先验信息的调制参数对自适应地对连接图中的特征图像进行空间上的仿生变换,获取融入先验信息的特征图像;将融入先验信息的特征图像输入到自适应深度神经网络模型中获取反射图和亮度图;反射图为复原图像。本发明采用训练后的自适应深度神经网络对低照度图像进行增强,增强效果得到了大大提升。
  • 一种监督照度图像增强方法系统
  • [发明专利]基于频域分离网络的轻量图像超分辨率重建方法和装置-CN202211677276.4在审
  • 高常鑫;孙奕诗;桑农 - 华中科技大学
  • 2022-12-26 - 2023-03-10 - G06T3/40
  • 本发明公开了一种基于频域分离网络的轻量图像超分辨率重建方法和装置,属于图像处理技术领域,所述方法包括:S1:利用预设尺寸的卷积对待处理的低分辨率图像进行浅层特征提取获得浅层特征;S2:利用基于频域分离网络的傅里叶残差模块组对浅层特征进行深层特征提取得到各模块对应的深层特征;S3:合并各模块对应的深层特征再利用卷积进行特征融合得到融合特征;S4:将浅层信息作为残差信息和融合特征进行结合,从而生成高分辨率图像。本发明设计基于频域分离网络对应的傅里叶残差模块组,减少了冗余结构,在保持网络良好性能的同时大大的减少所需要的参数量和算力,由此解决现有图像超分辨率重建方法计算复杂度高的技术问题。
  • 基于分离网络图像分辨率重建方法装置
  • [发明专利]一种弱监督语义分割方法及其应用-CN202010004601.5有效
  • 刘佳惠;高常鑫;桑农 - 华中科技大学
  • 2020-01-03 - 2022-10-14 - G06T7/194
  • 本发明属于计算机视觉技术领域,具体公开一种弱监督语义分割方法及应用,方法包括:采用预训练的用于弱监督语义分割的语义擦除式区域扩张分类网络,对待语义分割图片依次进行第一阶段特征提取和高层语义整合分类,得到该张图片对应的第一类别响应图;对第一类别响应图中响应度高的区域进行擦除并对擦除后的类别响应图进行第二阶段高层语义整合分类,得到第二类别响应图;对第一类别响应图和第二类别响应图的各对应位置分别相加融合,得到融合类别响应图,并对融合类别响应图进行背景阈值切割处理得到类别分割区域图。本发明极大简化擦除式区域扩张分类网络结构,同时扩张效果好,极大提高区域扩张的探索效率,使得弱监督语义分割效果进一步增强。
  • 一种监督语义分割方法及其应用
  • [发明专利]一种人物交互关系检测方法及系统-CN202210457706.5在审
  • 彭欢;高常鑫;桑农 - 华中科技大学
  • 2022-04-27 - 2022-08-16 - G06V40/10
  • 本发明公开了一种人物交互关系检测方法及系统,属于计算机视觉技术领域。现有的人物交互关系检测方法需要用一个共享的预测器同时检测人、物体和它们对应的交互关系,会造成实例级和交互关系级在注意力视野上的不一致。为此,本发明提出一种并行推理网络,其同时包含了两个分别针对实例级定位和交互关系级语义理解的独立预测器。前者通过感知实例的末端区域从而聚焦于实例级的定位;后者扩散视野到交互关系区域,从而更好地理解交互关系级语义。并且本发明的实例级预测器的实例级查询向量和关系级预测器的交互关系级查询向量是一一对应的关系,因此它们之间并不需要任何实例与关系的匹配程序,从而大大减轻了计算负担。
  • 一种人物交互关系检测方法系统
  • [发明专利]一种基于R-C3D网络的端到端视频时序行为检测方法-CN201910892237.8有效
  • 桑农;张士伟;马百腾;高常鑫 - 华中科技大学
  • 2019-09-20 - 2022-08-05 - G06V40/20
  • 本发明公开了一种基于R‑C3D网络的端到端视频时序行为检测方法,属于计算机视觉领域,该方法包括:对输入视频进行帧率调整和帧提取,将提取到的帧进行归一化和数据增强后,作为训练集和测试集;构建时序行为检测模型;该时序行为检测模型包括特征提取模块、长时信息编码模块和行为识别模块;其中长时信息编码模块,对提取的特征图进行编码,得到包含长时间信息的特征;将训练集和测试集输入时序行为检测模型中进行训练;将待检测视频输入训练好的时序行为检测模型进行检测,得到视频中存在的行为类别和定位信息。本发明通过设计长时信息编码网络,对提取的特征进行编码,使得网络能够获得时序动作的全局时间信息,提高了动作定位和分类的准确度。
  • 一种基于c3d网络端视时序行为检测方法
  • [发明专利]一种基于上下文先验的场景分割方法和系统-CN202010253715.3有效
  • 余昌黔;高常鑫;桑农 - 华中科技大学
  • 2020-04-02 - 2022-08-02 - G06V10/26
  • 本发明公开了一种基于上下文先验的场景分割方法及系统,属于模式识别领域。方法包括:构建场景分割网络;该网络包括特征提取模块、特征聚合模块、上下文先验模块和特征融合模块;前两个模块依次对输入图像进行特征提取和特征聚合;上下文先验模块,对聚合得到的特征进行学习得到上下文先验图,上下文先验图学习得到类内先验和类间先验,将其与特征聚合模块的输出进行加权,对应得到类内特征和类间特征;特征融合模块,将特征提取模块输出的特征图、类内特征和类间特征进行级联融合和上采样后输出;将待分割场景图像输入训练好的场景分割模型,得到分割结果。本发明能够清楚地捕获类内特征和类间特征,有效提高了场景分割的准确度。
  • 一种基于上下文先验场景分割方法系统

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top