专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果38个,建议您升级VIP下载更多相关专利
  • [发明专利]基于标注图在无监督训练下的真实图像生成方法及存储介质-CN202010661461.9有效
  • 高联丽;朱俊臣;宋井宽 - 贵州大学;电子科技大学
  • 2020-07-10 - 2023-06-20 - G06T5/50
  • 本发明公开了一种基于标注图在无监督训练下的真实图像生成方法及存储介质,该方法包括将标注图输入生成器生成3张不同尺寸的输出图像;采用分级视觉感知判别器得到6个判别结果;将判别结果采用对抗损失函数转化为对抗损失;生成模糊图片,之后计算模糊图片输入分级视觉感知判别器得到的判别结果的对抗损失;将输出图像进行相邻两两分组后,输入VGG19网络中,之后计算图像一致损失;将输出图片输入到三个不共享参数的语义分割网络ICNet中,计算返还分割损失;采集四个损失值得到的最终损失对整个网络进行优化,并在网络未收敛时返回第一步,收敛时将优化后的生成器作为图像生成模型;采用图像生成模型将输入的标注图生成真实图像。
  • 基于标注监督训练真实图像生成方法存储介质
  • [发明专利]一种基于语义偏好的快速图像检索方法-CN202210647107.X有效
  • 宋井宽;张志斌;申恒涛;朱筱苏;高联丽 - 电子科技大学
  • 2022-06-09 - 2023-04-18 - G06F16/51
  • 本发明公开了一种基于语义偏好的快速图像检索方法,首先以语义(标签)关联度指导训练语义中心分配模块,得到语义中心矩阵V,然后基于语义中心矩阵V,对固定特征提取模块进行训练,这样通过依照语义关联度约束语义中心在特征空间的分布,并令特征向量朝着对应语义中心聚集,从而在语义关联度的指导下充分利用特征空间,有效避免了具备不同标签的特征向量的混淆,解决了特征分布不合理的情况,有效避免不同类特征向量的混淆,提升检索准确度;其次,本发明为码字指定了语义偏好,实现了不可导的量化损失与有偏的软量化损失之间的折衷,采用偏差较低的方案优化码字,从而提升量化器性能,以保证执行快速检索时,量化向量能更好地近似特征向量,实现了降低量化误差的目的。
  • 一种基于语义偏好快速图像检索方法
  • [发明专利]一种高度融合的GAN网络装置及实现文本生成图像的方法-CN201811542578.4有效
  • 宋井宽;陈岱渊;高联丽 - 电子科技大学
  • 2018-12-17 - 2023-04-07 - G06T9/00
  • 本发明涉及深度学习领域,其公开了一种高度融合的GAN网络装置及实现文本生成图像的方法,解决传统技术中存在的生成图像尺寸较小,质量较低,网络训练过程不稳定的问题,有效地实现由输入文本生成清晰高质语义图像。本发明中的高度融合的GAN网络装置,包括:文本编译器、条件增加模块、生成器和三个独立的判别器;基于该高度融合的GAN网络装置,在只有一个生成器和三个独立判别器的情况下仍可生成匹配文本语义信息的高质量RGB图像。为进一步优化生成器网络结构,充分利用网络中间层生成的不同尺寸的特征图,生成器除了采用残差网络中的残差生成块,还采用了金字塔网络结构从低维的64*64特征,逐步生成到语义信息丰富的高维256*256特征。
  • 一种高度融合gan网络装置实现文本生成图像方法
  • [发明专利]基于推敲注意力机制的图像描述生成系统及方法-CN201910004805.6有效
  • 宋井宽;樊凯旋;高联丽 - 电子科技大学
  • 2019-01-03 - 2023-04-07 - G06V20/20
  • 本发明涉及图像理解领域,其公开了一种基于推敲注意力机制的图像描述生成系统及方法,解决现有图像描述方案存在的缺少润色过程、训练和测试过程不一致、生成描述辨识度不高的问题。该方法包括:a.数据集的处理:提取图像的全局特征和局部特征,构建数据集,对数据集中的单词进行标记,生成对应的词嵌入向量;b.训练图像描述生成模型:采用第一层基于残差注意力机制的解码器生成粗略的图像描述,采用第二层基于残差注意力机制的解码器对已生成的图像描述进行润色;c.结合强化学习进一步训练模型:在训练过程中模拟模型的测试过程,并且以生成描述的CIDEr分数来引导模型的训练,结合强化学习对模型进行调整。
  • 基于推敲注意力机制图像描述生成系统方法
  • [发明专利]姿态估计方法、装置、电子设备和存储介质-CN202010771698.2有效
  • 高联丽;代燕;王轩瀚;宋井宽 - 成都井之丽科技有限公司;电子科技大学
  • 2020-08-04 - 2023-02-03 - G06V40/10
  • 本发明公开了一种姿态估计方法、装置、电子设备和存储介质,以解决提高拥挤场景下姿态估计准确度的技术问题。该方法包括:从行人检测框所限定的区域图像中提取视觉特征;根据视觉特征识别区域图像中所有关节并建立候选关节集;对候选关节集中所有关节进行评估并获得区域图像中目标行人实例的目标关节信息;根据目标关节信息生成目标关节估计结果进而生成对应目标行人实例的估计姿态。通过提取的视觉特征识别区域图像中所有关节并建立候选关节集,这时,候选关节集中既包括目标关节又干扰关节,然后再对候选关节集中所有关节进行评估并获得区域图像中目标行人实例的目标关节信息,从而提高拥挤场景下姿态估计准确度。
  • 姿态估计方法装置电子设备存储介质
  • [发明专利]基于掩码-RCNN进行稠密人体姿态估计的系统及方法-CN201910289577.1有效
  • 高联丽;黄梓杰;宋井宽 - 电子科技大学
  • 2019-04-11 - 2023-02-03 - G06V40/20
  • 本发明涉及人体姿态估计技术,其公开了一种基于掩码‑RCNN进行稠密人体姿态估计的系统及方法,解决传统技术在实例分割时,存在的由于目标检测框包含多个目标而无法精准进行稠密人体姿态估计的问题。本发明中的系统包括:目标检测模块,用于获取精确的目标检测框;语义分割模块,用于对目标检测框的检测对象进行语义分割,获得语义分割掩码;实例分割模块,用于对语义分割掩码进行处理获得人体实例分割掩码;稠密姿态估计模块,用于建立RGB图像与3D人体表面模型的关系,并输出人体部件索引和3D模型上的UV坐标,从而将RGB图像上的纹理信息映射到3D人体表面模型上。本发明适用于各种场景下的稠密人体姿态估计。
  • 基于掩码rcnn进行稠密人体姿态估计系统方法
  • [发明专利]一种基于双分支混合学习网络的无偏差场景图生成方法-CN202211060522.1在审
  • 高联丽;刘精微;宋井宽 - 电子科技大学
  • 2022-08-30 - 2023-01-03 - G06V10/86
  • 本发明公开了一种基于双分支混合学习网络的无偏差场景图生成方法,涉及图像处理技术领域,解决最近无偏差场景图生成方法不能同时照顾头部谓词和尾部谓词学习的技术问题,包括以下步骤:将图像输入到目标检测器中,得到图像中实例的视觉特征、语义特征以及空间特征;将图像中实例的特征送入到粗粒度学习分支和细粒度学习分支中,其中粗粒度学习分支用以学习头部谓词的专家知识以及获得头部谓词的鲁棒性特征,细粒度学习分支用以预测具有信息性的尾部谓词;知识蒸馏,采用语义上下文模块,对细粒度学习分支的预测结果中不合理的预测进行修正,同时计算所预测的场景图的语义和所标注的场景图的语义之间的差距,并用均方差损失优化。
  • 一种基于分支混合学习网络偏差场景生成方法
  • [发明专利]一种基于多任务学习框架的无偏差动态场景图生成方法-CN202211068878.X在审
  • 宋井宽;郑超凡;高联丽 - 电子科技大学
  • 2022-08-30 - 2023-01-03 - G06V20/40
  • 本发明公开了一种基于多任务学习框架的无偏差动态场景图生成方法,涉及图像处理技术领域,解决最近无偏差场景图生成方法不能同时照顾头部谓词和尾部谓词学习的技术问题,包括以下步骤:将视频输入到目标检测器中,得到视频中图像中实例的视觉特征、语义特征以及空间特征;将图像中实例的特征送入到全局特征学习分支和局部特征学习分支中,通过链接局部特征和全局特征将其场景图生成模型中进行训练;采用多任务学习模型,通过辅助任务动作识别任务的学习对主任务场景图生成任务中的不合理预测进行修正,同时计算所预测的场景图的语义和标注的场景图的语义之间的差距,并用均方差损失和focal损失函数优化。
  • 一种基于任务学习框架偏差动态场景生成方法
  • [发明专利]场景图的生成方法、装置和设备-CN202010687142.5有效
  • 宋井宽;郭昱宇;高联丽 - 成都井之丽科技有限公司;电子科技大学
  • 2020-07-16 - 2022-12-27 - G06N3/08
  • 本发明涉及计算机视觉技术领域,提供一种场景图的生成方法、装置和设备,旨在使用训练数据集构建难度较小的人工神经网络来实现场景图的生成。场景图的生成方法包括:通过人工神经网络的物体检测模块来提取被分析图像中的实体对象信息;通过人工神经网络的实体关系检测模块获得被分析图像中的实体对象关系信息;根据所述实体对象信息和实体对象关系信息生成场景图,所述场景图包括至少一个由主体、谓语和客体构成的关系三元组;其中,所述人工神经网络的训练数据集中,任意一个作为监督信息的关系三元组仅存在于一个训练图像。
  • 场景生成方法装置设备
  • [发明专利]一种可形变实例级图像翻译方法-CN202210987590.6在审
  • 俞再亮;苏思桐;李海燕;靖伟;刘玉;宋井宽 - 之江实验室;电子科技大学
  • 2022-08-17 - 2022-12-02 - G06V10/82
  • 本发明涉及图像处理领域,具体涉及一种可形变实例级图像翻译方法,其解决了现有技术中,域之间差距过大而导致的实例难以形变、实例无法和掩码信息保持一致的问题。其将前景的边缘信息、背景掩码信息和目标域标签信息的特征编码进行融合,获得混合掩码;然后,将背景特征和混合掩码,输入生成器,生成器的解码网络将输入的背景特征进行解码,同时从混合掩码提取附加信息,并将提取的附加信息作用于归一化后的解码输出上,通过附加信息对归一化后的解码输出进行仿射变换,从而获得了包括对应目标域掩码的前景信息和指示前景位置的位置信息的融合信息;最终,利用位置信息将生成的前景信息和源域背景图像进行融合,输出保留源域背景的目标域图片。
  • 一种形变实例图像翻译方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top