专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果34个,建议您升级VIP下载更多相关专利
  • [发明专利]一种带噪多标签数据的神经网络模型训练方法和装置-CN202310509397.6在审
  • 葛仕明;李世鲲 - 中国科学院信息工程研究所
  • 2023-05-08 - 2023-09-01 - G06N3/0985
  • 本发明涉及一种带噪多标签数据的神经网络模型训练方法和装置。该方法的步骤包括:通过样本选择算法为每一类别选择出干净样本集合作为元数据集,并进行类别依赖的标签噪声转移矩阵估计;利用类别依赖的标签噪声转移矩阵对实例特征依赖的标签噪声转移矩阵网络中的部分参数进行初始化;基于统计一致性的标签噪声学习损失,将学习问题转化为双层优化问题,用元学习算法同时学习实例特征依赖的标签噪声转移矩阵网络参数、数据不平衡参数和多标签分类神经网络参数。本发明创新性地利用元学习算法以数据驱动的方式,将实例特征依赖的标签噪声转移矩阵网络参数、数据不平衡参数和多标签分类神经网络参数统一到一个框架下学习。
  • 一种带噪多标签数据神经网络模型训练方法装置
  • [发明专利]模型的训练方法和装置、存储介质、电子装置-CN201811197546.5有效
  • 葛仕明 - 腾讯科技(深圳)有限公司
  • 2018-10-15 - 2023-08-29 - G06F18/24
  • 本发明公开了一种模型的训练方法和装置、存储介质、电子装置。其中,该方法包括:获取训练请求,训练请求用于请求对第一神经网络模型进行训练,得到第二神经网络模型,第二神经网络模型用于识别图片类型为第一类型的图片;通过第三神经网络模型确定训练集,第三神经网络模型用于识别图片类型为目标类型的图片,目标类型包括第一类型,训练集中包括从第一集合中识别出来的与第一类型相关联的图片,第一集合中的图片上未标记有第一标识;通过训练集对第一神经网络模型进行训练,得到第二神经网络模型,第二神经网络模型中神经网络的层数不同于第二神经网络模型中神经网络的层数。本发明解决了对神经网络模型进行训练的时间成本较高的技术问题。
  • 模型训练方法装置存储介质电子
  • [发明专利]一种可见光与红外视频图像融合方法及装置-CN202110163783.5有效
  • 葛仕明 - 中国科学院信息工程研究所
  • 2021-02-05 - 2023-01-13 - G06T5/50
  • 本发明公开一种可见光与红外视频图像融合方法及装置,属于计算机视觉和图像处理领域,通过拍摄同一场景的可见光图像和红外图像,检测可见光图像和红外图像中的局部特征并进行匹配,进行相机标定,得到两个相机模态图像的空间映射矩阵;对可见光图像提取暗通道,并进行阈值化,得到场景分割图,该场景分割图将图像分成天空区域和非天空区域两类;对可见光图像和红外图像提取亮度通道,根据所述空间映射矩阵和场景分割图,对可见光图像和红外图像的亮度通道进行场景自适应通道融合,得到融合图像。本发明能够使无人机目标在融合后的图像中与背景具有更大的区分性,为后续的进一步检测识别等处理提供更好的数据输入。
  • 一种可见光红外视频图像融合方法装置
  • [发明专利]一种多方参与数据不共享的网络模型训练方法-CN202010940180.7有效
  • 王伟平;葛仕明;刘博超;李晨钰 - 中国科学院信息工程研究所
  • 2020-09-09 - 2022-08-16 - G06F21/62
  • 本发明公开了一种多方参与数据不共享的网络模型训练方法,其步骤包括:1)参与数据共享的各参与方利用所选隐私数据集训练各自所选网络模型,分别得到一教师网络模型;2)采用步骤a)~b)对学生网络模型S进行多轮训练,得到最终的公开网络模型M;a)选出一个教师网络模型Ti指导学生网络模型S更新:首先将训练数据Xi输入模型Ti,得到标签中加入噪声N得到Yi,将Xi输入学生网络模型S,输出S(Xi);然后最小化S(Xi)与Yi之间的相似距离训练学生网络模型S;b)利用学生网络模型S对公开的未标记数据进行部分标记,然后使用部分标注的数据通过半监督知识蒸馏的方法将学生网络模型S中的知识蒸馏到一公开网络模型M中。
  • 一种多方参与数据共享网络模型训练方法
  • [发明专利]一种深度神经网络模型可视化解释方法及系统-CN202110088772.5有效
  • 葛仕明;化盈盈 - 中国科学院信息工程研究所
  • 2021-01-22 - 2022-08-12 - G06V10/764
  • 本发明涉及一种深度神经网络模型可视化解释方法及系统。该方法包括:给定待解释的输入图片,利用变分自编码器生成合成图片;通过深度神经网络模型对合成图片打标签,依据合成图片的标签是否变化将合成图片分为两类,得到合成标签,从而得到合成数据集;在合成数据集上训练可解释模型,将深度神经网络模型的知识蒸馏到可解释模型中;根据训练好的可解释模型,建立输入图片和深度神经网络模型的预测结果的对应关系,进而得到一张显著图,从而实现对深度神经网络决策结果的解释。本发明能够提高深度神经网络模型的可解释性,使模型透明化,使用户更好地理解深度神经网络的决策过程,从而促进模型的实际部署,推动人工智能领域研究的发展。
  • 一种深度神经网络模型可视化解释方法系统
  • [发明专利]一种面向资源受限环境的目标跟踪方法及装置-CN201810339409.4有效
  • 葛仕明;罗朝 - 中国科学院信息工程研究所
  • 2018-04-16 - 2022-06-17 - G06V20/52
  • 本发明提供一种面向资源受限环境的目标跟踪方法及装置,该方法的步骤包括:提取视频流当前帧的上一帧的目标位置的图像特征,根据该图像特征构建目标模板T1;提取当前帧对应于上一帧的目标位置处的图像特征,根据该图像特征构建目标模板T2;将目标模板T1和目标模板T2进行模板匹配,获得一个输出响应;找出输出响应的最大值,其为当前帧与上一帧之间的目标偏移位置,根据该目标偏移位置获得当前帧的目标位置;提取当前帧的目标位置的图像特征,根据该图像特征构建目标模板T3,将该目标模板T3替换目标模板T2,用于跟踪下一帧的目标位置,实现该视频流的目标跟踪。
  • 一种面向资源受限环境目标跟踪方法装置
  • [发明专利]一种基于视觉的空间定位方法-CN201810220678.9有效
  • 葛仕明;刘文瑜;赵胜伟 - 中国科学院信息工程研究所
  • 2018-03-16 - 2022-05-03 - G06T7/80
  • 本发明提供一种基于方形标签和视觉的空间定位方法,包括如下步骤:通过标定,获取两个相机的内参数矩阵;在某一固定点和需定位位置设置不同id的方形标签;使用两个相机同时拍摄拍摄固定点和需定位位置的方形标签,并获取各方形标签的坐标信息,根据坐标信息和内参数矩阵求取两个相机在以固定点为原点的三维世界坐标和相机坐标系到三维世界坐标系的三个旋转角;根据两个相机在以固定点为原点的三维世界坐标和相机坐标系到三维世界坐标系的三个旋转角,求得每一个方形标签中心点的以固定点为原点的三维世界坐标完成定位。能够解决当前空间定位方法速度缓慢,精度不高,操作复杂,设备要求高等问题。
  • 一种基于视觉空间定位方法
  • [发明专利]垂直上升气旋现象中非线性波危害的消减方法及装置-CN202111106100.9在审
  • 葛仕明;张汉松 - 中国科学院信息工程研究所
  • 2021-09-22 - 2022-02-15 - G06F30/20
  • 本发明公开了一种垂直上升气旋现象中非线性波危害的消减方法及装置,包括基于垂直上升气旋参数,构建AB系统模型方程,并获取AB系统模型方程的一阶呼吸子解表达式与二阶呼吸子解表达式;分析一阶呼吸子解表达式,利用一阶呼吸子解中各组分之间的群速度,生成态转换解析条件;使一阶呼吸子解与二阶呼吸子解满足态转换解析条件,分别构建非线性转换波与非线性复合体;通过对AB系统模型方程的设定初始解增加周期扰动,得到给定扰动频率和初始解中初始频率的关系;基于所述关系与态转换解析条件,对非线性转换波和/或非线性复合体进行抵消或激发,以消减非线性波危害。本发明有效地抵消或减弱部分非线性波,从而减少可能产生的破坏。
  • 垂直上升气旋现象中非线性危害消减方法装置
  • [发明专利]虚拟角色图像的构建方法及装置、存储介质-CN201710555575.3有效
  • 葛仕明 - 腾讯科技(深圳)有限公司;中国科学院信息工程研究所
  • 2017-07-10 - 2022-01-28 - G06V40/16
  • 本申请提供一种虚拟角色图像的构建方法及装置、存储介质。方法包括:对至少两帧图像分别进行人脸检测,得到至少两帧图像各自对应的人脸图像,并对人脸图像进行特征点检测,得到特征点的位置数据;针对至少两帧图像中除第一帧图像之外的每一帧图像,执行如下处理:将第一人脸图像中特征点的位置数据与第一虚拟角色图像中相应面部特征点的位置数据进行映射,得到第一人脸图像对应的特征点映射数据;确定第二虚拟角色图像中的面部特征点相对于第一虚拟角色图像中相应面部特征点的位置变化;利用形变传播方法确定第二虚拟角色图像中多个肩部采样点相对于第一虚拟角色图像中相应肩部采样点的位置变化;确定第二虚拟角色图像。
  • 虚拟角色图像构建方法装置存储介质
  • [发明专利]一种蒙面人脸遮挡物分割方法与装置-CN202110923768.6在审
  • 葛仕明;郭维佳 - 中国科学院信息工程研究所
  • 2021-08-12 - 2021-11-30 - G06K9/34
  • 本发明公开了一种蒙面人脸遮挡物分割方法与装置。本方法为:1)利用训练数据集训练一蒙面人脸分割网络;其中训练数据集中每对图像包括一张蒙面遮挡的人脸图像及对应的蒙面人脸的语义分割图像;2)蒙面人脸分割模型获取每对输入图像中的蒙面人脸;然后对蒙面人脸进行深度可分离卷积操作获得该蒙面人脸的特征地图;然后从该特征地图提取不同尺度特征并对其进行融合,得到全局特征地图;然后对该全局特征地图进行逐像素预测,得到预测分割图;然后根据该预测分割图与对应的语义分割图像计算得到损失值,利用损失值监督训练该蒙面人脸分割网络;3)利用步骤2)训练后的蒙面人脸分割网络对待处理图像进行分割,得到该待处理图像的预测分割图。
  • 一种蒙面遮挡分割方法装置
  • [发明专利]一种高性能视觉跟踪方法及装置-CN201810857145.1有效
  • 葛仕明 - 中国科学院信息工程研究所
  • 2018-07-31 - 2021-08-20 - G06T7/246
  • 本发明提供一种高性能视觉跟踪方法,其步骤包括:根据视频的前一帧的物体位置提取该帧的图像块,提取该图像块的原始多通道特征;根据视频的前一帧的物体位置提取当前帧的图像块,提取该图像块的原始多通道特征;将上述两帧的原始多通道特征经过通道蒸馏模块,得到压缩后的多通道特征;对压缩后的多通道特征进行傅里叶变换,并与跟踪模型进行点乘操作,再进行傅里叶逆变换,得到响应图;寻找响应图上的最大响应位置,得到物体偏离向量,并将物体偏离向量与当前帧所对应的前一帧的物体位置相加,得到当前帧的物体位置;根据当前帧的物体位置,计算压缩后的多通道特征,更新跟踪模型。本发明还提供一种高性能视觉跟踪装置。
  • 一种性能视觉跟踪方法装置

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top