专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果9个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于概率的MobileNetV1网络通道剪枝方法-CN202110903135.9有效
  • 赵汉理;史开杰;潘飞;卢望龙;黄辉 - 温州大学
  • 2021-08-06 - 2023-07-25 - G06N3/0464
  • 本发明提出一种基于概率的MobileNetV1网络通道剪枝方法。分为三步:预训练,剪枝,融合。预训练阶段:利用交叉熵损失和BN缩放因子的L1损失进行训练,得到预训练模型。剪枝阶段:利用MobileNetV1网络结构设计时使用BN和ReLU的特性,计算每个BN通道输出小于0的概率,并将概率大的通道进行剪枝。融合阶段:因为被剪枝的通道对于准确率的影响通常存在于深度卷积输出层BN的偏移因子中,本发明将其融合到下一层BN的偏移因子中,得到最终的剪枝网络。实施本发明,能够加快剪枝的获取时间,减少网络的运算量,同时尽可能的保持和预训练网络相同的准确率。
  • 一种基于概率mobilenetv1网络通道剪枝方法
  • [发明专利]一种基于类别一致性深度学习的图像识别方法-CN202110408724.X有效
  • 赵汉理;卢望龙;何奇;黄辉 - 温州大学
  • 2021-04-16 - 2023-06-30 - G06V10/764
  • 本发明提出一种基于类别一致性深度学习的图像识别方法。首先使用自动协同定位方法对训练集进行标注,得到类别一致二值掩码标签。用特征提取模块、分类器模块和类别一致掩码学习模块构造本发明的识别方法。每次迭代训练时,特征提取模块对输入图像进行特征提取;分类器模块根据提取的特征,进行计算并给出识别结果;类别一致掩码学习模块根据提取的特征,预测类别一致二值掩码。结合交叉熵损失和类别一致损失函数计算出损失值并进行反向传播,对识别方法的网络参数进行调整。重复上述步骤,直至训练结束,选择最优网络参数作为识别模型参数;实施本发明,能够以一种自监督学习的方式促进网络对关键特征的学习,实现高鲁棒性高准确率的图像识别。
  • 一种基于类别一致性深度学习图像识别方法
  • [发明专利]一种基于迭代残差学习的少样本图像修复方法-CN202211470483.2在审
  • 赵汉理;王纪开;卢望龙;王宇;刘鑫禹;姜贤塔;许淑华 - 温州大学
  • 2022-11-23 - 2023-04-07 - G06T5/00
  • 本发明提出一种基于迭代残差学习的少样本图像修复方法,包含生成器网络、映射空间鉴别器和伪造补丁鉴别器网络。每次训练,模型会迭代多次并对修复结果进行优化。在每次迭代优化中,生成器会重用之前的修复结果,并进一步预测修复区域和原始样本之间的残差信息。结合残差信息得到新一轮的修复结果,并对其进行损失值的计算。结合映射空间生成对抗损失、伪造补丁生成对抗损失和感知损失计算出损失值并进行反向传播,对生成器网络、映射空间鉴别器和伪造补丁鉴别器网络的参数进行调整。重复上述步骤,直至训练结束,选择最优网络参数作为修复模型参数;实施本发明,能够实现一种在少样本和多样本数据集上取得高质量修复的图像修复方法。
  • 一种基于迭代残差学习样本图像修复方法
  • [外观设计]电源壳(GY-689)-CN202230296386.0有效
  • 卢望龙 - 卢望龙
  • 2022-05-19 - 2022-08-02 - 13-02
  • 1.本外观设计产品的名称:电源壳(GY‑689)。2.本外观设计产品的用途:电源壳。3.本外观设计产品的设计要点:在于形状。4.最能表明设计要点的图片或照片:主视图。
  • 电源gy689
  • [发明专利]一种基于样例引导的人脸图像多样化修复方法-CN202210026270.4在审
  • 赵汉理;吕建凯;卢望龙;王敏;姜贤塔;黄辉 - 温州大学
  • 2022-01-11 - 2022-05-27 - G06T5/00
  • 本发明提出一种基于样例引导的人脸图像多样化修复方法,包含映射网络、风格网络、生成器网络和鉴别器网络。每次迭代训练,映射网络将随机高斯分布映射到随机风格;风格网络将样例图片的风格进行编码得到样例风格;生成器网络对输入图像进行全局风格提取,然后将随机风格、样例风格以及全局风格嵌入到生成器中的解码器来生成包含样例属性的人脸修复结果。结合生成对抗损失、空间变体感知损失、身份损失、以及属性一致损失计算出损失值并进行反向传播,对映射网络、生成器网络和鉴别器网络的参数进行调整。重复上述步骤,直至训练结束,选择最优网络参数作为生成模型参数;实施本发明,能够实现一种高质量的样例引导的人脸图像多样化修复方法。
  • 一种基于引导图像多样化修复方法
  • [发明专利]一种基于卷积神经网络的车标智能检测方法-CN202010139068.3有效
  • 赵汉理;卢望龙 - 温州大学
  • 2020-03-03 - 2021-09-03 - G06K9/00
  • 本发明提供一种基于卷积神经网络的车标智能检测方法,首先给定车标检测训练集及车标检测测试集,并构建和初始化车标检测模型及SGD优化器;其次,在车标检测模型的每次迭代计算中,将车标检测训练集中的输入图像作为车标检测模型的输入得到车标检测结果,且根据损失函数,计算出损失值并进行反向传播对车标检测模型的网络参数进行调整,同时利用车标检测测试集对车标检测模型进行评估,直至迭代结束,得到最终的最优网络参数来更新车标检测模型;最后,获取待测包含车标信息的输入图像输入计算,得到待测包含车标信息的输入图像的车标检测结果。实施本发明,提高车标检测模型的识别准确率和定位精准度,实现高鲁棒性高准确率的车标智能检测。
  • 一种基于卷积神经网络智能检测方法
  • [发明专利]一种基于GAN的视网膜血管图像智能分割方法-CN201910884346.5有效
  • 赵汉理;卢望龙;邱夏青;黄辉 - 温州大学
  • 2019-09-19 - 2021-07-06 - G06T7/00
  • 本发明公开了一种基于GAN的视网膜血管图像智能分割方法,包括以下步骤:1、给定视网膜图像集,划分训练集和测试集;2、设计生成器网络G和判别器网络D,构建Adam优化器;3、将训练集输入到G;4、G生成血管分割图像;5、D对G生成的分割图像判别计算;6、对G和D参数更新;7、对G评估并获得最优模型G’,重复第3‑7步直至迭代结束;8、将视网膜图像输入G’生成血管分割图像。本发明使用大感受野网络模型对视网膜图像进行智能分割,得到最终的视网膜血管分割图像。本发明的网络模型具有较好的鲁棒性,所得到的血管分割图像含有较少的噪声,总体优于现有的视网膜血管图像分割方法。
  • 一种基于gan视网膜血管图像智能分割方法
  • [发明专利]一种基于卷积神经网络深度特征的车标识别方法-CN202010139043.3有效
  • 赵汉理;卢望龙;陈强 - 温州大学
  • 2020-03-03 - 2021-05-11 - G06K9/62
  • 本发明提供一种基于卷积神经网络深度特征的车标识别方法,首先给定车标图像训练集及车标图像测试集,并构建和初始化分类器网络及SGD优化器;其次,在分类器网络的每次迭代计算中,将车标图像训练集中的车标图像作为分类器网络的输入得到车标识别结果,且根据损失函数,计算出损失值并进行反向传播对分类器网络的网络参数进行调整,同时利用车标图像测试集对分类器网络进行评估,直至迭代结束,得到最终的最优网络参数来更新分类器网络;最后,获取待测车标图像输入计算,得到待测车标图像的车标识别结果。实施本发明,提高分类器网络的识别准确率和定位精准度,实现高鲁棒性高准确率的车标智能检测。
  • 一种基于卷积神经网络深度特征标识方法
  • [发明专利]一种基于GAN的纹理图像智能合成方法-CN202010262670.6在审
  • 赵汉理;卢望龙 - 温州大学
  • 2020-04-06 - 2020-09-04 - G06T3/40
  • 本发明提供一种基于GAN的纹理图像智能合成方法,首先给定用于纹理合成的训练图像和测试图像;并构建和初始化生成器网络G、判别器网络D和Adam优化器;其次,在G和D的每次迭代计算中,将训练图像输入到G并得到纹理图像合成结果;D对G合成的纹理图像合成结果进行判别并根据损失函数计算出损失值;根据损失值进行反向传播对G和D的网络参数进行调整;同时利用测试图像对G评估并保存评估结果,直至迭代结束,得到最终的最优网络参数来更新G;最后,获取待测纹理合成图像输入计算,得到待测纹理合成结果。实施本发明,提高模型鲁棒性,实现具有完整性和连贯性较好的高质量纹理图像合成。
  • 一种基于gan纹理图像智能合成方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top