|
钻瓜专利网为您找到相关结果 23个,建议您 升级VIP下载更多相关专利
- [发明专利]一种图像风格迁移方法及系统-CN202211019889.9有效
-
刘纯平;石涤波;陈哲恺;季怡;李蓥
-
苏州大学
-
2022-08-24
-
2023-07-11
-
G06T3/00
- 本发明公开了一种图像风格迁移方法及系统,包括:S1、将内容图像和风格图像分别输入两个编码器,并分别得到内容特征和风格特征;S2、将得到的内容特征和风格特征分别输入两个SPNet金字塔网络进行语义增强,并分别得到增强后的内容特征和风格特征;S3、将增强前的内容特征和风格特征输入第一特征融合模块进行特征融合,将增强后的内容特征和风格特征输入第二特征融合模块进行特征融合;S4、将第一特征融合模块特征融合后的结果和第二特征融合模块特征融合后的结果相加后,输入第一卷积层进行特征提取,得到风格化特征;S5、将得到的风格化特征输入解码器,解码得到风格迁移后的图像。本发明图像风格迁移方法可获得高质量的风格化图像。
- 一种图像风格迁移方法系统
- [发明专利]基于多特征融合的视频描述方法-CN201710281305.8有效
-
刘纯平;徐鑫;林欣;刘海宾;季怡
-
苏州大学
-
2017-04-26
-
2020-11-03
-
G06F16/74
- 本发明公开了一种基于多特征融合的视频描述方法,其特征在于:1)通过融合传统CNN特征和SIFT流特征提取视频的深层时空特征;2)根据步骤1)提取的深层时空特征,采用加入以平均池化特征作为视频整体特征的S2VT句子生成模型生成相应的句子描述;3)采用word2vec词向量替换one‑hot vector词表征优化步骤2)中的句子生成模型。本方法优点是通过多特征融合,能更好地提取到更加鲁棒的时空特征,同时在句子生成模型中加入平均池化特征,以便视觉信息与单词间建立更多联系,最后采用word2vec词向量方法替换one‑hot vector词表征,在单词与单词之间建立更多的联系,有效提高视频描述性能。
- 基于特征融合视频描述方法
- [发明专利]一种基于特征学习的跨年龄人脸验证方法-CN201510270145.8有效
-
王朝晖;翟欢欢;刘纯平;季怡;龚声蓉;葛瑞
-
苏州大学
-
2015-05-25
-
2019-02-19
-
G06K9/00
- 本发明公开了一种基于特征学习的跨年龄人脸验证方法,包括如下步骤:(1)获取待对比的两幅人脸图像;(2)利用人脸特征点定位的方法对两幅人脸图像进行对齐操作;(3)分别对每幅图像进行特征提取,方法为:①通过深度卷积神经网络自动提取高层语义特征;②计算图像的LBP直方图特征;③将①和②中获得的特征进行融合,表达为特征向量;(4)采用余弦相似度方法计算步骤(3)获得的两幅图像的特征向量之间的距离,据此判断两幅图像是否来自同一人。本发明首次将深度网络应用到跨年龄人脸验证,同时创造性地将手工设计的LBP直方图特征与深度网络自主学习的特征进行融合,实现高层语义特征与低层特征的互补,具有更好的准确率。
- 一种基于特征学习年龄验证方法
- [发明专利]一种用于视频的基于双向长短时记忆单元的行为识别方法-CN201611193290.1在审
-
刘纯平;葛瑞;季怡;刘海宾;龚声蓉
-
苏州大学
-
2016-12-21
-
2017-06-13
-
G06K9/00
- 本发明公开了一种用于视频的基于双向长短时记忆单元的行为识别方法,包括(1)输入视频序列,提取视频序列中的RBG帧序列和光流图像;(2)分别训练RGB图像深度卷积网络和光流图像深度卷积网络;(3)提取网络的多层特征,其中至少提取第三卷积层、第五卷积层、第七全连接层的特征;对卷积层特征进行和池化;(4)对采用双向长短时记忆单元构建的递归神经网络进行训练,得到视频每帧的概率矩阵;(5)对每个概率矩阵取平均,最后融合光流帧和RGB帧的概率矩阵,取概率最大的类作为最后的分类结果,由此实现行为识别。本发明采用多层深度学习的特征代替传统的人工特征,不同层的深度特征表征了不同的信息,多层特征的组合可以提高分类的准确率;通过采用双向长短时记忆捕获时间信息,获得更多的时域结构信息,提高了行为识别的效果。
- 一种用于视频基于双向短时记忆单元行为识别方法
- [发明专利]基于超像素的Codebook动态场景中目标检测方法-CN201310534301.8有效
-
刘纯平;方旭;陈宁强;龚声蓉;季怡
-
苏州大学
-
2013-10-31
-
2017-02-15
-
G06T7/20
- 本发明公开了一种基于超像素的Codebook动态场景中目标检测方法,其特征在于,包括以下步骤(1)采用的超像素分割方法对视频帧进行分割,分割成K个超像素;(2)采用Codebook背景建模法,为步骤(1)中分割出来的每一个超像素建立一个Codebook,每个Codebook包括一个或几个Codeword,每个Codeword有它的学习时最大最小阈值,检测时的最大最小阈值,完成背景建模;(3)背景建模完成后,对当前进入的视频帧进行目标检测,如果当前帧的某个超像素值符合该背景像素值的分布,就标记为背景,否则标记为前景;最后,用当前的视频帧更新背景模型。本发明解决传统Codebook背景建模算法计算量和内存需求大,并且构建的Codewords不准确等问题,提高目标检测的准确度和速度,使其达到实时准确的要求,从而满足现实生活中智能监控的需求。
- 基于像素codebook动态场景目标检测方法
|