专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果23个,建议您升级VIP下载更多相关专利
  • [发明专利]一种图像风格迁移方法及系统-CN202211019889.9有效
  • 刘纯平;石涤波;陈哲恺;季怡;李蓥 - 苏州大学
  • 2022-08-24 - 2023-07-11 - G06T3/00
  • 本发明公开了一种图像风格迁移方法及系统,包括:S1、将内容图像和风格图像分别输入两个编码器,并分别得到内容特征和风格特征;S2、将得到的内容特征和风格特征分别输入两个SPNet金字塔网络进行语义增强,并分别得到增强后的内容特征和风格特征;S3、将增强前的内容特征和风格特征输入第一特征融合模块进行特征融合,将增强后的内容特征和风格特征输入第二特征融合模块进行特征融合;S4、将第一特征融合模块特征融合后的结果和第二特征融合模块特征融合后的结果相加后,输入第一卷积层进行特征提取,得到风格化特征;S5、将得到的风格化特征输入解码器,解码得到风格迁移后的图像。本发明图像风格迁移方法可获得高质量的风格化图像。
  • 一种图像风格迁移方法系统
  • [发明专利]唇语的分词方法、装置、存储介质和电子设备-CN201810586014.4有效
  • 刘纯平;季怡;林欣;邢腾飞;邬晓钧 - 北京得意音通技术有限责任公司
  • 2018-06-08 - 2022-03-01 - G06F40/284
  • 本发明实施例提供一种唇语的分词方法、装置、存储介质和电子设备,涉及人工智能领域。其中,所述方法包括:从说话者说话的视频帧序列中,获取视频帧序列中至少一个视频帧图像的唇部特征点;基于至少一个视频帧图像的唇部特征点,确定至少一个视频帧图像中每个视频帧图像的唇部动作特征数据;确定至少一个视频帧图像中视频帧图像的唇部动作特征数据的正向标准差和/或逆向标准差;基于至少一个视频帧图像中视频帧图像的唇部动作特征数据的正向标准差和/或逆向标准差,确定说话者的唇语的分词结果。通过本发明实施例,基于视频帧图像的唇部动作特征数据的正向标准差和逆向标准差,确定说话者的唇语的分词结果,能够提高说话者的唇语分词的准确度。
  • 分词方法装置存储介质电子设备
  • [发明专利]基于多特征融合的视频描述方法-CN201710281305.8有效
  • 刘纯平;徐鑫;林欣;刘海宾;季怡 - 苏州大学
  • 2017-04-26 - 2020-11-03 - G06F16/74
  • 本发明公开了一种基于多特征融合的视频描述方法,其特征在于:1)通过融合传统CNN特征和SIFT流特征提取视频的深层时空特征;2)根据步骤1)提取的深层时空特征,采用加入以平均池化特征作为视频整体特征的S2VT句子生成模型生成相应的句子描述;3)采用word2vec词向量替换one‑hot vector词表征优化步骤2)中的句子生成模型。本方法优点是通过多特征融合,能更好地提取到更加鲁棒的时空特征,同时在句子生成模型中加入平均池化特征,以便视觉信息与单词间建立更多联系,最后采用word2vec词向量方法替换one‑hot vector词表征,在单词与单词之间建立更多的联系,有效提高视频描述性能。
  • 基于特征融合视频描述方法
  • [发明专利]基于超像素聚类的协同显著性检测方法-CN201710283829.0有效
  • 刘纯平;朱桂墘;季怡;邢腾飞;万晓依;王大木 - 苏州大学
  • 2017-04-26 - 2020-06-02 - G06K9/46
  • 本发明公开了一种基于超像素聚类的协同显著性检测方法,通过构建超像素金字塔,使用超像素块来代替普通像素点,加速协同显著性计算,同时构建超像素金字塔可以获得不同尺度上的特征信息,保证协同显著目标的边界的准确性,在此基础上,使用聚类的方法进一步将超像素块分类,进一步加速了协同显著性的计算时间,最后使用协同显著图与显著图融合的方法得到最终的协同显著图,保证了协同显著目标的准确性。本发明获得的显著目标的边界轮廓定位更加准确,在时间和准确性上具有一定的优势。
  • 基于像素协同显著检测方法
  • [发明专利]一种获取、提供视频资源的方法、客户端和服务器-CN201510193440.8有效
  • 孔令爽;任溯;季怡;吴华朋 - 杭州海康威视系统技术有限公司
  • 2015-04-22 - 2019-09-10 - H04N7/18
  • 本发明公开了一种获取、提供视频资源的方法、客户端和服务器,应用于视频监控系统能够。获取视频资源的方法包括:检测客户端与服务器之间的网络状态;在网络有效的状态下,基于用户操作请求获取实时显示的用户界面数据来展示视频资源,同时在后台采用增量加载的方式在线获取用于备份的资源数据并更新本地索引;在网络失效的状态下,基于用户操作请求从本地索引中检索用户界面数据来展示视频资源。本发明采用增量更新数据的方式,可以减少数据传输量,能够缩短数据更新时间,从而提高数据更新效率。另外,本发明采用实时检索和本地资源缓存的方式,并使其分别在前后台并发运行,保证了界面同步任务的实时性,并且确保了可用性和效率。
  • 一种获取提供视频资源方法客户端服务器
  • [发明专利]一种基于特征学习的跨年龄人脸验证方法-CN201510270145.8有效
  • 王朝晖;翟欢欢;刘纯平;季怡;龚声蓉;葛瑞 - 苏州大学
  • 2015-05-25 - 2019-02-19 - G06K9/00
  • 本发明公开了一种基于特征学习的跨年龄人脸验证方法,包括如下步骤:(1)获取待对比的两幅人脸图像;(2)利用人脸特征点定位的方法对两幅人脸图像进行对齐操作;(3)分别对每幅图像进行特征提取,方法为:①通过深度卷积神经网络自动提取高层语义特征;②计算图像的LBP直方图特征;③将①和②中获得的特征进行融合,表达为特征向量;(4)采用余弦相似度方法计算步骤(3)获得的两幅图像的特征向量之间的距离,据此判断两幅图像是否来自同一人。本发明首次将深度网络应用到跨年龄人脸验证,同时创造性地将手工设计的LBP直方图特征与深度网络自主学习的特征进行融合,实现高层语义特征与低层特征的互补,具有更好的准确率。
  • 一种基于特征学习年龄验证方法
  • [发明专利]基于阈值矩阵和特征融合视觉单词的人物行为识别方法-CN201410222664.2有效
  • 龚声蓉;谢飞;刘纯平;王朝晖;季怡 - 苏州大学
  • 2014-05-23 - 2017-11-10 - G06T7/246
  • 本发明公开了一种基于阈值矩阵和特征融合视觉单词的人物行为识别方法,其特征在于,包括以下步骤首先采用显著度计算法提取视觉单词,具体如下,对训练视频帧进行显著度计算,取得人物所在的区域位置,然后对区域内外采取不同的阈值进行兴趣点检测,基于取得的兴趣点计算出视觉单词;然后对取得的视觉单词进行建模分析,建立动作的模型;在动作模型建立好后,对测试视频帧采用同样的显著度计算法提取视觉单词,然后将取得的视觉单词作为输入,放入建好的动作模型中进行分类;最后将动作的分类结果作为测试视频中人物行为的标签返回出来,完成人物行为的识别。本发明可以有效地解决复杂场景下人物行为识别准确度的问题。
  • 基于阈值矩阵特征融合视觉单词人物行为识别方法
  • [发明专利]一种用于视频的基于双向长短时记忆单元的行为识别方法-CN201611193290.1在审
  • 刘纯平;葛瑞;季怡;刘海宾;龚声蓉 - 苏州大学
  • 2016-12-21 - 2017-06-13 - G06K9/00
  • 本发明公开了一种用于视频的基于双向长短时记忆单元的行为识别方法,包括(1)输入视频序列,提取视频序列中的RBG帧序列和光流图像;(2)分别训练RGB图像深度卷积网络和光流图像深度卷积网络;(3)提取网络的多层特征,其中至少提取第三卷积层、第五卷积层、第七全连接层的特征;对卷积层特征进行和池化;(4)对采用双向长短时记忆单元构建的递归神经网络进行训练,得到视频每帧的概率矩阵;(5)对每个概率矩阵取平均,最后融合光流帧和RGB帧的概率矩阵,取概率最大的类作为最后的分类结果,由此实现行为识别。本发明采用多层深度学习的特征代替传统的人工特征,不同层的深度特征表征了不同的信息,多层特征的组合可以提高分类的准确率;通过采用双向长短时记忆捕获时间信息,获得更多的时域结构信息,提高了行为识别的效果。
  • 一种用于视频基于双向短时记忆单元行为识别方法
  • [发明专利]基于超像素的Codebook动态场景中目标检测方法-CN201310534301.8有效
  • 刘纯平;方旭;陈宁强;龚声蓉;季怡 - 苏州大学
  • 2013-10-31 - 2017-02-15 - G06T7/20
  • 本发明公开了一种基于超像素的Codebook动态场景中目标检测方法,其特征在于,包括以下步骤(1)采用的超像素分割方法对视频帧进行分割,分割成K个超像素;(2)采用Codebook背景建模法,为步骤(1)中分割出来的每一个超像素建立一个Codebook,每个Codebook包括一个或几个Codeword,每个Codeword有它的学习时最大最小阈值,检测时的最大最小阈值,完成背景建模;(3)背景建模完成后,对当前进入的视频帧进行目标检测,如果当前帧的某个超像素值符合该背景像素值的分布,就标记为背景,否则标记为前景;最后,用当前的视频帧更新背景模型。本发明解决传统Codebook背景建模算法计算量和内存需求大,并且构建的Codewords不准确等问题,提高目标检测的准确度和速度,使其达到实时准确的要求,从而满足现实生活中智能监控的需求。
  • 基于像素codebook动态场景目标检测方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top