专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果43个,建议您升级VIP下载更多相关专利
  • [发明专利]基于说话人增强类型标签的对话文本关系抽取方法-CN202211519193.2在审
  • 毛启容;姚庆;詹永照;马忠臣 - 江苏大学
  • 2022-11-30 - 2023-03-07 - G06F16/33
  • 本发明公开了一种基于说话人增强类型标签的对话文本关系抽取方法,在实体类型模块中,将实体标签插入到对话文本中实体提及前后,形成输入序列A;将A转换成低维特征序列,将实体标签的头标签对应的低维特征取平均,生成实体类型的特征并进行分类,进而预测实体类型;在关系抽取模块中,将说话人增强类型标签插入到对话文本中实体提及Entity mention前后,形成输入序列B;将B转换成低维特征序列,输入特征强化层,特征强化层捕捉上下文信息且生成实体对主客体的实体表征;将主客体的实体表征和B中的全局特征输入关系分类器进行分类,从而预测实体对之间的关系。本发明显著提高了对话文本关系抽取的性能。
  • 基于说话增强类型标签对话文本关系抽取方法
  • [发明专利]一种基于时空关联学习的弱监督时序动作检测方法-CN202210383307.9在审
  • 夏惠芬;詹永照;朱斌 - 常州机电职业技术学院
  • 2022-04-13 - 2022-07-29 - G06V40/20
  • 本发明涉及计算机视觉技术领域,尤其涉及一种基于时空关联学习的弱监督时序动作检测方法,包括S1、通过I3D网络对视频帧提取特征;S2、对视频构建动态空间图网络结构,得到视频空间特征;S3、构建一维时序卷积网络,得到视频时序特征;S4、将时序特征和空间特征进行融合;S5、使用动作‑背景注意力机制,分别是动作注意力和背景注意力,分别用于池化原来的视频特征;S6、预测视频中动作和背景的时空关联的类激活序列,预测视频中的动作激活序列或背景激活序列,分别得到三个分类损失;S7、计算总损失函数;S8、将训练好的模型用来动作检测。本发明解决现有弱监督时序动作检测方法存在的动作示例不完整、不精确的问题。
  • 一种基于时空关联学习监督时序动作检测方法
  • [发明专利]一种分阶段注意时序对齐的少样本动作识别方法-CN202210085490.4在审
  • 赵逸飞;詹永照 - 江苏大学
  • 2022-01-25 - 2022-05-20 - G06V40/20
  • 本发明提供了一种分阶段注意时序对齐的少样本动作识别方法,通过分阶段的注意力机制更精确地实现视频片段的时序对齐,使位于不同阶段的多注意力模块能够集中注意到视频不同阶段的特定特征,避免了视频阶段级别的时序错配,克服现有单一注意力模块时序对齐的范围过于宽泛的问题,保证了对齐后的视频片段对间具有阶段时序先于偏序关系,从而更合理、准确地获取利用视频中动作的时序信息;通过剔除相似度过低的视频片段特征对,以降低非动作片段的干扰,学习更有效的动作时序片段特征,从而提高了少样本动作识别的准确率。
  • 一种分阶段注意时序对齐样本动作识别方法
  • [发明专利]基于上下文信息与提议分类解耦的时序动作检测方法-CN202110571819.3在审
  • 詹永照;严丽婷 - 江苏大学
  • 2021-05-25 - 2021-09-21 - G06K9/00
  • 本发明涉及计算机视觉领域,具体涉及一种基于上下文信息与提议分类解耦的时序动作检测方法。该方法在时序提议生成的基础上,提出了时序上下文信息融合模块,对每个时序提议进行扩展,并融合上下文信息,使得时序提议尽可能多的包含丰富的动作上下文信息;同时对动作分类网络进行解耦,构建动作分类分支和时序边界回归分支,分别侧重于分类任务和时序边界回归任务,以优化每个子任务的性能;通过单独的时序边界回归分支对时序边界进行调整,并将两个分支得到的分类分数进行融合,使之能够更为准确的对视频中的动作进行分类和定位。本发明提高了时序动作检测模型对视频中动作分类和定位的准确性。
  • 基于上下文信息提议分类时序动作检测方法
  • [发明专利]一种综合精度与速度的强化学习视频对象分割方法-CN202110597923.X在审
  • 詹永照;骆文青 - 江苏大学
  • 2021-05-31 - 2021-09-21 - G06T7/136
  • 本发明涉及计算机视觉领域,具体涉及一种综合精度与速度的强化学习视频对象分割方法。该方法首先基于加权多尺度网络和时序信息的引入构建高精度视频对象分割网络;同时采用混合深度可分离卷积替换原始卷积的网络结构优化的方式轻量化网络模型构建高速视频对象分割网络;之后建立综合精度和速度的强化学习视频对象分割网络,在高精度视频对象分割网络和高速视频对象分割网络之间为视频的每一帧选择最佳分割网络,从而在保持准确率和速度平衡的同时,减少冗余计算,进一步提高分割速度。本发明提高了视频对象分割的性能,适用性好,在保持较高的视频分割准确率的同时有效地提高了分割速度。
  • 一种综合精度速度强化学习视频对象分割方法
  • [发明专利]基于混合式协同训练的人体动作识别方法及系统-CN201610913531.9有效
  • 姜震;景陈勇;彭长生;詹永照 - 江苏大学;江苏科海智能系统有限公司
  • 2016-10-20 - 2020-04-21 - G06K9/62
  • 本发明提供了一种基于混合式协同训练的人体动作识别方法及系统。方法包括:利用人体动作识别领域中基于模板的KNN算法和基于概率统计的SVM算法来构建基分类器,然后进行二者间迭代的协同训练以提高它们的识别性能,同时改进协同训练中对伪标签样本的选择方法和迭代训练策略,最后对KNN模型和SVM模型的识别结果进行融合,得出待识别样本所属的人体动作类别。本发明利用不同类型的方法来构建分类器,通过它们之间的协同训练,可以实现不同识别方法的优势互补,有效解决了以往单一识别方法在复杂场景下识别效果不佳的问题。此外,引入伪标签样本作为新的训练样本,有效减少人工标注样本的成本。从而实现了以较少的训练样本达到更好识别准确率的目的。
  • 基于混合式协同训练人体动作识别方法系统
  • [发明专利]一种能利用事件持续时间的高效LSTM设计方法-CN201810095119.X有效
  • 牛德姣;刘亚文;蔡涛;夏政;刘天泉;詹毕晟;詹永照;梁军 - 江苏大学
  • 2018-01-31 - 2020-02-21 - G06N3/063
  • 本发明公开了一种能利用事件持续时间的高效LSTM设计方法,提出使用基于事件持续时间的序列编码方法,将序列数据中所包含的事件及其持续时间信息作为LSTM网络各个时刻的输入;通过高效LSTM隐藏层神经元记忆更新方法,使神经元能够记忆事件的持续时间,同时合理高效地进行神经元的计算。针对现有循环神经网络LSTM单元在处理长序列时,不能有效利用序列中事件的持续时间信息、导致计算冗余,训练时间开销大的问题,设计了一种能利用事件持续时间的高效LSTM结构;包括基于事件持续时间的序列编码方法和高效LSTM隐藏层神经元记忆更新方法,本发明模拟生物神经元对外界激励的应激模式,在利用事件持续时间建模的同时有效减少了LSTM隐藏层神经元的冗余计算,提高了LSTM的训练效率,从而保证在处理长序列时LSTM模型的有效性和实用性。
  • 一种利用事件持续时间高效lstm设计方法
  • [发明专利]一种基于无监督域适应的语音情感识别方法-CN201610600762.4有效
  • 毛启容;薛文韬;高利剑;N.鲁瓦;申自强;詹永照 - 江苏大学
  • 2016-07-27 - 2020-01-24 - G10L25/63
  • 本发明公开了一种基于无监督域适应的语音情感识别方法,提出的模型包括:特征提取,情感标签预测,域标签预测。特征提取:首先将原始输入数据分解成两块特征,情感判别特征和情感无关特征,然后将情感判别特征进行层次非线性转换得到高层情感特征。将高层情感特征用于情感标签和域标签的预测。利用梯度下降法对整个模型的参数进行更新,得到特征提取层的各层权重。然后,进行特征提取,源域有标签样本通过训练好的特征提取层得到高层情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。解决了语音情感识别中训练样本和测试样本数据分布不同的问题。
  • 一种基于监督适应语音情感识别方法
  • [发明专利]一种基于RGB-I的昼夜行车驾驶人员人脸实时检测方法-CN201610436625.1有效
  • 毛启容;刘鹏;高利剑;刘峰;陈龙;詹永照 - 江苏大学
  • 2016-06-16 - 2019-12-31 - G06K9/00
  • 本发明公开了一种基于RGB‑I的昼夜行车驾驶人员人脸实时检测方法,包括模型训练的步骤和驾驶员脸部识别的步骤;模型训练的步骤包括:S1,驾驶员人脸库的预处理:将驾驶员人脸图片分成两组大小分别为40*40和28*28,之后进行灰度化;S2,建立基于RGB图像训练的R‑Convnet模型和基于Infrared图像训练的I‑Convnet模型,R‑Convnet模型分为R40‑Convnet模型和R28‑Convnet模型,I‑Convnet模型分为I40‑Convnet模型、I28‑Convnet模型,4种Convnet模型是在CNN的基础上去掉全连接层得到;驾驶员脸部识别的步骤包括:S3,利用RGB摄像头、Infrared摄像头分别在白天和夜间采集驾驶员图像;S4,白天用训练好的级联的R40‑Convnet模型、R28‑Convnet模型进行识别,夜间使用训练好的级联的I40‑Convnet模型、I28‑Convnet模型进行识别。本发明提高了在夜间或者恶劣驾驶环境下,驾驶员脸部检测的时间和精度。
  • 一种基于rgb昼夜行车驾驶人员实时检测方法
  • [发明专利]一种融合脸部表情和语音的驾驶员情感实时识别方法-CN201610140027.X有效
  • 毛启容;刘鹏;刘峰;陈龙;詹永照 - 江苏大学
  • 2016-03-14 - 2019-03-05 - G06K9/00
  • 本发明公开了一种融合脸部表情和语音的驾驶员情感实时识别方法,首先,通过kinect SDK实时跟踪人脸,获取驾驶员的脸部图像和语音信号,之后对驾驶员的脸部图像、声学信号进行预处理,根据给出的目标函数来训练基于无监督特征学习和稀疏编码的特征提取模型,得到模型之后将预处理得到的信息输入该模型得到基于脸部图像和声音信号的情感特征;并根据说话内容提取单词,通过Apriori算法得到的频繁单词并创建词典,通过词典得到基于文本的情感特征,最后将基于脸部图像和声音信号的情感特征和基于文本的情感特征串连在一起得到特征向量,将特征向量输入到支持向量机SVM,训练SVM分类器,得到SVM模型。利用最终得到SVM模型识别出驾驶员的情感,具有很高的鲁棒性。
  • 一种融合脸部表情语音驾驶员情感实时识别方法
  • [发明专利]一种视频语义分析方法-CN201610107770.5有效
  • 詹永照;詹智财;张建明;彭长生 - 江苏科海智能系统有限公司;江苏大学
  • 2016-02-26 - 2019-02-01 - G06K9/00
  • 本发明提供了一种视频语义分析方法,该方法包括以下步骤:S1:对视频训练集进行预处理,并构建稀疏线性解码器;S2:加入拓扑特性约束建立拓扑线性解码器,并将视频训练集进行图像分块处理从而训练拓扑线性解码器;S3:将训练好的拓扑线性解码器的参数作为卷积神经网络中卷积层的初始参数;S4:采用多倍交叉验证的方式并基于视频训练集建立关键帧集合对卷积神经网络进行微调,建立一个基于视频数据的通用特征提取器,最后将训练集与测试集上提取到的特征输入到支持向量机中进行基于视频语义的分类。本发明提出的模型训练方法更具有应对内容多变的视频类数据样本,提高模型的准确性和鲁棒性。
  • 一种视频语义分析方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top