专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果150个,建议您升级VIP下载更多相关专利
  • [发明专利]基于非关键帧扰动的视频序列样本增强方法-CN202210808388.2在审
  • 柯逍;刘浩 - 福州大学
  • 2022-07-11 - 2022-10-18 - G06V20/40
  • 本发明涉及一种基于非关键帧扰动的视频序列样本增强方法,包括步骤S1:在网络训练过程中,将输入视频序列样本送入视频行人重识别网络模型中,并根据网络输出结果计算损失;步骤S2:对视频序列样本计算其梯度方向;步骤S3:对视频序列中每一个视频帧计算该视频帧下的梯度方向绝对值的总和;步骤S4:根据视频序列中每一帧的总和值,计算获得视频序列中前n_k个总和值最大的帧的索引,并视为此视频序列中的关键帧;步骤S5:根据关键帧的索引,对视频序列中其他非关键帧进行随机高斯噪声扰动;步骤S6:经过扰动后的非关键帧替换掉原视频序列中对应索引的帧,构建新的视频序列样本,再次送入视频重识别网络中进行后续训练。
  • 基于关键扰动视频序列样本增强方法
  • [发明专利]一种网络参数自纠正的行人重识别方法及系统-CN202010065378.5有效
  • 陈羽中;黄腾达;柯逍;林洋洋 - 福州大学
  • 2020-01-20 - 2022-10-04 - G06V40/10
  • 本发明涉及一种网络参数自纠正的行人重识别方法及系统,该方法包括:A、使用已标注类标签行人视频训练深度网络得到参考网络模型;B、利用参考网络模型估计未标注类标签行人视频的伪标签,并选取一定比例训练深度网络得到目标网络模型;C、从选取的未标注视频中再选取一定比例,打乱其伪标签,训练深度网络得到偏差网络模型;D、计算噪声自适应损失,对目标网络模型中错误网络参数更新进行自纠正;E、将参考网络模型替换成目标网络模型,重复步骤B‑D,并增加未标注视频的选取比例直到所有未标注视频被选中,得到最终的目标网络模型;F、使用目标网络模型对查询视频进行行人重识别。该方法及系统有利于提高行人重识别的准确性与鲁棒性。
  • 一种网络参数纠正行人识别方法系统
  • [发明专利]一种基于部位注意力的行人重识别方法及系统-CN202010067243.2有效
  • 陈羽中;黄腾达;柯逍;林洋洋 - 福州大学
  • 2020-01-20 - 2022-10-04 - G06V20/40
  • 本发明涉及一种基于部位注意力的行人重识别方法及系统,该方法包括以下步骤:A、输入训练集各行人视频到特征提取深度网络,得到中间特征并输入部位推断深度网络,得到K个部位的注意力热力图;B、做哈达玛积运算得到局部中间特征,再输入K个局部提取深度网络得到K个部位的局部特征;C、计算各部位的有效系数,对局部特征进行加权融合得到融合局部特征;D、计算全局特征,拼接全局特征和融合局部特征得到视频特征,输入全连接层得到分类向量;E、计算联合损失,计算各网络参数的梯度,后更新各网络参数,完成各网络训练过程;F、输入查询视频和检索集各视频到训练完成的各网络进行行人重识别。该方法及系统有利于提高行人重识别的性能。
  • 一种基于部位注意力行人识别方法系统
  • [发明专利]基于多尺度特征融合注意力的实时动作检测方法-CN202210785189.4在审
  • 柯逍;缪欣 - 福州大学
  • 2022-07-05 - 2022-09-30 - G06V20/40
  • 本发明涉及一种基于多尺度特征融合注意力的实时动作检测方法,首先对数据集视频片段进行帧集划分,通过随机排序操作对其进行数据增强。其次,对输入视频片段进行关键帧的提取,获得的关键帧进行光流信息的提取。将获取到视频片段、关键帧以及关键帧光流分别输入ResNext101以及Darknet网络进行特征提取,并通过多尺度特征融合注意力模块对特征进行增强,拼接时空特征通过通道注意力进一步融合时空特征,最后通过分类以及回归得到类别边界框以及置信度,经过NMS(非极大值抑制),得出预测结果。
  • 基于尺度特征融合注意力实时动作检测方法
  • [发明专利]基于样本增强与实例感知的真实场景行人检索方法-CN202210801244.4在审
  • 柯逍;刘浩 - 福州大学
  • 2022-07-08 - 2022-09-27 - G06V40/10
  • 本发明涉及一种基于样本增强与实例感知的真实场景行人检索方法,包括以下步骤:步骤S1:将待处理的图像通过检测模型,获得预测的边界框;步骤S2:将预测边界框送入样本增强组合SEC,同时将图像的真实边界框会送入SEC,通过SEC随机抖动后生成若干边界框;步骤S3:在重识别阶段,输入的图像被送入全粒度特征提取网络OSNet的1‑3层网络结构,提取整体图像特征;步骤S4:在整体图像特征与检测阶段产生的边界框送入特征裁剪模块RoIAlign,获得根据边界框从整体图像中裁剪后得到的行人特征;步骤S5:裁剪所得的行人特征被送入OSNet4‑5层网络结构;步骤S6:通过实例感知损失函数进行优化,利用无标签信息以监督特征学习。本发明实现更高效且更具判别性的行人检索。
  • 基于样本增强实例感知真实场景行人检索方法
  • [发明专利]一种基于结构建模局部提议网络的细粒度分类方法-CN202210787855.8在审
  • 柯逍;蔡宇航;陈柏涛 - 福州大学
  • 2022-07-04 - 2022-09-23 - G06V10/764
  • 本发明涉及一种基于结构建模局部提议网络的细粒度分类方法。首先获取细粒度分类数据集,输入主干网络,通过多粒度融合学习策略整合多粒度层级信息以增强特征表示,并计算跨层自蒸馏正则化损失。然后利用空间注意力模块增强判别性区域定位能力并以弱监督的形式生成区域提议,利用生成的局部区域提议裁剪原始图像,调整裁剪后的图像到指定大小得到局部区域图像,并将局部区域图像再次输入网络。然后基于空间注意力模块生成区域掩码,利用掩码进行极坐标建模,并计算结构建模损失,最后按照指定训练参数进行迭代训练,根据验证准确率不断保存最优模型,利用最终模型得到细粒度分类结果。
  • 一种基于结构建模局部提议网络细粒度分类方法
  • [发明专利]基于稀疏系数通道剪枝的轻量化个人防护装备检测方法-CN202210801243.X在审
  • 柯逍;陈文垚 - 福州大学
  • 2022-07-08 - 2022-09-23 - G06V20/52
  • 本发明涉及一种基于稀疏系数通道剪枝的轻量化个人防护装备检测方法,包括以下步骤:步骤S1:构建个人防护装备检测数据集;步骤S2:根据个人防护装备检测数据集训练网络模型得到个人防护装备检测模型;步骤S3:将个人防护装备检测模型进行通道级别的稀疏化训练,对卷积神经网络中BN层的γ参数进行稀疏正则化,得到稀疏化后的检测模型;步骤S4:对稀疏化后的检测模型进行剪枝,得到一个轻量化的检测模型;步骤S5:对轻量化的检测模型进行微调训练,得到最终的轻量化个人防护装备检测模型;步骤S6:使用轻量化个人防护装备检测模型进行目标检测,得到检测结果图。本发明能够有效减少检测模型的模型大小,参数量和计算量,并且对工人是否穿戴个人防护装备进行精准检测。
  • 基于稀疏系数通道剪枝量化个人防护装备检测方法
  • [发明专利]基于子特征融合的轻量化安全帽检测方法-CN202210801277.9在审
  • 柯逍;陈文垚 - 福州大学
  • 2022-07-08 - 2022-09-23 - G06V10/80
  • 本发明涉及一种基于子特征融合的轻量化安全帽检测方法,包括以下步骤:步骤S1:获取安全帽数据图片,并预处理,构建安全帽检测数据集;步骤S2:构建子特征融合的轻量化网络模块,通过低代价卷积操作生成子特征图并与初始特征图进行融合;步骤S3:构建轻量化目标检测网络;步骤S4:对YOLOv5目标检测算法的训练超参数进行调优,利用安全帽检测数据集训练轻量化目标检测网络得到安全帽检测模型;步骤S5:根据安全帽检测模型对输入图片进行检测,获取初步检测结果,对初步检测结果进行解码后采用改进的非极大值抑制算法筛选出最终的检测结果,将检测结果绘制在原图中。本发明能够有效减少检测模型的模型大小,并且对工人是否佩戴安全帽进行精准检测。
  • 基于特征融合量化安全帽检测方法
  • [发明专利]基于模态特异自适应缩放与注意力网络的跨模态检索方法-CN202210787446.8在审
  • 柯逍;陈柏涛;蔡宇航 - 福州大学
  • 2022-07-04 - 2022-09-20 - G06F16/33
  • 本发明涉及一种基于模态特异自适应缩放与注意力网络的跨模态检索方法。首先对图像模态采用带残差空间缩减的Transformer编码器,对文本模态采用单词级特征注意力模块,分别进行模态不变特征的提取。然后使用模态嵌入级特征注意力模块进行模态干扰特征的过滤。接着采用融合先验知识的自适应缩放网络将特征映射到一个多模态公共子空间进行模态公共特征学习。最后利用表现最好的网络权重计算新的待查询、待检索数据的多模态公共子空间特征,进行类别级重排序,返回最终的跨模态数据检索。本发明能够有效的对多模态数据进行建模,高效准确地完成多模态场景下的跨模态检索任务。
  • 基于特异自适应缩放注意力网络跨模态检索方法
  • [发明专利]一种基于连通域分析和形态学操作的框线检测方法-CN201910317129.8有效
  • 柯逍;王俊强 - 福州大学
  • 2019-04-19 - 2022-09-13 - G06T7/13
  • 本发明涉及一种基于连通域分析和形态学操作的框线检测方法。首先对读入的待检测表格文档图像进行灰度化,将得到的灰度图像二值化;然后对得到的二值图像进行形态学膨胀操作,对膨胀操作之后的二值图像进行连通域检测,接下来对得到的框线轮廓内部进行填充操作,最后对框线增强之后的图像进行基于深度学习方法的图像去噪;对经过框线增强操作后的表格文档图像,分别定义两个结构元素作为形态学腐蚀和膨胀操作的内核矩阵参数,经过形态学腐蚀和膨胀操作之后把表格文档的横框线和竖框线分别检测并提取出来,然后采用基于NPcanny的直线检测算法对图像中的直线进行再次检测,将提取出来的横纵框线进行交叉,得到表格文档图像中完整的框线结构。
  • 一种基于连通分析形态学操作检测方法
  • [发明专利]一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法-CN201910353400.3有效
  • 柯逍;柯力 - 福州大学
  • 2019-04-29 - 2022-09-13 - G06V40/20
  • 本发明提出一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其首先对获取监控场景下的人体动作分析数据库,并对该数据库进行随机划分,分为为训练集和验证集;其次对划分完成的训练集和验证集视频数据进行数据增强处理,并对视频数据进行编码。然后直接从输入视频图像序列中检测到运动目标,并进行目标识别,进而跟踪感兴趣的运动目标;最后对感兴趣的运动目标进行构建时空骨骼图卷积神经网络模型,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重,使用验证集进行特定目标跟踪的卷积神经网络模型的准确率预测。其不仅可以扩大原始动作数据量,还可以增强模型的鲁棒性,进而提升最终的动作识别准确率。
  • 一种监控场景基于特定目标跟踪卷积神经网络人体动作识别方法
  • [发明专利]一种基于时空交叉注意力的实时动作定位方法-CN202210787330.4在审
  • 柯逍;缪欣 - 福州大学
  • 2022-07-04 - 2022-09-06 - G06V20/40
  • 本发明涉及一种基于时空交叉注意力的实时动作定位方法。首先对视频片段进行采样得到输入视频,并通过帧集划分进行关键帧的提取,将获取到视频片段输入R(2+1)D网络提取时序特征,将关键帧输入CSPNet网络提取空间特征。其次,对时序特征进行压缩,并将其与空间特征进行编码转换。计算时序特征与空间特征相互之间的潜在自适应,将其嵌入transformer自注意力进行特征的交叉表示,拼接特征并利用上下文注意力模块对特征进行融合。最后,通过回归、分类网络预测边界框位置以及运动类别,根据预测结果计算相邻帧各个类别的链接分数,采用维特比算法寻找生成动作管的最佳路径。
  • 一种基于时空交叉注意力实时动作定位方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top