专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果67个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于姿态估计的遮挡行人重识别方法-CN202210326683.4在审
  • 舒建华;雷景生;唐小岚 - 上海电力大学
  • 2022-03-30 - 2023-10-24 - G06V20/52
  • 本发明提供一种基于姿态估计的遮挡行人重识别方法,该方法包括以下步骤:构建并训练得到遮挡行人重识别模型,该模型具有ResNet50网络和人体姿态估计网络;将待测图像进行预处理后作为标准图像输入至遮挡行人重识别模型;由ResNet50网络提取行人特征,并将行人特征水平池化和全局平均池化分别得到水平分块特征和全局特征;由人体姿态估计网络提取的人体可视关键点特征将行人特征划分为头肩区域特征和其他区域特征;基于头肩区域特征和其他区域特征,将水平分块特征与人体可视关键点特征进行映射得到行人可视区域条形特征;计算行人可视区域条形特征和待测图像之间的余弦距离,并按照绝对值将余弦距离升序排列,将排序结果作为遮挡行人重识别模型的输出。
  • 一种基于姿态估计遮挡行人识别方法
  • [发明专利]一种姿态驱动和动态对齐的遮挡行人重识别方法-CN202210326675.X在审
  • 舒建华;雷景生;唐小岚 - 上海电力大学
  • 2022-03-30 - 2023-10-24 - G06V20/52
  • 本发明提供一种姿态驱动和动态对齐的遮挡行人重识别方法,充分利用姿态估计网络捕获待测图像中行人的可视姿态关键点特征,利用ResNet50网络提取行人特征,解决实际关键点检测性能受限的问题,提高预测精度。然后,基于可视姿态关键点特征将行人特征划分为上半身区域特征和下半身区域特征,并将行人特征水平池化为水平分块特征、全局池化为全局特征;其次,采用DMLI动态匹配局部信息策略动态对齐了行人图像的水平分块特征,以此解决因遮挡、视角偏差、姿态偏差等图像问题所带来的行人不对齐问题。最后多类特征叠加,并采用余弦距离计算出图像特征之间的相似度,按绝对值升序从而输出遮挡行人的重识别结果。
  • 一种姿态驱动动态对齐遮挡行人识别方法
  • [发明专利]图像分类方法和装置-CN202310400596.3在审
  • 杨胜英;潘炜垚;雷景生;周武杰;钱小鸿 - 浙江科技学院
  • 2023-04-14 - 2023-07-04 - G06V10/764
  • 本发明实施例公开了一种图像分类方法和装置。该图像分类方法包括:获取待分类图片;将待分类图片输入预先训练的判别性区域学习双分支注意力网络进行细粒度图像分类,得到分类结果;其中,判别性区域学习双分支注意力网络,用于基于双分支注意力网络框架,结合对待分类图片的目标区域特征进行处理,以及,对待分类图片的语义互补信息进行学习,对待分类图片进行细粒度图像分类。本发明提供的方案能够提升对细粒度图像分类任务中识别准确率的技术效果。
  • 图像分类方法装置
  • [发明专利]多特征级联RGB-D显著性目标检测方法-CN201911099871.2有效
  • 周武杰;潘思佳;林鑫杨;黄铿达;雷景生;何成;王海江;薛林林 - 浙江科技学院
  • 2019-11-12 - 2023-05-26 - G06V10/82
  • 本发明公开了一种多特征级联RGB‑D显著性目标检测方法。选取RGB图像及其对应的深度图和真实显著性图像构成构成训练集,构建卷积神经网络,包括两个输入层、隐层和输出层,将训练集输入到卷积神经网络中进行训练,得到训练集中的每幅RGB图像对应的显著性预测图像,计算训练集中的每幅RGB图像对应的显著性预测图像与对应的真实显著性图像之间的损失函数值,不断训练取值最小的损失函数值对应的权值矢量和偏置项;待预测的RGB图像和深度图像输入到训练好的卷积神经网络训练模型中,得到预测分割图像。本发明模型结构新颖,经过模型处理之后得到的显著图与目标图相似率高。
  • 特征级联rgb显著目标检测方法
  • [发明专利]基于视差净化的二型残差双目显着物体图像分割方法-CN202010191229.3有效
  • 周武杰;陈昱臻;雷景生;郭翔;王海江;何成;周扬 - 浙江科技学院
  • 2020-03-18 - 2023-05-23 - G06T7/11
  • 本发明公开了一种基于视差净化的二型残差双目显着物体图像分割方法。训练阶段:采集物体图像建立训练集;构建二型残差网络:将彩色图和视差图输入残差双流网络预训练,输出双流预测分割图;将彩色图输入残差单流网络预训练,输出单流预测分割图;计算两个损失值并反向传播训练两个残差双单流网络,调整网络模型参数;测试阶段:对待显着分割的物体图像,将视差图输入视差净化选择器输出互获得正负样本,合并双流显着性预测图与单流显着性预测图得到预测结果集合。本发明拥有残差网络高效且完整提取的特点,减少了下采样的操作,避免了信息的弥散,结果更接近真实的人类观察物体的情况,解决了3D信息存在噪声的问题,获得了更精确的分割结果。
  • 基于视差净化二型残差双目物体图像分割方法
  • [发明专利]一种基于Vision MLP的行人重识别方法-CN202210365379.0在审
  • 雷光裕;雷景生;唐小岚;毕艳冰;孟繁星 - 上海电力大学
  • 2022-04-06 - 2022-09-13 - G06V40/10
  • 本发明提供一种基于Vision MLP的行人重识别方法,首先面向行人重识别任务,采用数据预处理将待测图像划分为预定维度及大小的的图像块序列。然后通过Vision MLP架构建立了行人重识别aMLP‑reID模型,设计了一个基于Vision MLP架构的线性注意力网络和MAL特征提取网络对全局依赖项建模用于特征提取,从而替代了vision transformer中自注意力层用于提取图像中深层特征,来进行行人重识别。而且由于采用线性注意力网络的结构减少了transformer架构中特征提取中平方量级的时间复杂度,因此本发明的基于VisionMLP的行人重识别方法也是为数不多的不使用卷积神经网络结构用于图像检索的行人重识别架构。
  • 一种基于visionmlp行人识别方法
  • [发明专利]一种基于智慧医疗中无人看管的自动输液装置-CN202210495929.0在审
  • 林昱丞;杨胜英;谢强强;钱小鸿;雷景生;史文彬 - 浙江科技学院
  • 2022-05-06 - 2022-08-12 - A61M5/14
  • 本发明涉及医疗护理技术领域,且公开了一种基于智慧医疗中无人看管的自动输液装置,包括支撑架体,支撑架体的外表面固定安装有圆筒体,圆筒体的右侧设置有输液袋,输液袋的底部固定连接有伸缩液管,伸缩液管的末端插接在静脉针的内部,静脉针和伸缩液管的连接处设置有拔除装置。当输液袋重量逐渐减轻后,卡接架在底部弹簧的作用下向上移动接触滑柱,带动滑柱向转板一侧移动,使转板旋转的过程中,接触滑柱来拉动底插杆向上移动,底插杆底部的斜块与弹簧套杆中的斜孔结合后,拉动弹簧套杆末端的伸缩液管与静脉针脱离,从而实现无人看管的功能,能够在输液结束后自动脱离的目的,避免了空袋后持续输液,容易对患者的身体造成二次伤害。
  • 一种基于智慧医疗无人看管自动输液装置
  • [发明专利]一种基于双流特征融合的语义分割方法-CN201911046078.6有效
  • 周武杰;吕思嘉;袁建中;黄思远;雷景生 - 浙江科技学院
  • 2019-10-30 - 2022-08-09 - G06T7/11
  • 本发明公开了一种基于双流特征融合的语义分割方法。在训练阶段,构建包括输入层、隐藏层和输出层的卷积神经网络,其隐藏层包括RGB图处理模块、深度图处理模块、融合模块和第一个反卷积层;使用原始图像输入到卷积神经网络中进行训练,得到对应的语义分割预测图;再通过计算原始图像对应的语义分割预测图构成的集合与对应的真实语义分割图像处理成的独热编码图像构成的集合之间的损失函数值,获得卷积神经网络分类训练模型的最优权值矢量和偏置项;在测试阶段,将待语义分割的室内场景图像输入到卷积神经网络分类训练模型中,得到预测语义分割图像。本发明提高了室内场景图像的语义分割效率和准确度。
  • 一种基于双流特征融合语义分割方法
  • [发明专利]骨科手术用术后用于特殊场所的康复支架-CN202210496682.4在审
  • 王骏豪;杨胜英;雷景生;谢强强;史文彬;钱小鸿 - 浙江科技学院
  • 2022-05-06 - 2022-07-08 - A61H3/04
  • 本发明涉及骨科手术技术领域,且公开了一种骨科手术用术后用于特殊场所的康复支架,包括底座,所述底座的顶部固定安装有滑筒,所述底座的顶部固定套设有两个中空柱,两个所述中空柱的外表面均固定套设有连块,两个所述连块相对的一面之间通过承架,所述底座的外表面固定焊接有两个支杆,两个所述支杆的底部均固定连接有辅助滑轮,两个所述中空柱的底部均固定焊接有第一底板。该骨科手术用术后用于特殊场所的康复支架,增加了陡坡刹车结构和角度调节座椅结构,解决了患者可能会被滚轮面临陡坡时产生的惯性带动摔倒从而造成二次伤害,且患者在康复训练时,小部分设置了座位的康复支架无法调节角度,无法解决陡坡休息的问题。
  • 骨科手术术后用于特殊场所康复支架
  • [发明专利]一种基于Vision Transformer的跨域行人重识别方法-CN202210354005.9在审
  • 雷光裕;雷景生;唐小岚;毕艳冰;孟繁星 - 上海电力大学
  • 2022-04-06 - 2022-06-28 - G06V20/52
  • 本发明提供一种基于Vision Transformer的跨域行人重识别方法,通过研究使用Vision Transformer的注意力网络用于视觉行人重识别网络,这是为数不多的不使用卷积神经网络结构用于图像匹配的行人重识别特征提取架构。其中,对于无标签的目标域数据,使用基于密度空间的聚类方法给数据赋予了伪标签。然后,将Vision Transformer特征提取架构与聚类模块融合,通过聚合信息存储模块对学习到聚合信息进行存储以学习全局特征。从而实现了面向跨域问题的基于Vison Tranformer的聚类方法。另外,还构建了样本dropout模块从而有效防止了训练过程趋向由这些硬样本引起的局部最小值的影响,为高效利用已标注源域和无标注目标域的行人数据训练一个泛化能力较强的网络模型。
  • 一种基于visiontransformer行人识别方法
  • [发明专利]基于卷积神经网络的3D图像质量检测方法-CN201910963193.3有效
  • 周武杰;林鑫杨;潘思佳;雷景生;何成;王海江 - 浙江科技学院
  • 2019-10-11 - 2022-06-10 - G06T7/00
  • 本发明公开了一种基于卷积神经网络的3D图像质量检测方法。本发明方法在训练阶段,构建包括特征提取网络,特种融合网络以及质量权重预测网络的卷积神经网络,同时融合图像低级、中级、高级特征,让网络学习更高层次的抽象;考虑双目竞争,通过网络训练出自适应的质量和权重,提升非对称失真3D图像质量预测的准确性;由于人眼对图像区域的关注度不同,显著区域的图像质量对整体3D图像的影响较大,我们在训练阶段使用显著区域选择,测试阶段使用显著加权来得到整体的图像质量。本发明不使用人的主观分数进行监督,不存在由于人的主观因素造成的训练误差,可以使预测结果更为客观,准确。
  • 基于卷积神经网络图像质量检测方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top