专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果109个,建议您升级VIP下载更多相关专利
  • [发明专利]结合多模态数据融合和Multiplemix的水下目标检测方法-CN202310923588.7在审
  • 陈苏婷;陈志伟;吴旭;代康;汪鸿建 - 南京信息工程大学
  • 2023-07-26 - 2023-10-13 - G06V20/05
  • 本发明公开了一种结合多模态数据融合和Multiplemix的水下目标检测方法,提出多模态数据融合,防止信息丢失的下采样网络SPDmix,卷积注意力融合网络CACmix,此外还提出新的损失函数和正负样本分配策略。该方法分别对输入的单模态RGB图像和单模态多光谱图像数据进行特征提取,并融合两种模态并输入到网络中,在下采样时,不丢弃特征,选择深度融合减少信息丢失。其次通过注意力融合机制赋予特征之间权重来侧重特征之间的交互,使网络学习局部特征的依赖关系。最后通过三个检测头来实现对目标的定位和分类。该发明能够减少网络特征提取过程中信息的丢失,有效的提高了网络的特征提取能力,实现了对水下目标更准确的检测。
  • 结合多模态数据融合multiplemix水下目标检测方法
  • [发明专利]基于傅立叶变换的谱域图卷积3D点云分类方法-CN202010991678.6有效
  • 陈苏婷;陈怀新 - 南京信息工程大学
  • 2020-09-18 - 2023-08-22 - G06V10/764
  • 本发明公开了一种基于傅立叶变换的谱域图卷积3D点云分类方法,包括:利用G‑PointNet网络模型对输入的原始点云进行几何采样处理:通过设置一个角度阈值V,将点的邻域夹角值大于的点划分至几何特征区域G且剩余的点划分至其它区域T,采样获得各区域点云;基于Dynamic KNN局部图构造方法引入一个扩张率E,选择性地每隔E个近邻点云建立一个局部几何图。利用基于傅立叶变换的谱域图卷积方法进行谱域图卷积,获得多个池化后的图局部特征并通过G‑PointNet得到全局特征进行分类,获取得到分类结果。本发明有效解决了点云密集程度分布不均匀问题,保留了空间几何信息,能高效的区分点云的边缘点同时分离噪声点,提高分类精度。
  • 基于傅立叶变换图卷分类方法
  • [发明专利]一种数字隔离器双输出编解码系统及方法-CN202310417110.7在审
  • 熊张良;魏雪义;陈苏婷;唐雨潇 - 南京信息工程大学
  • 2023-04-19 - 2023-07-18 - H03K19/0175
  • 本发明提供了一种数字隔离器双输出编解码系统及方法,涉及数字信号传输技术领域,该系统包括:编码电路模块,用于对输入信号的边沿进行检测脉冲编码,把输入信号的边沿信息转化成脉冲信号;三层片上变压器,用于对所述脉冲信号进行隔离耦合传输;抗干扰电路模块,用于检测和屏蔽由接地引入的干扰脉冲信号;解码电路模块,用于对进行隔离耦合后的脉冲信号进行解码。应用本发明可以在实现数字隔离器的功能的同时,实现高速信号传输,解决了现有技术中脉冲个数调制的双脉冲间距以及双脉冲和单脉冲留出的间距极大地限制传输速率的提升,解码电路较为复杂,对于脉冲之间的干扰信号造成解码的误码问题无法解决,且降低了电路的可靠性的问题。
  • 一种数字隔离器输出解码系统方法
  • [发明专利]基于密集残差三维卷积神经网络的高光谱遥感图像分类方法-CN202010128528.2有效
  • 陈苏婷;张闯;吴超群;丁杰;邵东威 - 南京信息工程大学
  • 2020-02-28 - 2023-07-18 - G06V10/764
  • 本发明公开了一种基于密集残差三维卷积神经网络的高光谱遥感图像分类方法,以原始高光谱数据作为网络输入,采用三维卷积提取高光谱遥感图像的三维空谱特征,三维卷积可以直接对高光谱图像进行处理,不需要进行降维等预处理操作,更充分地提取高光谱图像的空谱特征。利用密集残差网络加深网络层数,学习更深层次的光谱和空间特征,随着网络深度的增加,残差网络可以有效减少梯度消失的问题,并且该结构可以更有效地利用特征并增强卷积层之间的特征传递;通过早停的方法来缩减训练时间,通过Soft‑max分类器进行分类预测,得到初始分类结果;提出多标签条件随机场优化算法,对分类的结果进行优化。本发明提升运算效率,提高了遥感图像分类的准确度。
  • 基于密集三维卷积神经网络光谱遥感图像分类方法
  • [发明专利]一种基于三平面融合边缘U-Net的脑肿瘤分割方法-CN202310306189.6在审
  • 陈苏婷;胡斌武;杨宁;韩光勋;薄业雯;裴加明 - 南京信息工程大学
  • 2023-03-27 - 2023-06-23 - G06T7/136
  • 本发明公开了一种基于三平面融合边缘U‑Net的脑肿瘤分割方法,包括步骤:将获取的脑肿瘤MR图像分为训练集和验证集,并对训练集图像进行预处理;基于U‑Net架构,通过对脑肿瘤MR图像进行三平面的分割,以边缘辅助模块作为跳跃连接构建边缘U‑Net模型,将提取的图像特征和边缘特征进行融合;采用交叉熵损失函数和边界损失函数相结合的组合损失函数,对边缘U‑Net模型进行训练,获得最佳模型;将预处理脑肿瘤图像数据集和边缘特征图像数据集一起作为不同平面的数据,输入到三个网络结构中以训练最优参数,得到最优的网络分割结果;根据最有分割结果得到三维概率图。本发明能提高分割的精度和分割出整体肿瘤的不同部分。
  • 一种基于平面融合边缘net肿瘤分割方法
  • [发明专利]基于图像金字塔引导和像素对匹配的遥感影像水体识别方法-CN202010979542.3有效
  • 陈苏婷;刘瑶 - 南京信息工程大学
  • 2020-09-17 - 2023-06-02 - G06V20/13
  • 本发明提出了一种基于图像金字塔引导和像素对匹配的遥感影像水体识别方法。通过图像尺度金字塔输入保证图像浅层特征被保留和传递,然后结合不同层次卷积神经网络输出特征,得到图像特征金字塔,通过双线性插值将各层输出的特征图恢复到原图大小,基于单像素点构建融合浅层纹理特征与深层语义信息的多尺度特征向量,随后送入全连接层以获得初始预测结果。对于全连接层输出,首先,基于扩张卷积引入扩张率来衡量目标像素与限定区域内一组像素的相似性,通过构建基于匹配度的相似性损失函数,再结合基于语义分割的相似性损失函数构建网络整体损失函数,训练神经网络,完成水体识别模型的构建,从而在输入目标遥感影像时,精准完成水体识别。
  • 基于图像金字塔引导像素匹配遥感影像水体识别方法
  • [发明专利]一种基于DefogNet的单幅图像去雾方法-CN202011576883.2有效
  • 陈苏婷;范文昊 - 南京信息工程大学
  • 2020-12-28 - 2023-05-30 - G06T5/00
  • 本发明公开了一种基于DefogNet的单幅图像去雾方法,该方法以CycleGAN为基础进行适当优化,在生成器中采用跨层连接的结构,增加了模型的多尺度特征提取能力,有效避免过拟合的发生,从而优化图像的质量;设计了独特的损失函数,添加细节感知损失和色彩感知损失,避免去雾操作导致图像的颜色差异、重建缺失等情况,有效提高了去雾后图像的还原度;提出了Defog‑SN算法改进了判别器的结构,使得整个判别网络满足1‑Lipschitz连续,增强了模型的稳定性,有效避免了GANs网络易崩溃的问题。该方法仅仅需要大量的图像便能够顺利达到训练网络的目的,完全省略了人为提取特征的操作,并且不需要场景先验信息,具备了更强的实用性以及精确度,属于一种适应范围较广的方法。
  • 一种基于defognet单幅图像方法
  • [发明专利]自适应注意力指导机制的一般性目标检测方法-CN202010020371.1有效
  • 陈苏婷;张良臣;邹戈晨;成泽华;张闯 - 南京信息工程大学
  • 2020-01-09 - 2023-04-25 - G06V10/82
  • 本发明公开了一种自适应注意力指导机制的一般性目标检测方法,属于计算机视觉目标检测领域。包括交叉下采样、目标区域识别(SORR)、注意力指导机制的金字塔预测卷积(APPK)和并交比(IoU)自适应损失优化。交叉下采样可保留多尺度特征图中的整体细纹理特征,减少了在图像下采样过程中空间信息的丢失;SORR模块将特征图划分为n×n网格,并得到注意力得分图,提高了目标检测效率;APPK模块可以选择推荐区域来处理预测模块和多尺度目标之间的不匹配问题;IoU自适应损失函数用于处理训练中难样本(Hard example)的问题。该目标检测方法在准确度和检测速度方面都优于现有的一般性目标检测方法。
  • 自适应注意力指导机制一般性目标检测方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top