专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果36个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于梯度采样的光线跟踪体绘制方法-CN201911338632.8有效
  • 汪友生;夏章涛;高雪 - 北京工业大学
  • 2019-12-23 - 2023-09-29 - G06T15/08
  • 本发明公开了一种基于梯度采样的光线跟踪体绘制方法,针对蒙特卡洛光线追踪计算量巨大的性能缺陷,以及Woodcock Tracking采样对光线采样过程中采样点分布的不合理性,使用三维Sobel算子选用26邻域体素计算体数据梯度,用于刻画体数据在不同区域变化的剧烈程度,在Woodcock Tracking采样中引入梯度比重项,最后再对最终颜色合成上添加权重系数以确保算法的无偏性,本发明使得原有的采样点分布仅有消光系数决定,改进为由消光系数和梯度共同决定,使得光线采样点的分布更为合理,在体数据变化平缓的区域有较少的采样点,在变化剧烈的区域有更多的采样点,从而能够有效提升蒙特卡洛光线追踪的渲染速度和渲染质量。
  • 一种基于梯度采样光线跟踪绘制方法
  • [发明专利]一种基于多模型融合的血管内超声图像斑块识别方法-CN202210239809.4在审
  • 汪友生;高雪 - 北京工业大学
  • 2022-03-12 - 2022-06-10 - G06V10/774
  • 本发明公开了一种基于多模型融合的血管内超声图像斑块识别方法,先使用卷积层提取图像特征并扩充特征图数量,将特征图输入至多个挤压与激励残差模块,扩充特征图数量,提取深层特征的同时重新自适应的校准了特征通道之间的依赖性,改善网络对于特征信息的敏感度,通过残差块实现对于图像信息的多层复用并解决了深度学习中的梯度爆炸问题。经过多次训练得到训练好的斑块识别模型。本发明使得原有IVUS医学图像特征仅由残差模块采集提取,改进为挤压与激励模块和残差模块共同决定,使得模型对于训练医学图像特征提取更为全面,由于残差模块存在,避免了深层网络的梯度爆炸等问题,从而能够有效提升残差网络对于血管内超声图像斑块识别的准确率。
  • 一种基于模型融合血管超声图像识别方法
  • [发明专利]一种基于Snake改进算法的IVUS图像外膜边缘分割方法-CN201711133071.9有效
  • 汪友生;王雨婷;夏章涛;叶红梅 - 北京工业大学
  • 2017-11-15 - 2021-10-01 - G06T7/12
  • 本发明公开了一种基于Snake改进算法的IVUS图像外膜边缘分割方法,属于计算机医学图像处理分析领域。首先,利用大津阈值分割、开闭运算以及连通分量法提取IVUS图像第一帧的大致轮廓边缘,将得到的大致轮廓作为Snake算法的初始轮廓,其次,对结构张量进行扩展,并将其和初始化的轮廓信息应用到外力与Snake算法结合。该方法能有效地提高边缘提取的精确度,对于图像边缘模糊或者小部分缺失的情况也能够较为准确地收敛到边缘。通过本发明的分割能够得到了连续4帧IVUS图像的外膜,且结果较为准确;对于存在边缘模糊或者有小部分缺失的IVUS图像也有良好的提取效果。应用该方法对IVUS图像进行外膜的提取,结果准确靠近真实边缘,为图像分析奠定了良好的基础。
  • 一种基于snake改进算法ivus图像边缘分割方法
  • [发明专利]一种基于IVUS图像的血管伪彩图像重建方法-CN202110000537.8在审
  • 满开亮;汪友生 - 北京工业大学
  • 2021-01-04 - 2021-04-23 - G06T3/00
  • 本发明公开了一种基于IVUS图像的血管伪彩重建方法,针对传统血管内超声图像斑点噪声大与灰度图像信息不直观的性能缺陷,使用生成式对抗网络模型,通过生成模型以及判别模型两部分,完成对血管内超声图像与真实血管形状、颜色等特征图像的映射关系。生成模型通过数据整理模块,多个残差模块和数据输出模块尽量去学习输入图像与目标图像的映射关系。判断模型同时接受目标图像与生成模型输出的图像,将对其进行真假判别。生成模型与判别模型两者通过不断学习反馈,提升各自的生成能力与判别能力,并最终达到纳什均衡状态,此时生成器所生成图像已到达判别器极限,即可以输出符合图像翻译要求的血管伪彩图像。此发明的方法对IVUS图像的解读具有一定的价值与参考意义。
  • 一种基于ivus图像血管彩图重建方法
  • [发明专利]一种基于极值区域检测的血管内超声图像分割方法-CN201910192116.2有效
  • 汪友生;叶红梅 - 北京工业大学
  • 2019-03-14 - 2021-03-16 - G06T5/00
  • 一种基于极值区域检测的血管内超声图像分割方法属于基于区域检测的医学图像分割领域。该方法针对传统IVUS图像分割方法的建模复杂、运算量大、检测速度慢的缺点,由于提取的极值区域包含很多子区域,其中包含状态不稳定的、不能代表管腔和介质的面积较大或者较小的噪声区域。因此,获取极值区域之后,本发明继续设计了基于区域稳定性的极值区域筛选算法,最终提取出精确的管腔和介质区域,完成分割。本发明分割的内外膜与标准内外膜极为接近,内膜平均HD距离为0.28mm,外膜平均HD距离为0.41mm,内外膜性能比传统方法提取的内外膜的平均性能分别提高31.4%和48.2%,且算法运行时间为线性,不仅提取精度较高、速度较快,而且鲁棒性也较好。
  • 一种基于极值区域检测血管超声图像分割方法
  • [发明专利]一种基于稠密残差网络的IVUS图像超分辨率重建方法-CN202010973041.4在审
  • 汪友生;满开亮 - 北京工业大学
  • 2020-09-16 - 2020-12-29 - G06T3/40
  • 本发明公开了一种基于稠密残差网络的IVUS图像超分辨率重建方法,针对传统稠密残差网络参数量与计算量巨大的性能缺陷,以及稠密残差模块对于图像特征提取不充分问题,使用权重归一化对模型权重参数进行归一化修正,加速模型收敛。使用多种卷积核,增强模型对于图像特征特征的提取效果并较少模型参数量。并加入全局特征复用模块,使图像信息多次重复利用,充分提取图像信息。本发明使得原有IVUS医学图像特征仅由稠密残差模块采集提取,改进为由全局特征复用模块和稠密残差模块共同决定,使得模型对于训练医学图像特征提取更为全面。并引入权重归一化,加速模型收敛,从而能够有效提升稠密残差网络对于图像超分辨率重建的效果以及模型计算的效率。
  • 一种基于稠密网络ivus图像分辨率重建方法
  • [发明专利]一种基于神经网络的无监督血管内超声图像配准方法-CN202010975102.0在审
  • 汪友生;刘继荣 - 北京工业大学
  • 2020-09-16 - 2020-12-29 - G06T7/00
  • 本发明公开了一种基于神经网络的无监督血管内超声图像配准方法,属于医学图像处理技术领域。针对传统配准方法迭代优化配准时间长的缺点,引入深度学习把迭代时间转移到网络模型训练时间中去,本发明使用类U‑net网络结构,用步长卷积代替池化层进行下采样,保留更多配准需要的空间位置特征。针对常见深度学习方法对于IVUS图像配准精度较低问题,本发明继续在网络结构引入注意力机制,这一改进使得配准网络模型在训练过程中能更好聚焦于待配准图像之间形态差异较大的地方,有效提高血管内超声图像配准精度。最终本发明配准精度和最先进传统配准方法不相上下,而配准用时大大减少。
  • 一种基于神经网络监督血管超声图像方法
  • [发明专利]一种基于卡方统计的自适应特征选择方法-CN201510927759.9有效
  • 汪友生;樊存佳;王雨婷 - 北京工业大学
  • 2015-12-14 - 2019-02-26 - G06F16/35
  • 一种基于卡方统计的自适应特征选择方法,本方法涉及计算机文本数据处理领域,首先进行训练文本集和测试文本集的预处理,包括分词,停用词处理,然后进行基于卡方统计的自适应文本特征选择,定义词频因子和类间方差,将其引入CHI算法,为CHI算法添加合适的比例因子,最后结合经典的KNN算法的评价指标,自动调节比例因子,使改进的CHI适用于不同的语料库,以保证较高的分类准确度。实验结果表明,与传统的CHI方法相比,本发明分别用于平衡语料库和非平衡语料库分类精度均得到提高。
  • 一种基于统计自适应特征选择方法
  • [发明专利]基于改进SURF特征的视觉词袋模型构建方法-CN201510927757.X有效
  • 汪友生;金铭;边航 - 北京工业大学
  • 2015-12-14 - 2018-12-07 - G06K9/62
  • 基于改进SURF特征的视觉词袋模型构建方法,使用添加渐变信息的盒子滤波模板代替高斯滤波,该模板与高斯二阶微分模板更加接近;在SURF特征表达时,减少了时间上的开销,并在保证旋转不变性的同时将SURF描述子降为32维;构建词袋时,使用上述改进SURF算法提取图像库中所有改进SURF特征,采用k‑means聚类方法将所有SURF特征聚类成为视觉单词,这样每幅图像表示为各个视觉单词出现频率的高维向量。本方法包含了图像更丰富的渐变信息,并且省略了一次Haar小波计算步骤;与直接使用SURF特征相比,可以很好地解决不同图像提取出的特征数量不统一的问题,并且词袋模型能将多幅图像用一定量的视觉单词表示,节约空间,处理方便,可扩展性强。
  • 基于改进surf特征视觉模型构建方法
  • [发明专利]一种基于改进的K-Medoids的KNN文本分类方法-CN201510740516.4有效
  • 汪友生;樊存佳;王信 - 北京工业大学
  • 2015-11-04 - 2018-11-02 - G06F17/30
  • 一种基于改进的K‑Medoids的KNN文本分类方法,该方法涉及计算机文本数据处理领域;首先将对训练文本集和测试文本集进行预先处理,包括分词,停用词去除,DF特征选择以及向量表示,得到训练文本向量空间和测试文本向量空间;然后进行基于改进的K‑Medoids方法的训练样本裁剪,即分别从初始中心点选择和替换中心点搜索策略角度进行优化,并将其运用到训练样本裁剪,得到新的训练文本空间;最后进行KNN分类,定义代表度函数,将其运用到类别属性函数中用于KNN分类,得到最终结果。实验结果表明,与传统KNN方法、基于K‑Medoids的KNN方法相比,本发明具有更高的分类精度和分类效率。
  • 一种基于改进medoidsknn文本分类方法
  • [发明专利]一种基于CEDD特征和PHOG特征的图像检索方法-CN201510740450.9有效
  • 汪友生;金铭;王丽婷 - 北京工业大学
  • 2015-11-04 - 2018-11-02 - G06F17/30
  • 一种基于CEDD特征和PHOG特征的图像检索方法,针对单一特征检索效果的不足,从图像的多特征入手,先使用颜色和边缘的方向性描述符提取图像的颜色和纹理特征,再将图像的颜色和纹理特征合并成为图像的CEDD特征;使用分层梯度方向直方图提取图像的形状特征,作为图像的PHOG特征;采用图像底层特征串行关联的方法将CEDD特征和PHOG特征结合,对图像进行相似性匹配,输出相似性高的图像作为检索结果。不同于传统的基于文本的图像检索,本检索过程是一种模糊查询技术,其根据视觉特性进行检索的特性,减少了人工标注的主观性;由于CEDD特征和PHOG特征占用空间小、特征表达紧凑的特点,从很大程度上提高了检索效率。
  • 一种基于cedd特征phog图像检索方法
  • [发明专利]一种基于端到端模型的人脸表情识别方法-CN201711132734.5在审
  • 汪友生;王信;夏章涛;叶红梅 - 北京工业大学
  • 2017-11-15 - 2018-02-27 - G06K9/00
  • 一种基于端到端模型的人脸表情识别方法,该方法包括搜集人脸表情数据库或者基于现有表情数据库,将表情数据库分为训练集及测试集。改进ResNet网络结构,搭建网络模型。搭建好模型之后开始训练数据集,将训练集用于模型的训练,将测试集用于模型的测试。将生成的模型文件保存为HDF5格式,以便对后续步骤中的人脸表情图片进行分类识别。对采集的人脸图片进行裁剪;得到的灰度图像做人脸校准,通过仿射变化将侧脸图片校准为正脸图片;进行人脸校准的图片输入ResNet模型中进行图片特征提取及分类,完成整个人脸表情的识别。本发明大大提高了人脸表情对于侧脸、多姿态等难以识别的类别。通过缩小同类之间的差距,扩大异类之间的差距,改善了表情分类的结果。
  • 一种基于端到端模型表情识别方法
  • [发明专利]一种基于血管内超声图像的血管ROI分割方法-CN201410115141.8有效
  • 汪友生;王志东;李冠宇 - 北京工业大学
  • 2014-03-26 - 2017-10-13 - G06T7/00
  • 本发明涉及一种基于血管内超声图像的血管ROI分割方法。所述方法首先分割血管的管腔区域以及管腔膜轮廓,通过定位管腔区域的中心以获得参数主动轮廓模型的初始轮廓,继而通过收敛得到血管的中外膜轮廓曲线,中外膜的提取充分利用了管腔区域信息的先验知识。最后,将中外膜轮廓曲线以内区域作为ROI,通过全局最小化活动轮廓模型实现对血管斑块的分割。本发明实现了血管ROI的管腔膜中外膜以及斑块的轮廓信息可视化,与基于统计学的IVUS图像分割方法相比,摒弃了其复杂的统计建模过程且分割结果不受IVUS图像伪影和斑块特征的影响;省掉了对IVUS图像中外膜边缘进行初始轮廓的预分割步骤,提高了分割效率。
  • 一种基于血管超声图像roi分割方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top