专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果21个,建议您升级VIP下载更多相关专利
  • [发明专利]一种图像的关注区域的多重特征描述字提取方法-CN202310460429.8在审
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2023-04-25 - 2023-09-08 - G06T7/13
  • 本公开的实施例提供一种图像的关注区域的多重特征描述字提取方法。所述方法包括,获取包含关注区域的多帧原始图像作为图像集,分别对图像集中各帧原始图像进行角点检测,选中关注区域对应的角点,形成关注区域角点集,并以其中每个角点作为中心点,建立对应的关键区域,形成关键区域集,再计算其中每个关键区域内的每个像素点的特征描述字,将各像素点的特征描述字进行组合,得到所述关键区域的块特征描述字,得到块特征描述字集,将所述块特征描述字集内的每个块特征描述字作为特征进行组合,形成关注区域的多重特征描述字。以此方式,可以降低待图像采集的要求,降低图像匹配的难度。可以显著提升机器人和SLAM等应用场景中图像匹配的准确度。
  • 一种图像关注区域多重特征描述提取方法
  • [发明专利]一种图书的定位方法-CN202310465147.7在审
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2023-04-26 - 2023-08-18 - G06T7/73
  • 本公开的实施例提供一种图书的定位方法。首先基于图书信息,从原始书脊图像库,获取对应的原始书脊图像;获取带有标记图案的书架图像;将所述带有标记图案的书架图像输入训练后的标记图案定位模型,获取标记图案的定位信息;基于所述标记图案的定位信息,对原始书脊图像进行偏转处理,获取偏转书脊图像;计算所述偏转书脊图像与所述带有标记图案的书架图像的匹配度,如果匹配度达到阈值,计算偏转书脊图像的定位信息,输出定位信息。本公开解决了图书定位过程中,原始书脊图像是在正面拍摄,而待匹配图像上的书脊图像是“侧视图”且拍摄角度未知的问题。可以显著提升图书的定位的准确率与稳定性。
  • 一种图书定位方法
  • [发明专利]一种用于3D建模的数据点可见性表征方法及系统-CN202211256178.3在审
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2022-10-13 - 2023-04-04 - G06T17/00
  • 本公开的实施例提供了一种用于3D建模的点云数据可见性表征方法,包括:获取多帧图像,并基于多帧图像获得对应的点云数据;其中多帧图像来自计算机视觉系统或者激光雷达;基于数据点可见度计算和数据点全角度可见度分布拟合,获得点云数据中的每个数据点的可见主方向;基于每个数据点的可见主方向获取点云数据的可见方向范围,将可见方向范围作为点云数据的特征数据;将特征数据与点云数据的可见性信息进行融合的融合信息用于表征点云数据,可见性信息包括点云数据的3D坐标和局部描述字。还提供对应的系统、电子设备以及计算机可读存储介质,通过在点云数据中加入可见性信息,显著提升点云数据的可用性。
  • 一种用于建模据点可见表征方法系统
  • [发明专利]一种基于AR的远程虚拟交互方法及系统-CN202211408265.6在审
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2022-11-10 - 2023-01-31 - G06F3/01
  • 本公开的实施例提供了一种基于AR的远程虚拟交互方法,包括:获得第一用户和在第一设备处呈现的虚拟内容之间的交互位置和交互内容,虚拟内容包括在虚拟坐标系内定义的三维3D模型的第一渲染,交互位置在虚拟坐标系内被定义,交互内容通过AR上的摄像头获取;生成AR内容,AR内容包括:基于第二用户在虚拟坐标系内的方位的模型的第二渲染,第二用户的位置基于由第二设备获得的信息,和基于交互位置的交互的虚拟表示;以及输出AR内容并在第二设备处呈现AR内容。还提供对应的系统、电子设备以及计算机可读存储介质,基于AR的远程虚拟交互方法和系统能够突破远程交互双方“所见非同”的障碍,扩展AR交互的应用范围。
  • 一种基于ar远程虚拟交互方法系统
  • [发明专利]一种视频分析方法及装置-CN202210344307.8在审
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2022-03-31 - 2022-07-19 - G06V20/40
  • 本公开的实施例提供了一种视频分析方法及装置。所述方法包括接收待分析视频,从待分析视频中获取视频帧序列;将所述视频帧序列输入第一神经网络模型;得到对应的第一分类结果;输出所述视频的关键帧或者关键片段;将所述视频的关键帧或者关键片段根据其第一分类结果进行存储;将第一神经网络模型得到的图像特征馈送到第二神经网络模型,对所存储的视频关键帧或者关键片段进行分析得到对应的第二分类结果;根据所述第一分类结果与所述第二分类结果,生成视频帧序列对应的分类结果。以此方式,可以为视频深度分析提供“空间换时间”的执行路径,从而解决了视频分析中执行效率与分析深度之间的矛盾,确保了信息分析的深入性与系统性。
  • 一种视频分析方法装置
  • [发明专利]AR模型放置方法及装置-CN202111609183.3在审
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2021-12-23 - 2022-04-15 - G06T19/00
  • 本公开的实施例提供了一种AR模型放置方法及装置。所述方法包括分析目标对象的三维AR初始模型和现场图像的特征信息,得到对应关系;根据所述对应关系,对目标对象的三维AR初始模型进行修正,得到三维AR修正模型;根据所述三维AR修正模型,生成放置目标对象的三维AR修正模型的位置与姿态信息,作为二维放置信息;根据所述二维放置信息,在现场图像中对所述三维AR修正模型进行放置。以此方式,可以克服三维AR模型与实际目标对象的差异,提升三维AR模型放置的准确率与稳定性。
  • ar模型放置方法装置
  • [发明专利]图书定位方法与系统-CN202111263934.0在审
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2021-10-28 - 2022-01-21 - G06K9/62
  • 本发明提供了一种图书定位方法与系统,包括:图书分类方法,被配置为通过图书的书脊厚度将图书分为两类,若书脊厚度超过第一阈值则将图书划分为图像条码类图书,否则将该图书划分为RFID类图书;标志生成方法,被配置为针对书籍的不同类型生成不同的标志,在图像条码类图书的书脊处形成图像条码标志、以及在RFID类图书中放置RFID标志;第一定位模块,被配置为根据图像条码类图书上的图像条码标志识别图书;第二定位模块,被配置为根据RFID类图书上的RFID标志识别图书。
  • 图书定位方法系统
  • [发明专利]一种基于异构计算的图像去抖动系统-CN201611055329.3有效
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2016-11-25 - 2020-03-17 - G06T5/00
  • 本发明公开了一种基于异构计算的图像去抖动系统。该系统包括中央处理单元,图形处理单元以及存储器,其中在所述中央处理单元的控制下,所述图形处理单元接收所述第一帧图像,并确定待取特征点的位置和最小特征值,所述中央处理单元选取最小特征值最大、且两两距离大于预先设定的特定值的前N个像素点作为N个特征点,在所述中央处理单元的控制下,所述图形处理单元生成矩阵M;所述中央处理单元对所述矩阵M进行分解,并对分解所得矩阵去抖动,得到去抖的特征点坐标;在所述中央处理单元的控制下,所述图形处理单元基于去抖的特征点坐标进行图像重建。通过本发明能够获得高清晰度和低抖动性的视频图像。
  • 一种基于计算图像抖动系统
  • [发明专利]一种图像去抖动设备及其方法-CN201611066812.1有效
  • 肖东晋;张立群;刘顺宗 - 阿依瓦(北京)技术有限公司
  • 2016-11-25 - 2019-12-20 - G06T5/00
  • 本发明公开了一种图像去抖动设备及其方法。该设备包括:特征点选取单元,用于从连续的F帧图像中的一帧图像中选取N个特征点;矩阵生成单元,用于跟踪所述N个特征点在所述F帧图像中的其它帧图像中的坐标,并从中选取m个特征点,利用所述m个特征点的在F帧图像中的坐标生成矩阵M;矩阵分解单元,用于对所述矩阵M进行分解;去抖动单元,用于对分解所得矩阵去抖动,得到去抖的特征点坐标;重建单元,用于基于去抖的特征点坐标进行图像重建。通过本发明能够获得高清晰度和低抖动性的视频图像。
  • 一种图像抖动设备及其方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top