专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果18个,建议您升级VIP下载更多相关专利
  • [实用新型]提拉纸供料装置、提拉纸放置系统以及扣盒机-CN202321235110.7有效
  • 陈健景;田梦云;陆天翼 - 当纳利(广东)印务有限公司
  • 2023-05-19 - 2023-10-24 - B31B50/81
  • 本实用新型的实施例提供了一种提拉纸供料装置,通过换仓机构可以将料仓中的储料室移动至供料位置或闲置位置,以使多个储料室可以交替供料,并在不停机的情况下完成补料,有助于提高生产效率。通过升降机构可以驱动托盘上升,由托盘将储料室中的提拉纸抬起,以便于提拉纸吸盘从储料室中吸取提拉纸。本实用新型的实施例还提供了一种提拉纸放置系统,通过提拉纸吸盘和第一机械臂可以将提拉纸供料装置提供的提拉纸放置到预定位置,节省人工,有助于提高生产效率。本实用新型的实施例还提供了一种扣盒机,通过提拉纸放置系统可以将提拉纸放置到第二半盒上,通过扣盒机构可以将第一半盒扣到第二半盒上,生产效率高。
  • 提拉纸供料装置放置系统以及扣盒机
  • [发明专利]一种具有自清洁功能的袋式空气过滤器-CN202310858276.2在审
  • 刘李杰;陆韦;陆天翼;胡加林;刘李霞;王轩 - 奈奥科技江苏有限公司
  • 2023-07-13 - 2023-09-12 - B01D46/02
  • 本发明公开了一种具有自清洁功能的袋式空气过滤器,属于空气过滤技术领域,包括摆动翻转式自动清理组件,所述摆动翻转式自动清理组件安装在通风管的内部,所述摆动翻转式自动清理组件右侧的通风管内部连接有往复推动式过滤组件,所述往复推动式过滤组件的右侧连接有联动式隔离组件,所述往复推动式过滤组件下方的通风管底板上连接有联动式灰尘收集组件,启动往复推动式过滤组件使得摆动翻转式自动清理组件挤压往复推动式过滤组件,使得往复推动式过滤组件的中部翻转,往复推动式过滤组件带动联动式隔离组件将往复推动式过滤组件右侧的通风管封堵,往复推动式过滤组件带动联动式灰尘收集组件顶盖打开。
  • 一种具有清洁功能空气过滤器
  • [发明专利]用于自动驾驶的神经网络架构自动优化部署方法及装置-CN202010520900.4有效
  • 唐长成;陆天翼;李文硕;宁雪妃 - 北京超星未来科技有限公司
  • 2020-06-10 - 2023-06-27 - G06F16/9535
  • 本发明实施例公开一种用于自动驾驶的神经网络架构自动优化部署方法及装置。该方法包括:获取客户端发送的初始数据,根据初始数据得到训练数据集和测试数据集;接收客户端发送的搜索配置条件;从与搜索空间范围匹配的搜索空间中抽样得到候选网络架构,根据训练数据集对各候选网络架构进行预设数量的训练得到各候选网络模型,根据测试数据集计算各候选网络模型的回报值;确定回报值从高到低排列的前N个候选网络模型,对各候选网络模型进行训练得到目标网络模型,并根据测试数据集计算各目标网络模型的准确率,将准确率最高的目标网络模型作为最终网络模型,并自动部署最终网络模型。应用本发明实施例提供的方案,能够提高模型优化效率。
  • 用于自动驾驶神经网络架构优化部署方法装置
  • [发明专利]一种基于GPU的NDT点云配准算法、装置及电子设备-CN202110145479.8有效
  • 文博;张剑;梁爽;陆天翼;熊祺;姜晓旭 - 北京超星未来科技有限公司
  • 2021-02-02 - 2023-06-16 - G06T7/33
  • 本申请实施例中提供了一种基于GPU的NDT点云配准算法、装置及电子设备,属于点云配准计算机技术领域,算法包括:提取目标点云数据,提取源点云数据,计算高斯近似常量,给定初始猜测位姿,对源点云中的点进行变换,计算Jacobian矩阵和Hessian矩阵,判定经位姿变换后的源点云中的点是否为有效点,计算每个有效点的梯度向量和Hessian矩阵H并分别加和,将加和后的和H'利用Jacobi方法实现奇异值分解方程求出位姿增量及其范数并对位姿增量进行并归一化,进行线搜索算法更新位姿增量,根据新的位姿变换对源点云进行变换,并重复梯度向量和Hessian矩阵以及位姿增量的求解过程,迭代得出最优变换位姿。通过本申请的处理方案,降低算法在CPU端的的高延时问题,提高了GPU的工作效率。
  • 一种基于gpundt点云配准算法装置电子设备
  • [发明专利]一种增强异构芯片平台算力的方法、电子设备及存储介质-CN202310037443.7在审
  • 陆天翼;梁爽 - 北京超星未来科技有限公司
  • 2023-01-09 - 2023-05-05 - G06F15/16
  • 本发明提供一种增强异构芯片平台算力的方法、电子设备及存储介质,基于接收的任务指令,将异构芯片的上游计算模块和下游计算模块通过线性通信模型分别开启多个单独线程,上游计算模块分别将数据处理结果保存至各自指定的存储单元中;多个单独线程中的对应下游计算模块分别从各自指定的存储单元中获取并处理对应上游计算模块的数据处理结果,若单独线程中存在多级下游计算模块,则直至所有单独线程中末级下游计算模块运算完成并将数据处理结果保存至指定的存储单元,完成任务指令运算;本申请能够减少单独线程中上游计算模块或多级下游模块无效等待时间,使得异构芯片平台在接到任务指令后一直处于运行状态,极大的提高了异构芯片平台的算力。
  • 一种增强芯片平台方法电子设备存储介质
  • [发明专利]目标代码的生成方法、NPU指令的显示方法及装置-CN202310043431.5在审
  • 陆天翼;梁爽 - 北京超星未来科技有限公司
  • 2023-01-26 - 2023-04-28 - G06F8/41
  • 本申请提供目标代码的生成方法、NPU指令的显示方法及装置。该目标代码的生成方法包括:基于目标描述数据解析目标NPU指令,得到至少一个指令字段以及每个指令字段中的多个预设类型的字段属性,按照第一预设次序建立各指令字段与初始代码中的函数之间的第一类映射关系,以及接收用户输入的对应各指令字段的第一类目标值,基于第一类映射关系以及预设类型的字段属性,将第一类目标值写入所述初始代码,得到目标代码。本申请将NPU指令进行抽象表示,得到目标NPU指令,通过上述目标代码的生成方法,可以自动生成用于拼装和解析指令的代码,不需要再手工开发用于拼装和解析指令的代码,代码开发和维护便捷、工作量小。
  • 目标代码生成方法npu指令显示装置
  • [发明专利]目标代码的生成方法、NPU指令的显示方法及装置-CN202211309524.X在审
  • 刘洪运;王雨顺;陆天翼;梁爽 - 北京超星未来科技有限公司
  • 2022-10-25 - 2023-01-20 - G06F8/41
  • 本申请提供目标代码的生成方法、NPU指令的显示方法及装置。该目标代码的生成方法包括:基于目标描述数据解析目标NPU指令,得到至少一个指令字段以及每个指令字段中的多个预设类型的字段属性,按照第一预设次序建立各指令字段与初始代码中的函数之间的第一类映射关系,以及接收用户输入的对应各指令字段的第一类目标值,基于第一类映射关系以及预设类型的字段属性,将第一类目标值写入所述初始代码,得到目标代码。本申请将NPU指令进行抽象表示,得到目标NPU指令,通过上述目标代码的生成方法,可以自动生成用于拼装和解析指令的代码,不需要再手工开发用于拼装和解析指令的代码,代码开发和维护便捷、工作量小。
  • 目标代码生成方法npu指令显示装置
  • [发明专利]一种用于模型剪枝的方法、装置和介质-CN202210867671.2在审
  • 梁海玉;唐长成;陆天翼;梁爽 - 北京超星未来科技有限公司
  • 2022-07-22 - 2022-10-04 - G06N3/08
  • 本公开实施例中提供了一种用于模型剪枝的方法、装置以及介质。所述方法包括:确定原始网络模型的每层的最大剪枝率,从而确定原始网络模型的每层的剪枝率搜索空间,并基于该剪枝率搜索空间对原始网络模型进行采样,从而得到第一多个子网络模型;通过原始网络模型的经训练的延时预测模型,预测得到所述第一多个子网络模型中的每个子网络模型的预测延时,并通过将所述第一多个子网络模型中的每个子网络模型微调预定个数的回合(epoch),测试得到所述第一多个子网络模型中的每个子网络模型的预测精度;以及按照预测精度和预测延时的组合指标对所述第一多个子网络模型进行排序,从而筛选出满足预测精度/预测延时比率预定阈值的目标子网络模型。
  • 一种用于模型剪枝方法装置介质
  • [发明专利]深度神经网络的压缩方法、装置、电子设备及介质-CN202210638580.1在审
  • 唐长成;陆天翼;梁爽 - 北京超星未来科技有限公司
  • 2022-06-07 - 2022-08-30 - G06N3/04
  • 本申请实施例提供了一种深度神经网络的压缩方法、装置、电子设备及介质,方法包括:对带量化节点的深度神经网络模型进行矫正,得到矫正后的深度神经网络模型;对矫正后的深度神经网络模型进行敏感度分析,得到各层卷积层敏感度;根据各层卷积层敏感度确定各层卷积层剪枝比例;剪去一组卷积层中卷积层对应的通道数量,得到剪枝后的深度神经网络模型;对剪枝后的深度神经网络模型进行量化感知训练,得到剪枝量化后的深度神经网络模型;若剪枝量化后的深度神经网络模型达到预设量化条件,则导出剪枝量化后的深度神经网络模型。这样,降低深度神经网络模型在剪枝量化过程中的性能损失,提高神经网络的压缩效果。
  • 深度神经网络压缩方法装置电子设备介质
  • [发明专利]一种多任务神经网络模型的剪枝方法及装置-CN202011153067.0在审
  • 张年崧;陆天翼;唐长成;张剑 - 超星未来极挚(上海)科技有限公司
  • 2020-10-26 - 2022-05-13 - G06N3/08
  • 本发明实施例公开一种多任务神经网络模型的剪枝方法及装置,该方法包括:获得待剪枝模型;针对待剪枝模型的每一卷积层,执行步骤A‑C,确定每一卷积层的敏感度信息;A针对各预设层剪枝率,基于该预设层剪枝率及该卷积层中各卷积核,对该卷积层进行预剪枝;B基于第一训练数据,确定该预设层剪枝率对应的预剪枝后的待剪枝模型所对应各任务损失值;C基于各任务损失值,确定该卷积层在该预设层剪枝率下的敏感度信息;基于待剪枝模型对应的通道信息,对待剪枝模型的卷积核进行分组;基于当前的模型剪枝率、卷积核的分组情况、各卷积核对应的剪枝范数值及每一卷积层的敏感度信息,确定目标剪枝模型,以实现对多任务神经网络模型的剪枝。
  • 一种任务神经网络模型剪枝方法装置
  • [发明专利]一种面向异构计算资源的非实时资源调度方法及装置-CN202010766038.5在审
  • 张佩珩;陆天翼;张剑 - 北京超星未来科技有限公司
  • 2020-08-03 - 2022-02-18 - G06F9/50
  • 本发明实施例公开一种面向异构计算资源的非实时资源调度方法及装置。该方法包括:接收请求端发送的待处理任务和优化性能指标;在当前可用计算资源中确定与各子任务对应的各目标计算资源;根据各子任务与各目标计算资源的对应关系,构建所有的部署方案;确定每个部署方案对应的各性能指标的取值,在各部署方案中确定最优部署方案返回至请求端。应用本发明实施例提供的方案,能够针对自动驾驶平台中的任务特点,即自动驾驶平台上的任务具有较少变化性,通常部署周期性任务,调度时间对执行效率没有影响,在接收到待处理任务时,生成所有可能的部署方案,并确定每个部署方案对应的性能指标,从而可以根据用户的优化性能指标,选择最优的部署方案。
  • 一种面向计算资源实时调度方法装置

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top