专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果56个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于单张RGB图像的6dof物体位姿估计方法-CN202310976771.3在审
  • 尤鸣宇;薛金喆;周洪钧;何斌 - 同济大学
  • 2023-08-04 - 2023-10-27 - G06T7/73
  • 本发明提供一种基于单张RGB图像的6dof物体位姿估计方法,属于计算机视觉和计算机图形学技术领域,包括对RGB图像的特征提取、三维点云重建和位姿估计三个步骤。特征提取通过搭建特征提取网络架构实现。三维点云重建是先根据物体具有的各种低层次(几何学、反射率)和高层次(连接性、对称性)的特性,得到物体的中间信息,再进一步生成物体的3D点云模型。位姿估计是使用一个异构网络分别处理RGB数据和点云数据,通过融合网络整合两种数据的特征,从而预测物体的位姿信息。本发明所提出的6dof物体位姿检测方法重点针对数据量小、RGBD数据格式不易获取、无物体3D模型等问题,能够保证目标物体位姿检测的准确性和可泛化性,可以有效应用于现实场景。
  • 一种基于单张rgb图像dof物体估计方法
  • [发明专利]一种基于分布式优化的多FPGA协同训练神经网络方法-CN202310598533.3在审
  • 尤鸣宇;任柏宇;周洪钧;何斌 - 同济大学
  • 2023-05-25 - 2023-10-03 - G06N3/0464
  • 本发明提出一种基于分布式优化的多FPGA协同训练神经网络方法,以上位机作为核心控制模块,利用以太网与FPGA通信,分配训练数据,最后回收训练参数;通过在单台FPGA上搭建卷积神经网络的训练单元,其包括神经网络基础单元的计算模块、控制运算的指令模块、以RAM作为缓存区的DDR‑RAM存储模块和以交叉熵函数为损失函数,建立目标协同优化全局目标函数,通过BP算法用梯度下降法更新训练参数的神经网络训练模块;在不同FPGA之间通过UART串口建立通信连接,传输必要的训练开始和结束的握手信号。通过对多台FPGA进行协同控制,并基于分布式优化算法进行卷积神经网络的训练,充分发挥了FPGA底层并行计算和低功耗的优势,并且兼容性较好,有利于推动CNN加速器技术的应用与进步。
  • 一种基于分布式优化fpga协同训练神经网络方法
  • [发明专利]一种基于像素和通道注意力的检测空中小型无人机的方法-CN202310964192.7在审
  • 尤鸣宇;熊攀;周洪钧 - 同济大学
  • 2023-08-02 - 2023-09-19 - G06V20/10
  • 本发明提供一种基于像素和通道注意力的检测空中小型无人机的方法,属于图像检测领域,用于监控空中小型无人机。该方法包含如下步骤:待检测的高分辨率无人机图像分割为9块带有重叠的图像块,将分割后的图像输入到调整后的ResNet特征提取网络模块中,得到图像的抽象后的特征。之后特征经过特征金字塔池化操作得到不同大小的图像特征,图像特征输入到注意力机制模块网络中,使用标注的Ground Truth和最终网络输出来计算训练损失,之后依次更新网络权重,完成网络训练。小型无人机具有尺寸小、形状多变和易被遮挡等特点,而本发明提出的方法不同于常规的图像检测方法,其能够有效地从复杂的背景中检测到目标无人机。
  • 一种基于像素通道注意力检测空中小型无人机方法
  • [发明专利]基于多智能体的物体运输方法及装置-CN202310634989.0在审
  • 周洪钧 - 无锡动视宫原科技有限公司
  • 2023-05-31 - 2023-08-25 - G06N3/044
  • 本发明公开了一种基于多智能体的物体运输方法及装置,基于物理规则在仿真环境下建立场景环境;基于在场景环境中的路径规划,针对智能体到达场景环境中指定地点的能力,对单个智能体的单体决策网络进行训练;在场景环境中,针对多个智能体的协作物体运输,对多个智能体的合作决策网络进行强化学习训练。本发明的技术方案能够通过将移动控制与顶层规划分离,加速了强化学习的训练速度,可以实现在复杂非结构化大场景下的多智能体任务。通过循环神经网络综合历史观测以及多头注意力机制收集临近智能体的动作预期,实现在部分观测环境下合作完成搬运任务。从而使得多机器人系统具有在复杂非结构化场景中合作搬运物体的能力。
  • 基于智能物体运输方法装置
  • [实用新型]一种偏光片异物检测设备-CN202223383007.5有效
  • 周洪钧 - 无锡动视宫原科技有限公司
  • 2022-12-16 - 2023-08-04 - G01N21/95
  • 本实用新型公开了一种偏光片异物检测设备,包括固定框,固定框后部上端固定连接支撑架,支撑架上端一侧固定安装检测镜,支撑架远离检测镜一侧转动连接一号螺纹杆,一号螺纹杆上端固定连接把手,一号螺纹杆下端螺纹连接移动管,移动管下端固定连接安装板,安装板下端固定连接清扫刷,固定框一侧滑动连接移动块,移动块上端固定连接支撑板,本实用新型的有益效果是:通过在检测镜一侧设置的清扫刷结构,使得偏光片在移动至检测镜前,受到清扫刷的清扫,使清扫刷将偏光片上端的灰尘清扫下来,避免检测镜检测时出现偏差,并且设置的把手和一号螺纹杆结构,可带动移动管移动,从而调节清扫刷的位置,利于偏光片的清扫。
  • 一种偏光异物检测设备
  • [发明专利]一种基于蒙特卡洛树探索的多智能体决策方法-CN202310090294.0在审
  • 尤鸣宇;付豪;周洪钧;何斌 - 同济大学
  • 2023-02-09 - 2023-06-23 - G06N7/01
  • 本发明提供一种基于蒙特卡洛树探索的多智能体决策方法,属于任务规划技术领域,包括1:基于分布式部分观测马尔可夫决策过程对多智能体决策任务进行建模;2:基于模型初始化蒙特卡洛树;3:在预设的时间内采用上限置信区间算法进行树内探索,采用随机策略对树外进行探索,拓展蒙特卡洛树节点,并根据产生的奖励更新蒙特卡洛树节点价值;4:根据已经构建的蒙特卡洛树进行多智能体决策,并对蒙特卡洛树进行剪枝,更新根节点的信念值,重复S3‑S4,直至任务完成。本发明中,采用在线探索方法,可以在有限的时间内取得Dec‑POMDP模型的近似解;对不同的智能体分别建立独立的蒙特卡洛树,降低了探索空间,加大了探索深度,提供了更好的求解质量。
  • 一种基于蒙特卡洛树探索智能决策方法
  • [发明专利]用于流体仿真的具有多模态信息机器人实验平台-CN202211725955.4在审
  • 周洪钧;苏志成;尤鸣宇 - 无锡动视宫原科技有限公司
  • 2022-12-30 - 2023-06-02 - B25J11/00
  • 本发明公开了一种用于流体仿真的具有多模态信息机器人实验平台,包括:场景搭建模块,用于根据输入或预先设置的场景素材搭建仿真场景;模型处理模块,用于在仿真场景中导入实验机器人模型并控制实验机器人模型进行实验;流体仿真模块,用于对实验机器人模型进行流体仿真,使实验机器人的粒子物理特性符合真实样本的条件;声音生成模块,用于对实验机器人进行仿真声音生成,使实验机器人的梅尔频谱特征符合真实样本的条件;网络通信模块,用于供平台使用者与仿真场景进行交互,以通过发送控制指令控制仿真场景的实验环境和实验机器人的仿真实验。本发明的技术方案能够免去了搭建真实机器人实验场景的繁琐工作,具有可扩展性强、真实度高等特点。
  • 用于流体仿真具有多模态信息机器人实验平台
  • [实用新型]一种便携式偏光片品质检测箱-CN202223353162.2有效
  • 周洪钧 - 无锡动视宫原科技有限公司
  • 2022-12-14 - 2023-05-12 - B65D25/02
  • 本实用新型公开了一种便携式偏光片品质检测箱,包括箱体,箱体的内壁固定连接有平台,箱体的一侧开设有通槽,平台滑动连接有检测台,检测台设置有夹持机构,箱体靠近通槽处滑动连接有挡板,挡板的顶端固定连接有插块,箱体的顶端靠近插块处开设有插槽,且箱体固定连接有连接架,连接架滑动连接有插杆,本实用新型的有益效果是:拉动插杆,并让挡板向下滑动不挡住通槽,通过转动螺杆,使得检测台在平台上移动,便于检测台移动出箱体进行检测,当需要携带时,反向转动螺杆,使得检测台进入箱体中,并向上滑动挡板,让插块插入插槽,且让插杆滑动插入插孔,这样装置的检测区域在运输时不会暴露导致磕碰损坏,且箱体顶端设置把手,便于携带。
  • 一种便携式偏光品质检测
  • [发明专利]一种基于动态模型强化学习的倒水服务机器人控制方法-CN202110217090.X有效
  • 尤鸣宇;苏志成;周洪钧 - 同济大学
  • 2021-02-26 - 2022-10-25 - G05B13/04
  • 本发明涉及一种基于动态模型强化学习的倒水服务机器人控制方法,包括:步骤1:基于深度相机获取三维空间的视觉信息;步骤2:利用深度神经网络完成对机器人、源容器和目标容器的识别,同时获得源容器、目标容器之间的相对位置信息、液体类型以及液位高度信息,完成状态信息的获取;步骤3:根据步骤2获取的信息建立动态模型模拟当前环境,并利用动态模型对策略网络进行训练;步骤4:待策略网络收敛后,将机器人的位姿信息和状态信息输入至策略网络,输出机器人动作策略;步骤5:使用步骤4预测出的机器人动作策略驱动机器人完成倒水动作。与现有技术相比,本发明具有对环境的泛化适应能力强、部署复杂度低等优点。
  • 一种基于动态模型强化学习倒水服务机器人控制方法
  • [发明专利]基于双特长教师模型知识融合的图像分类方法及存储介质-CN202110218021.0有效
  • 尤鸣宇;王伟昊;周洪钧 - 同济大学
  • 2021-02-26 - 2022-10-25 - G06V10/764
  • 本发明涉及一种基于双特长教师模型知识融合的图像分类方法及存储介质,其中图像分类方法包括:步骤1:通过调整训练数据分布分别对两个特长教师模型进行训练,获得双特长教师模型;步骤2:对于双教师模型的不同层特征采用基于注意力转移的逐层融合方式进行融合,训练时分别对教师模型和学生模型计算注意力特征图,通过注意力特征损失函数对学生模型的特征层进行约束;步骤3:采用选择性知识传递机制对教师模型特征进行选择性传递;步骤4:对双教师模型进行融合训练,获取目标模型;步骤5:使用步骤4获取的目标模型进行图像分类。与现有技术相比,本发明具有目标模型获取速度快、学生模型性能好等优点。
  • 基于特长教师模型知识融合图像分类方法存储介质
  • [发明专利]基于多模态信息的机器人准确抓取方法及计算机可读介质-CN202110218016.X有效
  • 尤鸣宇;温佳豪;周洪钧 - 同济大学
  • 2021-02-26 - 2022-09-20 - G05D1/02
  • 本发明涉及一种基于多模态信息的机器人准确抓取方法及计算机可读介质,抓取方法包括:步骤1:获取包含待抓取目标的RGB场景图像,同时获取抓取指令;步骤2:对抓取指令进行关键词匹配,根据抓取指令匹配的关键词得到对应的独热编码;步骤3:将RGB场景图像和独热编码输入目标物体定位网络,获取待抓取物体的宽度、旋转角度及其质心的位置坐标;步骤4:控制机器人移动至对应的抓取位置,然后控制机器人末端执行器旋转对应角度,控制机器人末端执行器下降至设定高度后,控制机器人夹爪调整距离执行抓取任务;步骤5:完成机器人的准确抓取。与现有技术相比,本发明具有精度高、鲁棒性好、实现准确抓取、灵活便捷等优点。
  • 基于多模态信息机器人准确抓取方法计算机可读介质
  • [发明专利]基于第三视角可变主体演示视频的机械臂模仿学习方法-CN202110218017.4有效
  • 尤鸣宇;周虹旭;钱智丰;周洪钧 - 同济大学
  • 2021-02-26 - 2022-06-28 - B25J9/16
  • 本发明涉及一种基于第三视角可变主体演示视频的机械臂模仿学习方法,包括:从演示视频中获取演示样本,并定义演示视频视角为第三视角;获取由观察图像序列组成的样本,并定义该图像视角为第一视角;对演示样本进行从第三视角到第一视角的转换;获取示范主体特征向量和对应姿态下机械臂的特征向量,并对其进行对齐操作;预测机械臂下一帧图像的特征向量;搭建机械臂逆动力学运动控制网络,将机械臂相邻帧的图像输入到控制网络中,输出机械臂的控制信号;重复执行上述步骤,直至机械臂完成演示视频中的所有动作。与现有技术相比,本发明具有在演示视频的示范主体为非机械臂的条件下,使机械臂能够实现模仿学习的优点。
  • 基于第三视角可变主体演示视频机械模仿学习方法
  • [实用新型]一种晶圆瑕疵观测设备-CN202121745512.2有效
  • 周洪钧 - 无锡动视宫原科技有限公司
  • 2021-07-29 - 2022-01-25 - B07C5/342
  • 本实用新型公开的属于观测设备技术领域,具体为一种晶圆瑕疵观测设备,包括支架、传输架、传输框和图像识别装置,所述支架的顶部通过螺栓固定连接顶部携带所述传输框的所述传输架,所述支架的内腔顶部通过螺栓固定连接所述图像识别装置,该种晶圆瑕疵观测设备,通过配件的组合运用,设置携带传输框的传输带,可配合携带圆槽的配合盘来对晶圆进行独立摆放传输,避免表面划伤,保证了晶圆的安全性,利用携带控制器和摄像头的图像识别装置对经过的晶圆进行图像获取,经过图库比对模块的比对后,当因为晶圆存在表面瑕疵而导致比对缺少,即可开启携带抽取泵的弯管把晶圆传递到抽取仓中,实现观测和分离的目的。
  • 一种瑕疵观测设备

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top