专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果93个,建议您升级VIP下载更多相关专利
  • [实用新型]一种农业种植用混合喷洒设备-CN202320627408.6有效
  • 张立军;张建晓;胡传芳;王红;张红彦;侯宏;邹春雅;宋祎莹;张壮壮;宋园红;裴天宇 - 镇平县农业技术推广中心
  • 2023-03-27 - 2023-09-12 - A01M7/00
  • 本实用新型涉及混合喷洒技术领域,且公开了一种农业种植用混合喷洒设备,包括底座,所述底座底部四周皆安装有滚轮,所述底座顶部安装有搅拌装置,所述底座左侧安装有推杆,所述搅拌装置右侧安装有控制阀门,所述控制阀门右侧安装有过滤装置。该农业种植用混合喷洒设备,通过控制面板启动第二电机,第二电机带动第一转杆,第一转杆带动第一齿轮,第一齿轮带动第二齿轮,第二齿轮带动第二转杆,第二转杆带动第四齿轮,第四齿轮带动第三齿轮,第三齿轮带动第三转杆,第三转杆表面的两个移动板相互靠近,通过连接杆推动第二支撑板,第二伸缩软板向两侧运动,喷头向农作物进行喷洒,从而提高喷洒的面积,提高工作效率。
  • 一种农业种植混合喷洒设备
  • [发明专利]一种并联机器人无标定视觉伺服柔顺控制方法-CN202310550460.0在审
  • 张红彦;朱维东;倪涛;高源 - 吉林大学
  • 2023-05-16 - 2023-08-29 - B25J9/16
  • 本发明公开了一种并联机器人无标定视觉伺服柔顺控制方法,属于机器人控制技术领域。在高载重工况下容易发生震荡现象,影响平台与相机的相对位置关系,且相机标定结果受光照条件影响较大,采用相机不标定的伺服控制方式驱动平台运动。基于非线性目标函数最小化理论得出平台支杆长度迭代式,采用动态拟牛顿法在线估算图像雅可比矩阵,进行平台无标定视觉伺服控制。视觉伺服完成平台导航控制,力控制对平台的位姿进行调整,提出了视觉‑力融合控制方法,将视觉伺服控制和力控制同时作用在运动控制中,本发明优化了平台的运动性能,不仅增强了视觉导航控制的鲁棒性和自主性,同时也实现了工业智能化所需的柔顺对接操作需要。
  • 一种并联机器人标定视觉伺服柔顺控制方法
  • [发明专利]大工件并联装配机器人的运动路径在线修正方法-CN202211351956.7在审
  • 张红彦;胡时玮;倪涛;李东 - 吉林大学
  • 2022-10-31 - 2023-01-13 - B25J9/16
  • 本发明公开了一种大工件并联装配机器人的运动路径在线修正方法,涉及机器人运动的柔顺控制技术领域,根据机器人的动力学模型和库仑粘性摩擦模型,计算机器人自身与工件的重力和装配过程中产生的摩擦力;根据伺服电机的电流反馈值,估算装配过程中产生的机器人与环境的接触力;根据机器人与环境的接触力,补偿自身与工件的重力和摩擦力,通过导纳控制方法,将力信息作为控制系统的输入调整机器人末端位置,实现装配过程中运动路径的在线修正。本发明通过机器人动力学模型和电机电流反馈值来估计环境接触力,无需在关节末端安装力传感器,利用导纳控制策略实现装配过程中运动路径的修正,鲁棒性较好,保证了装配对接时的位置精度和安全性。
  • 工件并联装配机器人运动路径在线修正方法
  • [发明专利]基于深度学习的巡检机器人仪表自动检测识别方法-CN201910153856.5有效
  • 倪涛;缪海峰;张红彦;赵忠;刘海强 - 吉林大学
  • 2019-03-01 - 2022-11-29 - G06V20/10
  • 本发明公开了基于深度学习的巡检机器人仪表自动检测识别方法,所述方法具体包括以下步骤:(1)采集仪表图像进行数据标记得到训练所需数据,并训练目标检测模型(SSD)及关键点检测模型;(2)利用步骤(1)中得到的SSD目标检测模型对待识别示数的仪表图像目标识别,得到仪表的种类及边框,并裁剪仪表区域;(3)利用步骤(1)得到的关键点检测模型对步骤(2)得到的仪表区域进行关键点识别,得到指针仪表的中心点、零点、满量程点及指针末端点;(4)结合仪表的种类,利用步骤(3)得到的点计算示数进行指针示数识别。本发明提出的指针仪表示数识别方法,其能同时识别不同类型的指针仪表,且无需考虑仪表姿态和尺度等问题,极大提高了指针仪表示数识别的精度。
  • 基于深度学习巡检机器人仪表自动检测识别方法
  • [发明专利]一种基于目标检测与动作识别的多目标视觉监管方法-CN202010725808.1有效
  • 倪涛;王林林;张红彦;刘海强;缪海峰 - 燕山大学
  • 2020-07-24 - 2022-10-18 - G06V40/20
  • 本发明公开了一种基于目标检测与动作识别的多目标视觉监管方法,包括以下步骤,采集工人穿戴制服和安全帽的图像,数据增强后构成第一数据集;采用第一数据集对Yolov3‑mobilenetv3网络进行训练,搭建tfpose人体骨架信息提取模型采集工人打电话和摔倒动作的骨架数据,构成第二数据集;采用第二数据集对IndRnn网络进行训练,利用deepsort多目标追踪算法对工人正在进行工作的图像进行追踪检测,检测识别每个工人,分割出个工人图像并为其分配固定ID;Yolov3‑mobilenetv3目标检测模型检测分割出的工人图像,得到每个工人的安全帽和制服的穿戴情况;IndRnn动作识别模型识别每个工人的动作异常情况;该方法使用了deepsort算法能够对每个工人实时追踪检测,更方便对工人进行视觉管理。
  • 一种基于目标检测动作识别多目标视觉监管方法
  • [发明专利]一种基于视觉的Stewart机构位姿确定方法-CN202210805198.5在审
  • 侯敬巍;黄玲涛;张红彦;崔玉鑫;李天宇 - 吉林大学
  • 2022-07-08 - 2022-10-14 - G06T7/557
  • 本发明适用于机构学与机器视觉的交叉技术领域,提供了一种基于视觉的Stewart机构位姿确定方法,包括双目视觉系统的搭建、最优视场求取、双目视觉系统的标定、深度求取和实验验证等步骤。本发明中的一种基于视觉的Stewart机构位姿确定方法,以Stewart机构工作空间特性为基础,结合景深、焦距、视场角和光心距离等与摄像机特性有关的参数,建立最佳视场和ArUco标识;以张正友法结合Stewart机构工作空间特点进行双目视觉系统标定;采用最小二乘法求取对象的深度信息,通过P4P方法获得平台上表面的位置信息。以视场优化的方法解决图像处理速度与定位精度之间的矛盾,以双目视觉技术克服单目视觉技术在ArUco码深度信息精度不足的缺陷,从而获得高速高精度的视觉伺服效果。
  • 一种基于视觉stewart机构确定方法
  • [发明专利]一种基于深度学习的机器人多物体分拣方法-CN202110575065.9有效
  • 黄玲涛;张红彦;杨劲松 - 吉林大学
  • 2021-05-26 - 2022-09-13 - G06T7/70
  • 本发明公开了一种基于深度学习的机器人多物体分拣方法,所述分拣方法具体步骤如下:首先利用旋转目标检测网络检测任务场景中目标物体的类别、位置及旋转角度;之后通过实例分割网络分割出物体表面像素,利用相机标定、主成分分析法和欧拉角法对分割出的像素进行处理,获得目标物体的姿态;然后通过基于先验知识的物体分拣次序推理算法获得物体的分拣次序;最后机器人根据获得的物体分拣次序和位姿,自主完成多物体分拣任务。本发明基于深度学习的方法实现了场景中物体位姿和分拣次序的获取,使机器人能够在非结构化场景中对堆叠的多物体进行安全、稳定和准确的分拣操作。
  • 一种基于深度学习机器人物体分拣方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top