专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果183个,建议您升级VIP下载更多相关专利
  • [发明专利]基于边缘信息和多尺度交叉融合网络的帧插入方法及系统-CN202310912141.X在审
  • 杨晓晖;王绍文;王清;徐涛;冯志全 - 济南大学
  • 2023-07-24 - 2023-10-17 - G06V20/40
  • 本发明属于计算机视觉技术领域,具体为一种基于边缘信息和多尺度交叉融合网络的帧插入方法及系统,包括:获取连续的两帧图像,对图像进行裁剪和尺度变换,得到裁剪后的原尺度图像以及尺度变换后的图像;对原尺度图像进行特征提取,利用基于边缘信息的特征增强模块对提取的特征进行增强得到增强后的特征;对增强后的特征进行尺度变换后,分别对不同尺度的增强后的特征进行像素级参数提取,接着使用自适应流协作根据提取的像素级参数对不同尺度的图像进行帧扭曲操作,得到三个尺度的扭曲帧;将三个尺度的扭曲帧输入多尺度交叉融合网络中以合成插值帧。本发明的基于边缘信息的特征增强模块能够使模型获得更加完整的特征图,从而提高模型性能。
  • 基于边缘信息尺度交叉融合网络插入方法系统
  • [实用新型]一种面向桌面操作的普适穿戴式智能监控系统-CN202320079606.3有效
  • 冯志全 - 济南大学
  • 2023-01-10 - 2023-08-29 - H04N9/31
  • 本实用新型涉及一种面向桌面操作的普适穿戴式智能监控系统,包括设置在电教室的计算机系统,所述计算机系统带有智能监控所需的算法软件,用于考生操作实验设备的操作场景桌面,还包括穿戴体、投影装置、微型摄像机、角度传感器以及连接体,所述穿戴体可以穿戴在人体某部位上,所述投影装置可在用户的操作场景桌面上产生投影图像,所述微型摄像机可拍摄操作场景桌面的视频信息,所述角度传感器可跟踪微型摄像机的角度改变信息;在用户的操作过程中,系统通过投影装置可以直观地感知头戴式微型摄像机拍摄的区域,从而避免头部晃动而产生误识别。
  • 一种面向桌面操作穿戴智能监控系统
  • [发明专利]一种三维手势生成方法-CN201810633830.6有效
  • 冯志全;李健 - 济南大学
  • 2018-06-20 - 2023-08-18 - G06V40/20
  • 本发明涉及一种三维手势生成方法,包括以下步骤:a.利用Kinect中的人体骨骼信息得到人手的深度坐标;b.获取人手区域的深度图像;c.将步骤b中获取的深度图像按照7:3的比例分为训练集和测试集两部分,并在Caffe框架下用CNN对步骤c‑1中的所有训练样本对手腕角度进行训练,得到一个i分类的CNN模型;d.对步骤c‑2中分出的每一类训练样本,随机取4/5的样本对手指j个局部状态再次进行CNN训练;e.对每一帧深度图像利用步骤c和步骤d中训练出的二层分类模型得到手腕状态和手指局部状态,这两种状态共同决定了手势状态;f.对手势状态判断并以此来实现对手势的控制。本发明利用二层分类模型对深度图像的手势状态进行分类,最后提出了控制算法以驱动虚拟手的运动。
  • 一种三维手势生成方法
  • [发明专利]一种VR场景下人机协同抓取物体的方法-CN201911041939.1有效
  • 冯志全;李健 - 济南大学
  • 2019-10-30 - 2023-08-18 - G06T19/00
  • 本发明提供了一种VR场景下人机协同抓取物体的方法,属于虚拟现实技术领域。该方法包括:同时进行手势识别和语音识别,其中,所述手势识别是采集人手的视频信号,根据所述视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果;所述语音识别是采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果;根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作。利用本发明能够协助用户准确高效地操作自己想要交互的虚拟物体。
  • 一种vr场景人机协同抓取物体方法
  • [发明专利]一种与老年人益智游戏智能交互的方法、系统和机器人-CN202111374814.8有效
  • 冯志全;侯娅;范雪 - 济南大学
  • 2021-11-19 - 2023-06-30 - B25J11/00
  • 本发明提出了一种与老年人益智游戏智能交互的方法、系统和机器人,该方法包括:实时识别游戏对象的位置和旋转角度;在老人操作完成后,根据所述游戏对象的位置和旋转角度,计算抓取下一游戏对象动作的即时回报值以及根据所述即时回报值执行游戏对象抓取;所述游戏对象动作的即时回报值用于表示在可选范围内最优且代价最小的动作,并更新强化学习中的状态动作值函数。基于该方法,还提出了一种与老年人益智游戏智能交互的系统和机器人。本发明在强化学习状态改变的基础上加入了人机交互的因素,在与老年人进行益智游戏的过程中,强调机器人和人产生互动,有效的提高了老年人陪护的质量,更好的实现老年心理健康方面的陪护。
  • 一种老年人益智游戏智能交互方法系统机器人
  • [发明专利]一种实验操作AI考试评分方法及系统-CN202310192914.1有效
  • 冯志全 - 济南大学
  • 2023-03-03 - 2023-06-20 - G06Q10/0639
  • 本发明公开了一种实验操作AI考试评分方法及系统,属于考试成绩计算领域,所述方法包括:将实验过程分为m个步骤,将每个实验步骤分为n个评分点;计算每个评分点分值、每个评分点分值求和得到每个步骤分值、每个步骤分值求和得到总分;计算每个评分点分值可信度tk、每个步骤评分的可信度Ti、总分的可信度T;对评分点进行补充评分;输出考试评分表。本发明旨在精准、量化、实时地给出评定成绩和扣分依据,精准提供全程可追溯的实验操作数据。
  • 一种实验操作ai考试评分方法系统
  • [实用新型]一种头戴式摄像头架-CN202220106394.9有效
  • 冯志全 - 伍华玲
  • 2022-01-14 - 2023-06-20 - H04N23/50
  • 本实用新型公开了一种头戴式摄像头架,包括摄像头,穿戴框架,摄像头设在穿戴框架上,穿戴框架用以将摄像头穿戴在人的头部;鼻托,设在穿戴框架上;光源,设在摄像头或穿戴框架上,光源沿摄像头的轴心方向产生投影。鼻托为可伸缩鼻托。可伸缩鼻托包括鼻托部、伸缩杆,伸缩杆的两端分别与鼻托部、穿戴框架相连接。本装置的鼻托伸置在镜框与鼻梁之间并搭在鼻梁上,不妨碍使用人员佩戴眼镜,使用体验性更好。本装置设置的光源可以在操作场景中产生激光点,通过激光点,操作者可以直观地感知到其眼睛关注的大致位置和范围。
  • 一种头戴式摄像头
  • [发明专利]一种穿戴式摄像机姿态监控与识别系统及方法-CN202310032255.5在审
  • 冯志全 - 济南大学
  • 2023-01-10 - 2023-05-23 - H04N23/611
  • 一种穿戴式摄像机姿态监控与识别系统及方法,系统包括:头戴式穿戴架,摄像头,头戴式微型摄像机,与头戴式穿戴架固定连接,用于获取场景视频信息;投影装置,投影装置向微型摄像机拍摄的同一场景中投影,用于增强信息;通过调整投影装置的光轴方向,使投影图案的中心位置位于头戴式微型摄像机光轴线上;提示模块,当系统发生异常时发出提示;角度感知模块,用于获取头戴式微型摄像机的角度姿态信息,所述角度姿态信息包括:视角θ和仰角ω。本系统解决了采用头戴式摄像机容易出现的拍摄不到或拍摄不全操作场景、头部运动而影响实验评分结果等问题,本系统采用多投影区域技术,实现了对用户行为的精准指引,避免识别到其他不相关的器材。
  • 一种穿戴摄像机姿态监控识别系统方法
  • [发明专利]一种动静态融合的多态手势识别方法-CN201810681989.5有效
  • 冯志全;周晓燕 - 济南大学
  • 2018-06-27 - 2023-04-28 - G06V40/20
  • 本发明提供了一种动静态融合的多态手势识别方法,属于交互式教学领域。该动静态融合的多态手势识别方法包括:(1)利用Kinect持续捕捉用户做出的手势序列;(2)对捕捉到的手势序列进行动静态融合处理,得到动静态融合的样本序列;(3)对所述动静态融合的样本序列进行归一化尺寸处理,得到训练样本;(4)将所述训练样本输入到训练好的深度学习模型中进行识别得到识别结果。利用本发明方法提高了多态手势的识别率以及鲁棒性,使整个交互式教学界面更好地为智能教学系统服务。
  • 一种静态融合手势识别方法
  • [发明专利]一种3D手势鼠标的生成方法-CN201810633829.3有效
  • 冯志全;曾波涛 - 济南大学
  • 2018-06-20 - 2023-04-18 - G06V40/20
  • 本发明涉及一种3D手势鼠标的生成方法,包括以下步骤,a.视频输入,采用Kinect获取视频流,根据其手部节点位置获取手部的大致范围,分别提取手部的深度图像和RGB图像;b.特征提取,对于从步骤a中获取的两种图像将分别提取不同的特征用于后续的指尖跟踪;c.特征融合以获得观测模型;d.粒子滤波跟踪,采用的粒子滤波方法过程明细如下:粒子样本集合描述,设粒子集合模型S={x,y,vx,vy,wx,wy,a},在此,wx,wy,均设为固定值d1,a是速度的尺度变换因子,样本集合的更新通过系统状态变化传播方程st=Ast+wt‑1实现;在本发明中并给出了粒子滤波算法步骤;e.鼠标位置转换。本发明提出了更加有效的特征,并且进行特征融合,再结合角点检测来达到实时精确的跟踪目的的有益效果。
  • 一种手势鼠标生成方法
  • [发明专利]一种基于多模态交互的虚拟实验系统及方法-CN202010284617.6有效
  • 冯志全;肖梦婷 - 济南大学
  • 2020-04-13 - 2023-04-07 - G06F3/01
  • 本申请公开了一种基于多模态交互的虚拟实验系统及方法,该实验系统主要包括输入层、感知与识别层、融合层以及应用层。该方法包括:分别通过视觉通道、触觉通道和听觉通道,采集相应的视觉信息、传感信号以及语音信号;分别对不同通道的信息进行识别;根据识别结果,采用基于决策层面的多模态融合方法,在AR平台上对视觉通道、触觉通道和听觉通道的模态信息所构建的相应向量集进行融合;根据融合结果,采用语音导航、视觉显示以及触觉反馈的方式呈现实验过程和实验结果。通过本申请,能够充分利用多种通道,并采用多模态融合的方法实现实验过程,有利于降低用户操作负荷,提高实验的沉浸感,提高虚拟交互的效率。
  • 一种基于多模态交互虚拟实验系统方法
  • [发明专利]一种助老陪护机器人的自调优多通道融合方法和系统-CN202011045564.9有效
  • 冯志全;侯娅 - 济南大学
  • 2020-09-28 - 2023-04-07 - G06V10/80
  • 本发明提出了一种助老陪护机器人的自调优多通道融合方法和系统,该方法包括以下步骤:获取用户的语音信息、对象信息和手势信息,并进行离散化处理得到听觉集合、视觉集合和手势集合;基于神经网络的自学习功能,将听觉集合、视觉集合和手势集合根据机器人指令知识库进行一次多通道融合,对融合信息进行量化,并输出初始融合算子;对多通道融合进行迭代,在每次迭代时判断输出融合算子的变化、并调整输出的融合信息作为下次迭代的输入,当融合算子不变时迭代终止。基于该方法,还提出了融合系统。本发明使用神经网络的自学习思想以更灵活适应不同的信息表达方式找到最佳的组合模式,提高了助老陪护机器人信息融合的灵活性和鲁棒性。
  • 一种陪护机器人自调通道融合方法系统

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top