专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果9个,建议您升级VIP下载更多相关专利
  • [发明专利]一种面向学者学术网络构建的关系抽取方法-CN202310684297.7有效
  • 费洪晓;谭杨盈;杨柳;龙军;王子冬;黄文体 - 中南大学
  • 2023-06-12 - 2023-08-18 - G06F16/36
  • 本发明公开了一种面向学者学术网络构建的关系抽取方法,包括如下步骤:步骤S1:构建包括至少两个教师模型的多教师模型,计算教师模型权重;步骤S2:构建学生模型,根据灵活温度计算蒸馏目标分布,计算知识蒸馏损失,结合知识蒸馏损失和远程监督损失计算总损失;步骤S3,进行关系抽取,学生模型进行训练,得到关系抽取模型,利用关系抽取模型对输入的数据集进行关系抽取。优点是,本发明考虑到样本的差异而设置灵活温度,使用样本在隐藏层和分类层的信息熵相对差值,尽可能保留样本的有效信息,并降低样本标签软化的不确定性;另外,本发明将多教师的思想引入到了关系抽取之中,通过构建不同教师的全局关系,以传播更丰富且有效的知识。
  • 一种面向学者学术网络构建关系抽取方法
  • [发明专利]一种云边端协同个性化联邦学习方法、系统、设备及介质-CN202211700785.4有效
  • 费洪晓;夏项杰;龙军;齐倩倩;洪俊坤 - 中南大学
  • 2022-12-29 - 2023-06-27 - G06N3/088
  • 本发明公开了一种云边端协同个性化联邦学习方法、系统、设备及介质,本方法通过获取多个客户端的终端设备产生的数据样本和所有客户端构成的图结构;获取数据样本的特征矩阵表示和邻接矩阵表示,获得数据样本的特征张量和邻接张量;根据邻接张量和特征张量,对多个客户端的终端设备进行聚类,获得多组客户端终端设备;构建云边端协同个性化联邦学习的目标函数和特征图,并根据目标函数和特征图,对每组客户端终端设备进行个性化模型训练,更新每组客户端终端设备的个性化模型的参数;根据个性化模型的参数、特征图和图结构,通过图卷积神经网络进行聚合,获得每个客户端的全局模型和个性化模型。本发明能够有效提升模型的推理精确度和训练速度。
  • 一种云边端协同个性化联邦学习方法系统设备介质
  • [发明专利]一种学生时空动作识别方法、装置、终端设备及介质-CN202310031388.0在审
  • 罗京;胡超;费洪晓;陈黎;梁锴;余瑞实 - 中南大学
  • 2023-01-10 - 2023-04-18 - G06V40/20
  • 本申请适用于教学管理系统技术领域,提供了一种学生时空动作识别方法、装置、终端设备及介质,该方法包括:根据改进后的人脸识别方法和图像特征提取神经网络模型构建人脸特征提取模型;根据人体检测模型和时空特征提取神经网络模型构建时空动作识别模型;利用人脸检测模型和时空动作识别模型对待处理视频数据进行处理,得到动作管集合和人脸标注框集合;对动作管集合和人脸标注框集合进行空间交并,得到待识别动作集合;利用人脸特征提取模型提取每个人脸标注框的人脸特征数据;将目标学生的人脸特征数据与预处理人脸特征数据进行匹配,得到目标学生的身份信息以及动作信息。本申请能对学生的时空动作与学生身份进行匹配。
  • 一种学生时空动作识别方法装置终端设备介质
  • [发明专利]基于图卷积神经网络的特征增强云容器异常日志分类方法-CN202211500810.4在审
  • 林震;胡超;施鹤远;费洪晓;刘荣凯;梁锴;湛誉 - 中南大学
  • 2022-11-28 - 2023-04-07 - G06F16/18
  • 本公开实施例中提供了一种基于图卷积神经网络的特征增强云容器异常日志分类方法,属于数据处理技术领域,具体包括:从异常日志数据集中读取异常日志;将异常日志划分为堆栈跟踪数据帧;将堆栈跟踪数据帧进行标记和裁剪;将堆栈跟踪数据帧构建为Bert模型的输入特征向量Fin;将输入特征向量Fin输入编码器中,输出特征向量Fout并分割为[FCLS,Flog];构建一张图,将向量Flog当作点特征,向量FCLS的余弦相似性结果当作边关系,将该图输入到图卷积神经网络中;将图卷积神经网络特征增强后的异常日志特征向量经过全连接层和激活函数映射成一维特征向量,然后对该一维向量进行相似性度量,并据此对异常日志进行分类。通过本公开的方案,提高了异常日志分类的效率和精准度。
  • 基于图卷神经网络特征增强容器异常日志分类方法
  • [发明专利]一种动态星间的多星协同计算方法、系统、设备及介质-CN202310000914.7有效
  • 费洪晓;张茜;龙军;刘丽敏;王运波 - 中南大学
  • 2023-01-03 - 2023-04-07 - G06F9/50
  • 本发明公开了一种动态星间的多星协同计算方法、系统、设备及介质,包括获取卫星网络中的辅卫星资料和等待计算的计算任务资料,根据辅卫星资料和计算任务资料构建卫星五元组与任务四元组,卫星五元组包括卫星ID、卫星可见时间窗开始、卫星可见时间窗结束、可见时间窗和卫星的计算速度,任务四元组包括计算任务ID、计算任务开始时间、计算任务结束时间和计算任务的数据大小,根据卫星五元组、任务四元组与预先设置的目标函数计算得到满足执行计算任务所消耗的总能耗最小或执行计算任务所消耗的总时间最小的最适调度策略,根据最适调度策略将计算任务分发给对应的辅卫星,实现了动态时变环境下的多星协同计算。
  • 一种动态协同计算方法系统设备介质
  • [发明专利]基于深度迁移学习的医学图像分类模型的训练方法及装置-CN202110147726.8有效
  • 龙军;费洪晓;向佳元 - 中南大学
  • 2021-02-03 - 2022-06-17 - G06V10/764
  • 本发明公开了一种基于深度迁移学习的医学图像分类模型的训练方法及装置,其中方法包括:获取已标注的医学图像并进行预处理,得到医学图像样本集;利用医学图像样本集训练CNN网络模型得到第一分类模型;获取在ImageNet图像数据集上预先训练好的VGG‑16网络模型和ResNet‑50网络模型;基于迁移学习方法分别利用医学图像样本集再次训练VGG‑16网络模型和ResNet‑50网络模型,分别得到第二分类模型和第三分类模型;将上述三个分类模型的输出连接到投票机制模块的输入构成医学图像分类模型。采用迁移学习方法训练得到第二分类模型和第三分类模型,解决了标注医学图像少导致训练出来的模型精度低问题;将三个预测结果结合投票机制得到分类结果,提高了模型的准确性、泛化性和鲁棒性。
  • 基于深度迁移学习医学图像分类模型训练方法装置
  • [发明专利]基于注意力指导的行人重识别方法、装置及存储介质-CN202110249654.8在审
  • 龙军;费洪晓;朱甘霖;杨展 - 中南大学
  • 2021-03-08 - 2021-06-04 - G06K9/00
  • 本发明公开了一种基于注意力指导的行人重识别方法、装置及存储介质,其中方法包括:获取目标图像和待识别图像;分别提取两者的行人二值化前景,并生成行人三分图;分别将目标图像和待识别图像及各自对应的行人三分图输入基于注意力机制的行人分割模型,提取目标行人图像和待识别行人图像;分别将其缩放到相同大小的白色背景中;并分别划分成若干条带子图,并计算每个条带子图的LOMO特征和CN特征,得到目标行人图像特征集和待识别行人图像特征集;将两个特征集输入基于孪生LSTM网络的相似度预测模型中,得到识别的相似度。能够解决非重叠相机所捕捉的图像背景复杂导致行人识别率不高的问题,能在复杂环境下的安保工作中起到重要的辅助任务。
  • 基于注意力指导行人识别方法装置存储介质
  • [发明专利]单视角低分辨率的步态特征提取方法、装置及存储介质-CN202011439223.X在审
  • 龙军;费洪晓;呼伟;杨展 - 中南大学
  • 2020-12-11 - 2021-03-19 - G06K9/00
  • 本发明公开了一种单视角低分辨率的步态特征提取方法、装置及存储介质,其中方法包括:获取监控图像;对监控图像采用基于插值的超分辨率算法进行处理,得到高分辨率监控图像;对高分辨率监控图像采用Gabor滤波器进行空间局部特征提取,得到步态Gabor特征;基于最大互信息量方法对步态Gabor特征进行降维处理,得到初始步态特征;基于主成分分析法对初始步态特征进行二次降维及降噪处理,得到最终步态特征。本发明利用超分辨率技术进行高分辨率信息的提取,经过Gabor滤波器进行过滤后,再进行两次降维,得到最终步态特征,能够获取到低分辨率、不清晰条件下的空间特征表达,解决在单视角固定摄像机切换到多视角摄像机的空间步态特征表达的问题。
  • 视角分辨率步态特征提取方法装置存储介质

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top