专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果60个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于自由文本的中文选择题干扰项生成方法-CN202110113550.4有效
  • 戴剑锋;吴梦莹;董黎刚;蒋献 - 浙江工商大学
  • 2021-01-27 - 2023-09-19 - G06F40/211
  • 本发明公开了一种基于自由文本的中文选择题干扰项生成方法,步骤包括:1‑1)对文本进行预处理,解析出核心关键词;1‑2)选择信息句;1‑3)生成正确答案;1‑4)生成问题题干;1‑5)扩展正确答案;1‑6)生成干扰项:基于向量空间模型进行扩展词向量化,使用TF‑IDF方法计算各个扩展词在向量空间里的权重;利用LSI模型将文本用“词语‑文本”矩阵表示,利用奇异值分解将高维稀疏的矩阵转换成低维的文本向量和单词向量,结合扩展词向量空间权重,用余弦相似度方法计算扩展词与知识图谱中三元组的语义相似度;筛选出干扰项;1‑7)结合题干和干扰项生成选择题。本发明生成速度快,占用资源少,难度高,适用于标准化教学和机器学习。
  • 一种基于自由文本中文选择题干扰生成方法
  • [发明专利]一种基于人脸和姿态的多模态人员识别方法-CN201911165122.5有效
  • 董黎刚;张云飞;索同鹏;邹杭;蒋献 - 浙江工商大学
  • 2019-11-25 - 2023-07-14 - G06V40/16
  • 本发明公开了一种基于人脸和姿态的多模态人员识别方法,包括如下步骤:1)如果某个姿态图像可以被捕获,分配一个数字i,捕获用的矩形框为R1[i],i作为该矩形框的标签;2)如从姿态图像中能识别出姓名A1[i],得到最小余弦距离为a[i],如果a[i]小于姿态识别阈值m,把i改为姓名标签A1[i];3)如果某个脸部图像可被捕获和识别,捕获用的矩形框为R2[i],得到的最小余弦距离为b[i],如果b[i]小于人脸识别阈值n,标签改为姓名A2[i];4)R2[i]在R1[i]内部的前提下,如果a[i]小于b[i]并且小于m,将R2[i]的标签改成A1[i],否则,把R1[i]的标签改成A2[i];5)对后续图像重复执行1)到4),如果a[i]或b[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的图像不再重复识别。
  • 一种基于姿态多模态人员识别方法
  • [发明专利]一种基于人脸识别的人脸间距估计方法-CN202011263555.7有效
  • 董其任;邹杭;章寅;张研;董黎刚;蒋献 - 浙江工商大学
  • 2020-11-12 - 2023-05-16 - G06V40/16
  • 本发明公开了一种基于人脸识别的人脸间距估计方法。根据多个人员被摄像头拍摄后得到的图像进行人脸间距计算,它包括如下步骤:1)获取摄像头的水平视角值;2)建立空间直角坐标系;3)获取图像中人脸器官的坐标;4)计算图像中人员眼间距和眉心到嘴中心的间距,5)计算人员到摄像头在数轴Oz方向上的真实距离;计算该人员到图像中心点在数轴Ox方向上的真实距离;6)计算任意两个人员之间的估计距离。本发明通过基于深度学习的人脸识别技术获取目标眼睛、鼻子和嘴在图片中的坐标信息,并对检测结果使用投影几何算法获取人脸间距,可以成本较低地实现人脸间距估计。
  • 一种基于识别间距估计方法
  • [发明专利]一种路径转换方法、存储介质及终端设备-CN202110900636.1有效
  • 王林超;诸葛斌;董黎刚;蒋献 - 浙江工商大学
  • 2021-08-06 - 2023-04-07 - H04L45/02
  • 本发明公开了一种基于SDN网络下控制器的路径转换方法、存储介质及终端设备,所述路径转换方法包括:构建转换网络;所述转换网络中的控制器用于进行网络传输路径规划,所述交换机用于转发流表实现数据传递;配置转换网路,其中包括获得新链路和旧链路;对所述转换网路进行路径更新:控制器实时获取交换机工作状态,并只在新链路下发流表,进行网络路径更新;既在新链路和旧链路处的交换机接收到两个数据包时进行判断是否相同,基于所述判断结果更新网络路径,从而确定网络流量的最优转发路径,使得数据传输不易丢失、失序。
  • 一种路径转换方法存储介质终端设备
  • [发明专利]基于多模态融合的主播表现力评价方法、装置和计算设备-CN202211384376.8在审
  • 赵君利;董黎刚;蒋献;邹杭 - 浙江工商大学
  • 2022-11-07 - 2023-02-24 - G06Q10/0639
  • 本发明公开了一种基于多模态融合的主播表现力评价方法、装置和计算设备,包括对输入的待评价视频进行颜值特征提取,得到主播颜值特征以及主播颜值特征对应的颜值评价信息;对待评价视频进行音色特征提取,得到主播音色特征以及主播音色特征对应的音色评价信息;对待评价视频进行内容特征提取,得到直播内容特征以及直播内容特征对应的内容评价信息;将主播颜值特征、所述主播音色特征以及所述直播内容特征输入至预先训练得到的表现力评价模型,得到主播表现力综合评价信息;将所述颜值评价信息、所述音色评价信息、所述内容评价信息以及所述主播表现力综合评价信息共同确定为视频综合评价信息。本发明能够提升主播表现力的评价结果的准确性。
  • 基于多模态融合表现力评价方法装置计算设备
  • [发明专利]一种面向SDN多控制器的异常检测方法-CN202110020074.1有效
  • 马巧巧;索同鹏;董黎刚;蒋献 - 浙江工商大学
  • 2021-01-07 - 2022-11-25 - H04L41/0695
  • 本发明公开了一种面向SDN多控制器的异常检测方法。它包括如下步骤:1‑1)在SDN控制器集合中采用Raft一致性算法选出“主控制器”,其余为“从控制器”;1‑2)“主控制器”与SDN交换机建立连接,向交换机发送Features Request请求参数信息,交换机回复Features Reply消息给“主控制器”;1‑3)交换机把收到的数据包Data封装成Packet In消息上报给“主控制器”;1‑4)“主控制器”利用BFT机制广播Packet In消息,每个控制器将验证到的Packet In消息上报给Proxy;1‑5)Proxy将收集到的信息放入同一元组归类,与之前收集到的信息进行比对,判断Data传输路径,判断异常的控制器和交换机,判决出可靠的Packet In消息并封装成Packet Out消息下发给交换机。本发明改进了当前网络安全中涉及到检测异常SDN控制器和交换机设备的问题。
  • 一种面向sdn控制器异常检测方法
  • [发明专利]一种面向SDWSN的分布式高效熵节能分簇路由方法-CN202210711924.7在审
  • 马巧巧;麻佳辉;董黎刚;蒋献 - 浙江工商大学
  • 2022-06-22 - 2022-11-01 - H04W40/10
  • 本发明涉及了一种面向SDWSN的分布式高效熵节能分簇路由方法。它包括如下步骤:1‑1)网络节点根据阈值条件公式选出临时簇头,节点信息通过簇头发送给基站;1‑2)基站根据萤火虫算法进行簇头选择,根据种群多样性的位置更新策略更新个体位置,得到当前全局最优解Cbest;1‑3)使用引力搜索算法和生物地理学优化杂交算法对Cbest进行进一步搜索,得到全局最优解Gbest即为能量最大的节点位置;1‑4)基站根据Gbest计算簇头轮换表并载入流表信息下发给节点,每个节点接收并存储信息,并在每个簇内选出能量最高的节点作为簇头。本发明能够延长网络生存周期,并提高能量利用率,提高SDWSN的性能。
  • 一种面向sdwsn分布式高效节能路由方法
  • [发明专利]信号干扰下的超宽带精确定位方法-CN202210119309.7在审
  • 章寅;赵君利;徐璨;董黎刚;蒋献;童磊;王程可 - 浙江工商大学
  • 2022-02-08 - 2022-05-27 - G06K9/00
  • 本发明公开了一种信号干扰下的超宽带(UWB)精确定位方法,利用UWB通信独特的技术特点,实现受遮挡干扰下的精确定位。它包括如下步骤:1)去除数据集中的冗余样本得到精简的数据集;2)构建靶点定位模型,求解有干扰条件下的潜在靶点坐标;3)引入对距离估计的残差建模,得到唯一的靶点坐标估计值;4)构建SVM支持向量机模型,实现测距有无受到干扰的自主判断;5)对动态轨迹进行卡尔曼滤波,得到精确的运动曲线。受到干扰时,室内定位技术很难依赖全球卫星定位技术实现,故在干扰条件下实现位置服务的需求尤为急迫,本发明算法具有通信开销低、安全性高、定位精度高以及抗干扰能力强的特点,可以实现信号干扰下的精确定位。
  • 信号干扰宽带精确定位方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top