专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果53个,建议您升级VIP下载更多相关专利
  • [发明专利]基于贪心算法的学生宿舍及班级分配方法及分配系统-CN202310116813.6在审
  • 黎红友;马从锂;陈宇;彭舰;李梦诗 - 四川大学
  • 2023-02-14 - 2023-10-27 - G06Q50/20
  • 本发明公开了基于贪心算法的学生宿舍及班级分配方法,包括如下步骤:生成新生名册表,生成新生分寝表,生成新生分班表,分配同性新生中的第一类学生;直到遍历完整个学生列表,或者所有宿舍都已经分配到第一类学生,分配同性新生中的第二类学生;所有宿舍都已分配到第二类学生或所有第二类学生都已分配到不同宿舍中,分配同性新生中的乡村学生,直到所有宿舍都已分配到第三类学生或所有第三类学生都已分配到不同宿舍中,根据差异值分配剩余的学生;直到所有学生都已分配,完成学生宿舍分配;进行班级分配;同一宿舍的学生分到同一个班级,完成学生宿舍和班级的分配。通过本发明,可以实现具有很好的灵活性,可根据需求,对分配结果进行适当调整。
  • 基于贪心算法学生宿舍班级分配方法系统
  • [发明专利]一种基于自适应噪声的数据协同对比推荐模型的系统-CN202311002795.5有效
  • 琚生根;赵容梅;孙思雨;彭舰;夏欣 - 四川大学
  • 2023-08-10 - 2023-10-20 - G06F16/9535
  • 本发明公开了一种自适应噪声的数据协同对比推荐模型,其包括信息量物品抽取模块、对比推荐模块和噪声自适应模块;对比推荐模块由信息量物品集和原始数据集协同训练;噪声自适应模块通过信息量物品集BPR损失和对比损失更新权重函数,学习监督信号,为原始数据集中噪声分配较低的权重。首先通过信息量物品抽取模块获取隐式反馈中对模型训练贡献度较大的物品形成信息量物品集,然后利用信息量数据集和原始数据集协同训练对比推荐模型,并用对比损失更新权重函数,为推荐模型提供指导信号,使其能够精准的识别原始数据集中的噪声和干净数据。该推荐模型在较低时间复杂度内缓解噪声数据影响,提高推荐结果的相关性,同时兼顾推荐结果的多样性。
  • 一种基于自适应噪声数据协同对比推荐模型系统
  • [发明专利]一种基于BOLD信号的注意缺陷与多动障碍检测方法-CN202310622593.4在审
  • 牛源;彭舰;黄飞虎;黄文;陈俊辉;王金策;弋沛玉 - 四川大学
  • 2023-05-29 - 2023-08-01 - G06F18/25
  • 本发明提出了一种基于BOLD信号的注意缺陷与多动障碍检测方法,通过建立功能连接提取网络提取BOLD信号的相关性特征,然后通过时间特征提取网络提取BOLD信号的时间特征,并将BOLD信号的相关性特征和时间特征进行特征融合,最后基于Softmax函数建立检测网络,将特征融合得到的样本输入检测网络得到检测结果;本发明不仅考虑了BOLD信号在时间维度的波动特征,还通过BOLD信号计算出功能连接来进一步增强特征,提升了分类准确率,可以通过一个输出表达多个功能连接的同时,还可以提取到BOLD信号间的非线性特征,一定程度上解决了传统的基于Pearson功能连接特征过多以及只能计算线性相关的问题。
  • 一种基于bold信号注意缺陷障碍检测方法
  • [发明专利]一种基于双通道的云服务负载预测方法及系统-CN202310189763.4在审
  • 丁吕繁;彭舰;黄飞虎 - 四川大学
  • 2023-03-02 - 2023-06-23 - G06F9/50
  • 本说明书实施例提供一种基于双通道的云服务负载预测方法及系统,属于云服务领域,其中,所述方法包括获取云服务器集群的历史负载数据;对云服务器集群的历史负载数据进行预处理,生成预处理后的历史负载数据;数据拟合通道去除预处理后的历史负载数据中的噪声信息,获取去噪后的历史负载数据,并基于去噪后的历史负载数据,确定云服务器集群的负载变化趋势,输出第一输出向量;差值通道确定云服务器集群的历史负载数据及去噪后的历史负载数据之间的差值,输出第二输出向量;基于第一输出向量和第二输出向量,预测云服务器集群的未来负载数据,具有通过双通道实现不同的功能,以提升预测性能的优点。
  • 一种基于双通道服务负载预测方法系统
  • [发明专利]基于早期视觉信息处理的红外图像和可见光图像融合方法-CN202010516394.1有效
  • 高绍兵;谭敏洁;魏伟;彭舰 - 四川大学
  • 2020-06-09 - 2023-05-30 - G06T5/50
  • 本发明公开了一种基于早期视觉信息处理的红外图像和可见光图像融合方法,包括以下步骤:S1、On中心型神经元和Off中心型神经元的动态感受野处理;S2、获得融合图像A和融合图像B:将可见光图像的On中心型神经元响应,红外图像的Off中心型神经元响应,以及原始的可见光图像三种成份进行融合获得图像A;将红外图像的On中心型神经元响应,可见光图像的Off中心型神经元响应,以及原始的红外图像三种成份进行融合获得图像B:S3、将融合后的图像A和B相加,获得最终融合结果。本发明能有效地将红外图像中的显著目标信息和可见光图像中的背景信息融合起来,为后续高价值目标检测和识别等夜视条件下的计算机视觉任务提供更加有效的特征。
  • 基于早期视觉信息处理红外图像可见光融合方法
  • [发明专利]基于数字放射图像及支持向量回归的手臂骨密度测量方法-CN202010516559.5有效
  • 高绍兵;周逸菲;谭敏洁;邱健珲;杨睿;彭舰 - 四川大学
  • 2020-06-09 - 2023-05-16 - G06T7/00
  • 本发明公开了一种基于数字放射图像及支持向量回归的手臂骨密度测量方法,包括以下步骤:S1、输入DR图像并分割出感兴趣区域;S2、对感兴趣区域分别提取DR图像的灰度特征和纹理特征;S3、使用支持向量建立回归模型:使用SVR算法建立回归模型,利用S2中提取的图像特征值及其对应的骨密度标签数据进行回归;S4、计算骨密度预测值并输出预测结果:利用S3中训练产生的回归模型,预测新受试者DR图像的骨密度。本发明在现有DR图像上进行感兴趣区域的分割及图像特征的提取,通过SVR算法建立回归模型来测量DR图像的骨密度,该方法操作简单,使用方便,同现有骨密度检测仪采集结果相似,测量误差小且测量精度高,有利于提升骨密度评估的准确性。
  • 基于数字放射图像支持向量回归手臂密度测量方法
  • [发明专利]一种结合深度学习的长期负荷预测方法-CN202211446579.5在审
  • 杨炬龙;彭舰;黄飞虎;陈俊珲;王金策;弋沛玉;李梦诗 - 四川大学
  • 2022-11-18 - 2023-03-21 - G06Q10/04
  • 本发明提出了一种结合深度学习的长期负荷预测方法,涉及负荷预测技术领域,包括:获取每个日期的日期特征并归一处理得到日期表征;获取全部历史负荷序列得到全局模式信息并压缩到对应日期的日期表征中生成全局预测;获取回溯窗口的历史观测值来减去对应日期的全局预测得到回溯窗口的残差;将回溯窗口的残差、每个日期的日期表征和下个日期的日期表征输入到短期预测网络得到下一日期的预测残差;将预测残差添加到回溯窗口的残差中,并重复上一步得到所有需预测日期的残差;将全局预测和所有需预测日期的残差结合得到最终预测结果;本发明通过从时间表征的全局信息把握序列全局模式,增加了模型吞吐量,实现了准确的长期负荷预测。
  • 一种结合深度学习长期负荷预测方法
  • [发明专利]基于深度学习的脑连接信号识别方法-CN202210826811.1在审
  • 熊志超;彭舰;黄飞虎;弋沛玉;王金策;陈俊珲 - 四川大学
  • 2022-07-13 - 2022-11-25 - G06K9/00
  • 本发明公开了基于深度学习的脑连接信号识别方法,包括如下步骤:对脑连接数据集进行采用z‑score标准化与随机丢弃的方式进行预处理,得到预处理后的数据集,预处理后的数据集为训练集,对脑连接数据集进行采用z‑score归一化生成验证集;基于ResNet模型改进得到Res_ICML模型,将训练集输入到Res_ICML模型,对Res_ICML模型进行训练,在经过设定轮次的训练后,通过验证集对训练后的Res_ICML模型进行验证,若满足提前终止条件,则进入步骤四,若不满足,则判断是否达到设定的最大迭代轮次,若是,则进入步骤四,若否则回到步骤二继续训练;结束训练,并保存得到训练完成的Res_ICML模型,将获得的脑功能连接信号数据输入训练完成的Res_ICML模型,得到该脑功能连接信号数据属于抑郁症患者的概率。
  • 基于深度学习连接信号识别方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top