[发明专利]基于可拓展模型的文旅数据处理方法及系统有效
申请号: | 202211330530.3 | 申请日: | 2022-10-28 |
公开(公告)号: | CN115393685B | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 包珊陌 | 申请(专利权)人: | 良业科技集团股份有限公司 |
主分类号: | G06V10/80 | 分类号: | G06V10/80;G06V10/778;G06Q50/14 |
代理公司: | 北京知果之信知识产权代理有限公司 11541 | 代理人: | 苏利 |
地址: | 100107 北京市朝阳区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 拓展 模型 数据处理 方法 系统 | ||
1.基于可拓展模型的文旅数据处理方法,其特征在于,包括:
在判断用户输入模型拓展数据后,提取所述模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息;
提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息;
根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息;
可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据;
所述根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息,包括:
对所述第一训练图像进行坐标化处理,得到第一训练图像中每个第一训练像素点的第一训练坐标信息,确定每个第一训练像素点的第一训练像素值;
对所述第二训练图像进行坐标化处理,得到第二训练图像中每个第二训练像素点的第二训练坐标信息,确定每个第二训练像素点的第二训练像素值;
对所述融合训练图像进行坐标化处理,得到融合训练图像中每个融合训练像素点的融合训练坐标信息,确定每个融合训练像素点的融合训练像素值;
根据第一训练坐标信息、融合训练坐标信息将相对应的第一训练像素点和融合训练像素点进行比对,若判断第一训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第一训练像素点进行第一标记;
统计相邻的具有第一标记的第一训练像素点的第一数量,若所述第一数量大于第一预设数量,则将添加第一标记的第一训练像素点添加第二标记;
统计所有具有第二标记的第一训练像素点的第一训练坐标信息生成第一坐标集合,根据所述第一坐标集合得到第一图像提取信息;
所述根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息,包括:
根据第二训练坐标信息、融合训练坐标信息将相对应的第二训练像素点和融合训练像素点进行比对,若判断第二训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第二训练像素点进行第一标记;
统计相邻的具有第一标记的第二训练像素点的第二数量,若所述第二数量大于第二预设数量,则将添加第二标记的第二训练像素点添加第二标记;
统计所有具有第二标记的第二训练像素点的第二训练坐标信息生成第二坐标集合,根据所述第二坐标集合得到第二图像提取信息;
所述可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据,包括:
确定所述第一训练图像的第一分辨率、第二训练图像的第二分辨率以及融合训练图像的融合分辨率;
若判断融合分辨率与第一分辨率和/或第二分辨率中的任意一个相对应,则将相应的第一图像提取信息和第二图像提取信息作为基准图像提取信息,将非基准图像提取信息融入至基准图像提取信息的方式作为第二图像融合方式;
确定作为非基准图像提取信息的第一图像提取信息或第二图像提取信息,将非基准图像提取信息的第一分辨率或第二分辨率与融合分辨率进行比对,得到非基准图像提取信息的提取比例;
根据所述提取比例对第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于良业科技集团股份有限公司,未经良业科技集团股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211330530.3/1.html,转载请声明来源钻瓜专利网。