[发明专利]样本获取方法、装置、非易失性存储介质及计算机设备在审
申请号: | 202210504399.1 | 申请日: | 2022-05-10 |
公开(公告)号: | CN114817053A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 孙帅;李凡平;石柱国 | 申请(专利权)人: | 以萨技术股份有限公司 |
主分类号: | G06F11/36 | 分类号: | G06F11/36;G06N3/02 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 曾红芳 |
地址: | 266400 山东省青岛*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 样本 获取 方法 装置 非易失性 存储 介质 计算机 设备 | ||
本发明公开了一种样本获取方法、装置、非易失性存储介质及计算机设备。其中,该方法包括:获取备选图像;将备选图像输入深度神经网络软件系统,获取深度神经网络软件系统处理备选图像时的神经元覆盖率;在神经元覆盖率大于第一阈值的情况下,将备选图像加入测试样本集,其中,测试样本集用于执行对深度神经网络软件系统的测试。本发明解决了能够对深度神经网络软件系统进行高效测试的测试样本集不易获取的技术问题。
技术领域
本发明涉及软件测试领域,具体而言,涉及一种样本获取方法、装置、非易失性存储介质及计算机设备。
背景技术
机器学习(ML)技术如深度神经网络(Deep-Neural-Network,简称DNN)取得了重大进展,使得人脸识别等关乎安全的机器学习系统得以发展。然而,尽管深度神经网络取得了惊人的进步,但与传统软件一样,深度神经网络经常表现出错误或意外的情况行为,这可能会导致潜在的危险。深度神经网络驱动人脸识别的大多数现有测试技术在很大程度上依赖于在不同环境下手动收集测试数据,随着测试条件数量的增加,这些测试数据变得昂贵得令人望而却步。传统软件和基于DNN的新软件的内部结构有着根本的不同。例如,与传统软件不同,传统软件的程序逻辑是由软件开发人员手动编写的,基于DNN的软件可以在最少的人工指导下从大量数据中自动学习其逻辑。此外,传统程序的逻辑是用控制流语句表示的,而DNN使用不同神经元之间的边的权重,以及用于类似目的的非线性激活函数。这些差异使得基于DNN的软件的自动测试工作具有挑战性。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种样本获取方法、装置、非易失性存储介质及计算机设备,以至少解决能够对深度神经网络软件系统进行高效测试的测试样本集不易获取的技术问题。
根据本发明实施例的一个方面,提供了一种样本获取方法,包括:获取备选图像;将所述备选图像输入深度神经网络软件系统,获取所述深度神经网络软件系统处理所述备选图像时的神经元覆盖率;在所述神经元覆盖率大于第一阈值的情况下,将所述备选图像加入测试样本集,其中,所述测试样本集用于执行对所述深度神经网络软件系统的测试。
可选地,所述获取备选图像,包括:获取初始图像,其中,所述初始图像为处于标准图像状态的图像;确定若干基本图像操作,其中,所述基本图像操作包括如下至少之一:图像亮度调整、图像对比度调整、平移、缩放、水平剪切、旋转、模糊、雾效应和雨效应;基于所述基本图像操作对所述初始图像进行图像变换,得到所述备选图像。
可选地,所述基于所述基本图像操作对所述初始图像进行图像变换,得到所述备选图像,包括:基于所述基本图像操作,确定第一图像操作,其中,所述第一图像操作包括所述基本图像操作中的一种或多种;基于所述第一图像操作对所述初始图像进行图像变换,得到所述备选图像。
可选地,所述对所述初始图像进行图像变换,得到所述备选图像,包括:获取所述初始图像的初始图像状态以及目标图像状态;基于所述目标图像状态以及所述初始图像状态,确定第二图像操作,其中,所述第二图像操作包括所述基本图像操作中的一种或多种;基于所述第二图像操作对所述初始图像进行图像变换,得到所述备选图像。
可选地,上述方法还包括:在所述测试样本集包括多个所述备选图像的情况下,获取多个所述备选图像各自的图像状态;基于所述多个所述备选图像各自的图像状态,确定所述测试样本集的图像状态在图像状态空间中覆盖的空间范围;基于所述空间范围,确定所述深度神经网络软件系统的测试样本边界条件。
可选地,上述方法还包括:基于所述测试样本边界条件,生成目标样本图像,其中,所述目标样本图像的图像状态在所述图像状态空间中满足所述测试样本边界条件;将所述目标样本图像添加到所述测试样本集。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于以萨技术股份有限公司,未经以萨技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210504399.1/2.html,转载请声明来源钻瓜专利网。