本文主要是介绍基于UI交互意图理解的异常检测方法-学习记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
文中提到的方法主要是用于对目标进行识别定位的环节。
以前业界主流的方法:
1.通过xml信息,以线性规则判断。
但是无法对于交互意图有所拆解,并且由于不同的页面、业务、技术栈、APP实现的方式不同,很难通过线性规则在不同场景下进行高准确性的识别判断。
2.基于图像,用目标检测识别元素
泛化性较差。
3.通过渲染树提取文本信息,按照关键词进行匹配
最后文中的方法是用综合图像信息(图像Similarity)、文本信息(OCR文本Similarity)、渲染树信息(节点属性匹配)三种评判指标,组合为线性判断规则,根据此策略得到最终匹配或检测结果。
为解决UI测试中人工成本高的问题,应对【前端技术栈多样,基于规则的测试脚本很难泛化】,【UI样式繁多,基于CV方法也比较困难】的难点,提出了基于UI交互意图理解的异常检测方法,利用多模态模型,对用户可见文本,视觉图像内容和UI组件树中属性进行融合,实现对UI交互意图的准确识别。
交互意图簇:被用户认为能够提供特定的功能并达到预期目的的页面模块。
UI交互意图定义为「用户通过当前UI展示推断出来的不同模块的概念及交互功能」。
结合多种机器学习方法,通过机器获取与人工认知一致的“交互意图”,从而利用该信息模拟测试人员对客户端产品进行“理解-操作-检查”的测试验证流程。
具体来说,本项目的技术方案分为两个部分:
-
UI交互意图理解:基于深度学习方法对交易流程中表单/订单场景进行目标UI交互意图簇识别划分。
-
智能化测试用例驱动:定义测试用例目标,基于表单/订单等场景中的UI交互意图簇编写交互逻辑,在跨App、跨技术栈、跨业务的场景下尝试复用执行。
实现方式:先分类,再聚类的落地方案:先以渲染树元素为最小单位进行交互意图类型的分类,然后在不同的交互意图维度进行元素聚类,生成对应的交互意图簇。
目前,正在推进UI交互意图在实际自动化测试用例编写中的落地工作,即用UI交互意图代替基于规则的测试驱动脚本。由于业内的测试场景往往涉及不同技术栈、不同业务之间的大量相似的页面,这种泛化能力强的测试用例可以在相似页面复用,因此可以减少开发成本。此外,与现有的基于规则的测试脚本不同,该方法对UI页面的小规模变化不敏感,不会出现需要频繁维护Selector的情况,可一定程度上减少自动化Case维护所耗费的精力。
文章介绍了利用页面多模态信息在UI测试领域的探索与实践经验。针对意图信息识别问题,利用图像+文本+渲染布局属性信息探索出了一种交互意图簇识别模型,验证了基于自注意力的多模态方向可行性。此模型可以识别出渲染树元素多维度的意图属性信息,同时利用聚类算法将节点聚成交互意图簇,可以为后续的任务提供结构化决策信息。在标注数据较少的情况下仍体现了较好的准确率以及泛化能力。后续计划通过扩大数据集、加强预训练等方式继续提升模型识别的精度。回顾整个UI交互意图理解探索历程,先后经历了“无监督/无类别的区域划分”,“有监督针对UI节点分类”, “分类后聚类”, “利用识别结果进行测试用例编写、执行”四个阶段。目前在UI交互意图提取上已探索出了较为合适的方案,正进行实际业务落地,让UI交互意图识别能力融入当前大前端测试能力,在智能测试用例驱动、智能检查等方向上取得实际应用收益。
落地:
-
智能探索性测试 当前App功能复杂,有大量可以操作的组件,无意识的探索效率太低,期望利用意图识别结果,对当前测试场景的一些通用可操作组件执行有意义操作的自动化测试,并进行逻辑问题校验。
-
跨分辨率的比较
-
节点匹配选择 利用意图识别预训练模型,支持节点匹配任务,实现泛化性较强的跨分辨率、跨技术栈、跨App的节点查找能力,与现有的基于XPath、Selector等的线性条件节点选择模式形成互补。在中长期来看,期望将UI交互意图识别作为大前端结构化信息提取的通用能力,在不同的业务领域进行如智能测试bot、终端测试标准化知识组织与覆盖率评估、智能辅助测试用例编写与生成等方向上持续探索、落地。
这篇关于基于UI交互意图理解的异常检测方法-学习记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!