第47讲:如何获得良好的(测试与质量)可追溯性、可视化
文章目录
上一讲介绍了如何度量和评估测试工作的质量,以及对测试过程进行量化管理。实现量化管理不仅要有度量体系,要实现度量指标的可视化才够完美,对于产品质量的评估也是如此,这就离不开一个数据统计、分析的呈现平台。
测试用例和缺陷需要测试管理系统进行跟踪管理。在此基础上实现三者之间的可追溯性,就能更容易解决需求变更、回归测试范围确定、质量评估等一系列重要的问题。
下面首先介绍测试管理系统。
测试管理系统
在测试管理系统中,管理的核心是测试用例和缺陷。一个测试管理系统的构成如图 1 所示。
图1 测试管理系统的构成示意图
敏捷测试中的测试用例包括两部分:一部分是手工测试用例,另一部分是可以转化为自动化测试脚本的测试用例。对于探索式测试,虽然从粒度上来说,一个 Session 可以分解成十几条普通测试用例,但从管理的角度,可以把每个 Session 的 Charter 内容 (场景/测试点列表)放入测试用例管理系统中。因此下面讨论中提到的测试用例,是指 SBTM Charter 和自动化测试脚本。
测试套件(Test Suite,也叫测试集) 是测试用例的组合,而测试数据、测试环境配置等可以看作是测试用例的组成内容,测试执行结果就是测试用例在不同环境中运行的记录。在探索式测试中,测试套件对应 SBTM 的 Mission 或 Session。
缺陷是测试进度跟踪、质量评估等工作中所需要的重要依据。缺陷管理指的是如何更好地跟踪缺陷状态,如何针对缺陷记录进行各类统计分析和趋势预测等。
优秀的测试管理系统对测试用例的管理可以解决这些问题:如何设计、构造灵活的测试套件?如何有效执行测试计划中所要求的测试用例?如何跟踪测试执行的结果?
需求、测试用例、缺陷映射关系
在测试管理系统里面,很重要的一点就是在测试用例和缺陷之间建立必要的映射关系,即将两者完全地关联起来。其目的是建立测试用例和所发现的缺陷之间的可追溯性:
在系统里打开一个缺陷,就知道是由哪个测试用例发现的,如果没有对应的测试用例,则应该追加相关的测试用例;
可以列出任何一个测试用例所发现的缺陷情况,据此就知道哪些测试用例发现较多的缺陷,哪些测试用例从来没有发现缺陷,能够发现缺陷的测试用例当然更有价值,应该优先执行。
不仅如此,还应该建立起需求、产品特性/功能点同测试用例之间的映射关系,如图 2 所示。在敏捷开发中,是指 Epic、用户故事同测试用例之间的映射。一个用户故事需要 1 个或几个 Session 来覆盖,转化成测试脚本数量更多,因此一个用户故事会映射多个测试用例。需求变更在敏捷开发中更加频繁,借助这种映射关系和可追溯性,可以解决需求变化所带来的问题:
需求变化会影响哪些功能点?
功能点发生变化,需要修改哪些测试用例?
产品的某个特性或某个功能点存在的缺陷有哪些?其质量水平如何?
如果一个缺陷是由于设计、需求定义引起的,如何追溯到原来的需求上去解决?
通过对缺陷的分析,如何进一步改进设计和提高需求定义的准确性?
图2 需求、测试用例、缺陷之间的映射关系图
在测试管理工具中,测试用例的执行状态需要测试人员手工更新。对于有对应自动化测试脚本的测试用例,理想的状态是可以把自动化测试执行的结果自动同步到测试管理工具,自动更新测试用例的状态——是 Pass 还是 Fail。这可以通过测试管理工具和测试自动化工具的集成来实现,也可以通过测试管理工具和 CI 工具的集成来实现。
Jira + Zephyr 实现可追溯
Jira 是支持敏捷开发的、常用的项目管理工具,围绕着 Jira 又发展出一批测试用例管理工具。Jira 提供从 Epic 到用户故事的需求管理以及缺陷跟踪。测试用例管理工具和 Jira 的集成可以实现需求、测试用例与缺陷的映射关系。目前有一些测试用例工具以插件的形式和 Jira 进行集成,比如 Zephyr、Xray 等。
Zephyr 是主流的测试用例管理工具之一。Zephyr for Jira 以插件形式运行在 Jira 系统中,其利用了 Jira 的管理界面,可以在 Jira 里生成测试用例并直接关联到 Epic 和用户故事、缺陷。
Zephyr for Jira 可以和多种自动化测试工具集成,将自动化测试的结果自动同步到 Jira 中。可以集成的自动化测试工具包括 SoapUI Pro、Cucumber for Jira、Selenium、JUnit、TestNG 等。
另外,Jira、Zephyr for Jira 还可以和 CI 调度工具 Jenkins 集成,把在持续集成环境中自动运行的自动化测试的结果自动同步到 Jira 中,如图 3 所示。
图3 Jira 和 Jenkins 集成同步测试结果
另外,Zephyr 也提供了独立安装的 Standalone 版本,有单独的管理界面,在测试用例的计划、执行、报告方面的用户体验会更好一些。Zephyr Standalone 也可以通过配置和 Jira 集成,实现需求、测送用例、缺陷的映射关系。图 4 展示了需求和测试用例的双向追溯, 而图 5 则显示了如何在一个失败的测试用例中关联缺陷。
图4 需求和测试用例的双向追溯
图5 关联缺陷到失败的测试用例
测试与质量度量的可视化
测试结果与软件质量的度量结果以可视化的形式呈现出来非常有意义,一方面可以帮助研发团队及时掌握项目及研发进度,并发现项目的瓶颈及风险,理清关键路径,集中解决关键问题,保证项目得以顺利进行。另一方面,也提供给高层领导和其他团队了解目前软件质量状况的窗口。对当前状态有统一的认识,是进一步解决问题的关键。
如果要实现多项目、多团队、多数据源的测试数据的呈现,研发团队往往会考虑自己开发一个数据呈现平台,从测试管理系统、CI 系统中得到各种测试数据,通过界面呈现出来;也可以借助一些数据统计呈现工具打造综合的可视化面板。下面介绍三种常用工具。
基于 SonarQube
在第 18 讲介绍静态测试的时候讲过,SonarQube 可以作为代码质量(缺陷)数据呈现工具,其本身还是一个代码静态分析工具,另外还可以和多种代码静态分析工具集成获得更丰富的代码扫描规则。SonarQube 可以度量缺陷、安全性漏洞、代码坏味道和单元测试覆盖率,其 Quality Gate 界面如图 6 所示。如果达到质量要求,那么界面标题栏中会显示“Passed”(A 级);如果达不到,会按照 B 级、C 级、D 级、E 级列出各种质量问题的数量,并以不同颜色标记,其中 B 级对应的质量问题最轻,E 级对应的质量问题最严重。它还可以把代码规模、复杂度等度量集成到一起,通过一个页面统一呈现出来;还可以单击 Bugs、Coverage 等查看详细内容。
图6 SonarQube 工具中的 Quality Gate 界面图
基于 Grafana 和 InfluxDB
除了代码质量度量信息的呈现,研发团队还应考虑如何呈现其他测试结果,提供给团队内外成员全面了解当前软件质量的渠道,这些测试包括 BVT、性能测试、自动化回归测试等。第 18 讲还介绍了采用 Grafana 和 InfluxDB 结合可以按照时序呈现持续集成环境中的自动化测试结果,可以通过监控面板按照时间顺序呈现每次持续集成的测试结果,以及自动化回归测试结果。
例如,Grafana、InfluxDB 和 JMeter 集成可以呈现性能测试的实时统计数据:JMeter 添加 Backend Listener,用于在测试过程中实时发送统计指标数据给时序数据库 Influxdb,配置 Grafana 数据源连接到 Influxdb,就可以得到呈现实时测试数据的可视化看板。如图 7 所示,可以呈现包括累计请求数、累计失败的请求数、吞吐量、响应时间等。
图7 JMeter 性能测试实时统计数据的可视化
基于 Microsoft Power BI
Microsoft Power BI 是一款商业的数据可视化工具,通过和测试管理工具的集成,可以用来打造呈现测试结果、质量度量、缺陷报告等数据的综合性的可视化面板。如图 8 所示,在 Power BI 面板中呈现了 Jira 中的缺陷数据统计信息。
图8 Power BI 呈现 Jira 缺陷统计信息
质量雷达图
有的企业还会开发一个全局的雷达图来显示企业中不同级别团队的所有开发组的质量情况,然后通过大屏触摸显示器呈现。图 9 是一个具有 4 层组织架构企业的质量雷达图,四层的雷达图使得不同部门的管理层既能从中看到整体的技术债得分,也能看到个体的得分,还能看到个体占据整体的比重。
环形面积大小表示代码行数比例,面积越大,则代码行数占比越大;环形颜色表示技术债率等级。同时点击各个扇形可以下钻到各级部门和团队:
圆心(最内圈) 表示整个组织级的代码总行数及技术债率值;
第一层环表示一级团队各自的代码行数及技术债率值;
第二层环表示下一层开发部门各自的代码行数及技术债率值;
第三层环(最外层环) 表示各个项目组的代码行数及技术债率值。
图9 企业级的质量雷达
这一讲主要介绍了两个部分的内容:如何实现需求、测试用例、缺陷的可追溯,以及如何实现测试结果和软件质量度量的可视化。同时介绍了 3 种实现可视化的数据统计呈现工具:SonarQube 专注于代码质量的呈现,另外,还有开源的数据统计呈现工具 Grafana 和商业软件 Microsoft Power BI。
-– ### 精选评论
文章作者 anonymous
上次更新 2024-06-21