数据拆解入库(暂时未拆解)---H5精准测试服务端接口及数据库表设计

本文主要是介绍数据拆解入库(暂时未拆解)---H5精准测试服务端接口及数据库表设计,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

详细表设计:

range_coverage_js      与   range_coverage_js_file  是一对多的关系

range_coverage_js_file    与  range_coverage_js_statement  、range_coverage_js_fn、range_coverage_js_branch   一对多的关系

range_coverage_js_branch   与  range_coverage_js_branch_detail  是一对多的关系

 

 

 

range_coverage_js

主表(存储被测应用实时上报的原始数据)

 

CREATE TABLE `totoro_range`.`range_coverage_js` (

`id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT '主键ID',

`app_name` VARCHAR(45) NULL  COMMENT'被测应用名',

`commit_id` VARCHAR(45) NULL  COMMENT'当前被测版本的commitId',

`branch` VARCHAR(45) NULL  COMMENT'分支号',

`spring_id` VARCHAR(45) NULL  COMMENT'(迭代)任务id',

`coverage_json_ceph_key` LONGTEXT NULL  COMMENT'上传的覆盖率数据存储的key',

`update_time` DATETIME NULL  COMMENT'更新时间',

`is_deleted` tinyint(1) NOT NULL  COMMENT'0' COMMENT '是否删除'

PRIMARY KEY (`id`));

 

 

前端读取文件:

range_coverage_js_file  

(每个主表合并后的数据拆分解析后的存储文件表)

 

use totoro_range;

CREATE TABLE `totoro_range`.`range_coverage_js_file` (

`id` INT NOT NULL AUTO_INCREMENT,

`app_name` VARCHAR(45) NULL  COMMENT'被测应用名',

`commit_id` VARCHAR(45) NULL  COMMENT'当前被测版本的commitId',

`branch` VARCHAR(45) NULL  COMMENT'分支号',

`spring_id` VARCHAR(45) NULL  COMMENT'(迭代)任务id',

`path` VARCHAR(45) NULL  COMMENT'覆盖率数据中path字段(路径+文件名)',

 `range_file_id`  INT NULL  COMMENT'diff文件id',

`update_time` DATETIME NULL  COMMENT'更新时间',

`is_deleted` tinyint(1) NOT NULL  COMMENT'0' COMMENT '是否删除',

`merge_coverage_Json` longtext COMMENT '单个文件marge后的覆盖率文件',

PRIMARY KEY (`id`))

COMMENT = '文件覆盖率数据';

有range_file_id  但是没有path 对应其它文件就是没有覆盖率

 

CREATE TABLE `totoro_range`.`range_coverage_js_statement`  (

  `id` INT NOT NULL AUTO_INCREMENT,

  `file_id` INT NULL  COMMENT'对应js_file的表的文件id',

  `statement_index` VARCHAR(45) NULL  COMMENT'语句索引编号',   

  `start_line` INT NULL  COMMENT'语句开始行',

  `start_column` INT NULL  COMMENT'语句开始列',

  `end_line` INT NULL  COMMENT'语句结束行',

  `end_column` INT NULL  COMMENT'语句结束列',

  `coverage_times` INT NULL  COMMENT'覆盖次数',

 `update_time` DATETIME NULL  COMMENT'更新时间',

 `is_deleted` tinyint(1) NOT NULL DEFAULT '0' COMMENT '是否删除',

  PRIMARY KEY (`id`))

COMMENT = '语句覆盖率数据';

 

 

use totoro_range;

CREATE TABLE `totoro_range`.`range_coverage_js_fn` (

  `id` INT NOT NULL AUTO_INCREMENT,

  `file_id` INT NULL  COMMENT'对应js_file的表的文件id',

  `fn_index` VARCHAR(45) NULL  COMMENT'方法索引编号',

  `fn_name` VARCHAR(45) NULL  COMMENT'方法名字',

  `fn_decl_start_line` INT NULL  COMMENT'方法申明开始行',

  `fn_decl_start_column` INT NULL  COMMENT'方法申明开始列',

  `fn_decl_end_line` INT NULL  COMMENT'方法申明结束行',

  `fn_decl_end_column` INT NULL  COMMENT'方法声明结束列',

  `fn_start_line` INT NULL  COMMENT'方法开始行',

  `fn_start_column` INT NULL  COMMENT'方法开始列',

  `fn_end_line` INT NULL  COMMENT'方法结束行',

  `fn_end_column` INT NULL  COMMENT'方法结束列',

  `coverage_times` INT NULL  COMMENT'覆盖次数',

  `fn_line` INT NULL  COMMENT'方法所在行',

`update_time` DATETIME NULL  COMMENT'更新时间',

`is_deleted` tinyint(1) NOT NULL DEFAULT '0' COMMENT '是否删除',

  PRIMARY KEY (`id`))

COMMENT = '方法覆盖率数据';

 

 

CREATE TABLE `totoro_range`.`range_coverage_js_branch` (

  `id` INT NOT NULL AUTO_INCREMENT,

  `file_id` INT NULL  COMMENT'对应js_file的表的文件id',

  `branch_index` VARCHAR(45) NULL  COMMENT'分支索引编号',

  `branch_start_line` INT NULL  COMMENT'分支开始行',

  `branch_start_column` INT NULL  COMMENT'分支开列行',

  `branch_end_line` INT NULL  COMMENT'分支结束行',

  `branch_end_column` INT NULL  COMMENT'分支结束行',

  `type` VARCHAR(45) NULL  COMMENT'分支类型',

  `branch_lie` INT NULL  COMMENT'分支所在行',

`update_time` DATETIME NULL  COMMENT'更新时间',

  `is_deleted` tinyint(1) NOT NULL DEFAULT '0' COMMENT '是否删除',

  PRIMARY KEY (`id`))

COMMENT = '分支覆盖率数据';

 

 

CREATE TABLE `totoro_range`.`range_coverage_js_branch_locations` (

  `id` INT NOT NULL AUTO_INCREMENT,

  `branch_id` INT NULL  COMMENT'对应js_branch分支id',

  `sub_branch_location_index` INT NULL  COMMENT'子分支坐标索引编号',

  `sub_branch_start_line` INT NULL  COMMENT'子分支开始行',

  `sub_branch_start_column` INT NULL  COMMENT'子分支开始列',

  `sub_branch_end_line` INT NULL  COMMENT'子分支结束行',

  `sub_branch_end_column` INT NULL  COMMENT'子分支结束列',

  `coverage_times` INT NULL  COMMENT'子分支覆盖次数',

  `update_time` DATETIME NULL  COMMENT'更新时间',

 `is_deleted` tinyint(1) NOT NULL DEFAULT '0' COMMENT '是否删除',

  PRIMARY KEY (`id`))

COMMENT = '子分支覆盖数据';

 

查询某个js文件行覆盖率语句:

select * from  range_coverage_js_statement   where    file_id   =(select id  from   range_coverage_js_file where  app_name =' '  and commit_id = ' ' )

方法覆盖率 :

 select * from   range_coverage_js_fn where    file_id   =(select id  from range_coverage_js_file where  app_name =' '  and commit_id = ' ' )

分支覆盖率:

select * from  range_coverage_js_branch_locations where  branch_id = (  select id  from   range_coverage_js_branch   where    file_id   =(select id  from range_coverage_js_file where  app_name =' '  and commit_id = ' ' )  )

这篇关于数据拆解入库(暂时未拆解)---H5精准测试服务端接口及数据库表设计的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1042084

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

Linux下MySQL数据库定时备份脚本与Crontab配置教学

《Linux下MySQL数据库定时备份脚本与Crontab配置教学》在生产环境中,数据库是核心资产之一,定期备份数据库可以有效防止意外数据丢失,本文将分享一份MySQL定时备份脚本,并讲解如何通过cr... 目录备份脚本详解脚本功能说明授权与可执行权限使用 Crontab 定时执行编辑 Crontab添加定

SpringBoot实现不同接口指定上传文件大小的具体步骤

《SpringBoot实现不同接口指定上传文件大小的具体步骤》:本文主要介绍在SpringBoot中通过自定义注解、AOP拦截和配置文件实现不同接口上传文件大小限制的方法,强调需设置全局阈值远大于... 目录一  springboot实现不同接口指定文件大小1.1 思路说明1.2 工程启动说明二 具体实施2

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

如何通过try-catch判断数据库唯一键字段是否重复

《如何通过try-catch判断数据库唯一键字段是否重复》在MyBatis+MySQL中,通过try-catch捕获唯一约束异常可避免重复数据查询,优点是减少数据库交互、提升并发安全,缺点是异常处理开... 目录1、原理2、怎么理解“异常走的是数据库错误路径,开销比普通逻辑分支稍高”?1. 普通逻辑分支 v

GSON框架下将百度天气JSON数据转JavaBean

《GSON框架下将百度天气JSON数据转JavaBean》这篇文章主要为大家详细介绍了如何在GSON框架下实现将百度天气JSON数据转JavaBean,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言一、百度天气jsON1、请求参数2、返回参数3、属性映射二、GSON属性映射实战1、类对象映

Python与MySQL实现数据库实时同步的详细步骤

《Python与MySQL实现数据库实时同步的详细步骤》在日常开发中,数据同步是一项常见的需求,本篇文章将使用Python和MySQL来实现数据库实时同步,我们将围绕数据变更捕获、数据处理和数据写入这... 目录前言摘要概述:数据同步方案1. 基本思路2. mysql Binlog 简介实现步骤与代码示例1

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则