Eolink Apikit 版本更新:「数据字典」功能上线、支持 MongoDB 数据库操作、金融行业私有化协议、GitLab 生成 API 文档...

本文主要是介绍Eolink Apikit 版本更新:「数据字典」功能上线、支持 MongoDB 数据库操作、金融行业私有化协议、GitLab 生成 API 文档...,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

🎉 新增

  1. 搭建自定义接口协议架构,支持快速适配金融行业各类型私有协议的导入、编辑和展示。

  2. 数据字典功能上线,支持以数据字典的形式管理参数枚举值;

  3. 数据库连接支持 MongoDB 数据库操作;

  4. 基于 Apikit 类型导入 API 数据支持增量更新。

🚀 优化

  1. 增强基于 Gitlab 仓库生成 API 文档能力,支持无注解生成;

  2. 自动化测试用例列表和项目列表优化,支持更多的排序和筛选体验,并本地缓存列表展示配置。

📑 修复

  1. 修复 Mock 设置的随机数开关影响 JS 脚本逻辑的问题;

  2. 测试用例模板相关的缺陷专项,解决大部分特殊场景使用问题。

功能亮点介绍:

对于金融行业而言,因其业务的特殊性,往往都会基于一些通用的开发框架进行升级改造,并形成一些行业内专用的接口协议文档。

为了满足金融行业对私有接口协议的文档管理和接口测试的需求,Apikit 平台近期进行了架构升级,通过协议 Schema 来统一管理不同协议的共性和差异,实现私有协议的功能开发,未来更能够支持用户自定义配置的方式快速生成自有协议。

近期 Apikit (私有部署)进行版本迭代,现已支持证券行业 FS 2.0 协议的 Json 格式接口文档的解析导入、支持 FS 2.0 、恒生与中焯协议的文档编辑能力;同时该三种私有协议支持自定义字段功能,实现 API 接口治理能力的全面提升。

对于开发者而言,数据字典应该都不陌生了。大多数的业务系统接口涉及的数据字典众多,部分数据字典更是多达几十个值。需要支持数据字典的批量导入、修改、版本管理等功能,并支持数据字典与入参、出参的关联,以及与 API 文档同时分享与导出。

接口参数的枚举类型可以,一般通过数据字典管理,用户可以查看每个参数对应的数据字典,了解传参的值范围。

提供系统级别的数据字典管理功能,可以在该管理功能中,对数据字典进行增删查改操作。在 API 文档中,提供数据字典和入参出参的关联,支持分享 API 文档时,可选择分享数据字典。

Apikit 新增支持“mongodb”和“mongoose”两种最主流的脚本驱动。用户可在不同的开发场景中选择最合适的数据库驱动类型,以获得更好的性能和适应性。

👉 配置操作指引:https://help.eolink.com/tutorial/Apikit/c-1263#tip8

本次更新对常用的 JAVA 语言代码的 Gitlab 仓库生成 API 文档能力进行了增强,支持一键无注解生成 API 文档,有效提升效率。

近期的重要更新就先介绍到这里!未来,我们会持续优化产品,带给大家更棒的 API 研发管理体验~

Eolink Apikit 官网 👉 https://www.eolink.com/apikit

这篇关于Eolink Apikit 版本更新:「数据字典」功能上线、支持 MongoDB 数据库操作、金融行业私有化协议、GitLab 生成 API 文档...的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/366095

相关文章

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

MySQL数据库宕机,启动不起来,教你一招搞定!

作者介绍:老苏,10余年DBA工作运维经验,擅长Oracle、MySQL、PG、Mongodb数据库运维(如安装迁移,性能优化、故障应急处理等)公众号:老苏畅谈运维欢迎关注本人公众号,更多精彩与您分享。 MySQL数据库宕机,数据页损坏问题,启动不起来,该如何排查和解决,本文将为你说明具体的排查过程。 查看MySQL error日志 查看 MySQL error日志,排查哪个表(表空间

poj3468(线段树成段更新模板题)

题意:包括两个操作:1、将[a.b]上的数字加上v;2、查询区间[a,b]上的和 下面的介绍是下解题思路: 首先介绍  lazy-tag思想:用一个变量记录每一个线段树节点的变化值,当这部分线段的一致性被破坏我们就将这个变化值传递给子区间,大大增加了线段树的效率。 比如现在需要对[a,b]区间值进行加c操作,那么就从根节点[1,n]开始调用update函数进行操作,如果刚好执行到一个子节点,