【Apache 强大连接存储引擎】Linkis 有助于轻松连接各种后端计算/存储引擎(Spark、Python、TiDB...)

本文主要是介绍【Apache 强大连接存储引擎】Linkis 有助于轻松连接各种后端计算/存储引擎(Spark、Python、TiDB...),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

项目介绍

Linkis 有助于轻松连接各种后端计算/存储引擎(Spark、Python、TiDB...),公开各种接口(REST、JDBC、Java...),具有多租户、高性能和资源控制。

linkis.apache.org/

介绍

Linkis 在上层应用和底层引擎之间构建了一层计算中间件。通过使用Linkis提供的REST/WS/JDBC等标准接口,上层应用可以方便的接入MySQL/Spark/Hive/Presto/Flink等底层引擎,实现统一变量等用户资源的互通,脚本、UDF、函数和资源文件。

作为计算中间件,Linkis 提供了强大的连接、复用、编排、扩展和治理能力。通过解耦应用层和引擎层,简化了复杂的网络调用关系,从而降低了整体的复杂度,也节省了开发和维护成本。

Linkis自2019年首次发布以来,已经积累了700多家试用公司和1000+沙盒试用用户,涉及金融、银行、电信、制造业、互联网公司等多个行业。很多公司已经将Linkis作为大数据平台底层计算和存储引擎的统一入口。

linkis-intro-01

linkis-intro-03

特征

  • 支持多种底层计算存储引擎
    • 目前支持的计算/存储引擎:Spark、Hive、Flink、Python、Pipeline、Sqoop、openLooKeng、Presto、ElasticSearch、JDBC、Shell等
    • 支持的计算/存储引擎:Trino(计划 1.3.1)、SeaTunnel(计划 1.3.1)等
    • 支持的脚本语言:SparkSQL、HiveQL、Python、Shell、Pyspark、R、Scala和JDBC等
  • 强大的任务/请求治理能力通过Orchestrator、Label Manager和定制的Spring Cloud Gateway等服务,Linkis能够提供基于多级标签、跨集群/跨IDC的细粒度路由、负载均衡、多租户、流量控制、资源控制、双活、主备等编排策略
  • 支持全栈计算/存储引擎作为计算中间件,它将接收、执行和管理各种计算存储引擎的任务和请求,包括批处理任务、交互式查询任务、实时流式任务和存储任务
  • 资源管理能力 ResourceManager 不仅可以对 Yarn 和 Linkis EngineManger 进行资源管理,还可以提供基于标签的多级资源分配和回收,使其拥有强大的跨 Yarn 集群和多种计算资源类型的资源管理能力
  • 统一上下文服务为每个任务/请求生成上下文 ID,关联和管理用户和系统资源文件(JAR、ZIP、属性等)、结果集、参数变量、函数等,跨用户、系统和计算引擎. 一处设置,处处自动引用
  • 统一素材系统和用户级统一素材管理,可跨用户、跨系统共享和传输

支持的引擎类型

引擎名称支持组件版本 (默认依赖版本)Linkis 版本要求** 默认包含在发布包中**描述
火花Apache 2.0.0~2.4.7, CDH >= 5.4.0, (默认 Apache Spark 2.4.3)>=1.0.3是的Spark EngineConn,支持 SQL、Scala、Pyspark 和 R 代码
蜂巢Apache >= 1.0.0, CDH >= 5.4.0, (默认 Apache Hive 2.3.3)>=1.0.3是的Hive EngineConn,支持 HiveQL 代码
PythonPython >= 2.6, (默认 Python2*)>=1.0.3是的Python EngineConn,支持python代码
重击 >= 2.0>=1.0.3是的Shell EngineConn,支持 Bash shell 代码
JDBCMySQL >= 5.0,Hive >=1.2.1, (默认 Hive-jdbc 2.3.4)>=1.0.3JDBC EngineConn,已经支持 MySQL 和 HiveQL,可以快速扩展支持其他带有 JDBC Driver 包的引擎,例如 Oracle
弗林克Flink >= 1.12.2, (默认 Apache Flink 1.12.2)>=1.0.3Flink EngineConn,支持FlinkSQL代码,也支持以Flink Jar Application的形式启动一个新的Yarn
管道->=1.0.3Pipeline EngineConn,支持文件导入导出
开路坑openLooKeng >= 1.5.0, (默认 openLookEng 1.5.0)>=1.1.1openLooKeng EngineConn,支持用Sql查询数据虚拟化引擎 openLooKeng
SqoopSqoop >= 1.4.6, (默认 Apache Sqoop 1.4.6)>=1.1.2Sqoop EngineConn,支持数据迁移工具Sqoop engine
急速Presto >= 0.180, (默认 Presto 0.234)>=1.2.0-Presto EngineConn,支持 Presto SQL 代码
弹性搜索ElasticSearch >=6.0, (默认 ElasticSearch 7.6.2)>=1.2.0-ElasticSearch EngineConn,支持 SQL 和 DSL 代码
黑斑羚黑斑羚 >= 3.2.0,CDH >=6.3.0进行中-Impala EngineConn,支持 Impala SQL 代码
MLSQLMLSQL >=1.1.0进行中-MLSQL EngineConn,支持 MLSQL 代码。
Hadoop阿帕奇 >=2.6.0, CDH >=5.4.0进行中-Hadoop EngineConn,支持 Hadoop MR/YARN 应用
TiSpark1.1进行中-TiSpark EngineConn,支持使用 SparkSQL 查询 TiDB

下载

请到Linkis 发布页面下载 Linkis 的编译发行版或源代码包。

编译和部署

有关更详细的指导,请参阅:

  • [后端编译]
  • [管理控制台构建]
Note: If you want use `-Dlinkis.build.web=true` to build  linkis-web image, you need to compile linkis-web first.## compile backend
### Mac OS/Linux# 1. When compiling for the first time, execute the following command first
./mvnw -N install# 2. make the linkis distribution package
# - Option 1: make the linkis distribution package only
./mvnw clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true# - Option 2: make the linkis distribution package and docker image
#   - Option 2.1: image without mysql jdbc jars
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
#   - Option 2.2: image with mysql jdbc jars
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.with.jdbc=true# - Option 3: linkis distribution package and docker image (included web)
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true# - Option 4: linkis distribution package and docker image (included web and ldh (hadoop all in one for test))
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true -Dlinkis.build.ldh=true -Dlinkis.build.with.jdbc=true### Windows
mvnw.cmd -N install
mvnw.cmd clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true## compile web
cd incubator-linkis/linkis-web
npm install
npm run build

与 MySQL JDBC 驱动程序捆绑在一起

由于 MySQL 的许可限制,官方发布的 linkis 镜像默认不捆绑 MySQL Java 数据库连接 (JDBC) 驱动程序。但是,在现阶段,linkis 仍然依赖这个库才能正常工作。为了解决这个问题,我们提供了一个脚本,可以帮助你自己从官方的linkis镜像中用mysql jdbc创建一个自定义镜像,这个工具创建的镜像将被linkis:with-jdbc默认标记为。

$> LINKIS_IMAGE=linkis:1.3.1 
$> ./linkis-dist/docker/scripts/make-linikis-image-with-mysql-jdbc.sh

请参考快速部署进行部署。

示例和指导

  • 用户手册
  • 引擎使用文件
  • API 文档

文档和视频

  • Linkis 的文档在Linkis-Website Git Repository
  • Bilibili上的聚会视频

建筑学

Linkis 服务可以分为三类:计算治理服务、公共增强服务和微服务治理服务

  • 计算治理服务,支持处理任务/请求的 3 个主要阶段:提交 -> 准备 -> 执行
  • 公共增强服务,包括素材库服务、上下文服务、数据源服务
  • 微服务治理服务,包括 Spring Cloud Gateway、Eureka 和 Open Feign

下面是Linkis架构图。您可以在Linkis-Doc/Architecture中找到更详细的架构文档。 建筑学

项目地址:

Github: https://github.com/apache/incubator-linkis

这篇关于【Apache 强大连接存储引擎】Linkis 有助于轻松连接各种后端计算/存储引擎(Spark、Python、TiDB...)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/246426

相关文章

利用Python快速搭建Markdown笔记发布系统

《利用Python快速搭建Markdown笔记发布系统》这篇文章主要为大家详细介绍了使用Python生态的成熟工具,在30分钟内搭建一个支持Markdown渲染、分类标签、全文搜索的私有化知识发布系统... 目录引言:为什么要自建知识博客一、技术选型:极简主义开发栈二、系统架构设计三、核心代码实现(分步解析

基于Python实现高效PPT转图片工具

《基于Python实现高效PPT转图片工具》在日常工作中,PPT是我们常用的演示工具,但有时候我们需要将PPT的内容提取为图片格式以便于展示或保存,所以本文将用Python实现PPT转PNG工具,希望... 目录1. 概述2. 功能使用2.1 安装依赖2.2 使用步骤2.3 代码实现2.4 GUI界面3.效

Python获取C++中返回的char*字段的两种思路

《Python获取C++中返回的char*字段的两种思路》有时候需要获取C++函数中返回来的不定长的char*字符串,本文小编为大家找到了两种解决问题的思路,感兴趣的小伙伴可以跟随小编一起学习一下... 有时候需要获取C++函数中返回来的不定长的char*字符串,目前我找到两种解决问题的思路,具体实现如下:

python连接本地SQL server详细图文教程

《python连接本地SQLserver详细图文教程》在数据分析领域,经常需要从数据库中获取数据进行分析和处理,下面:本文主要介绍python连接本地SQLserver的相关资料,文中通过代码... 目录一.设置本地账号1.新建用户2.开启双重验证3,开启TCP/IP本地服务二js.python连接实例1.

基于Python和MoviePy实现照片管理和视频合成工具

《基于Python和MoviePy实现照片管理和视频合成工具》在这篇博客中,我们将详细剖析一个基于Python的图形界面应用程序,该程序使用wxPython构建用户界面,并结合MoviePy、Pill... 目录引言项目概述代码结构分析1. 导入和依赖2. 主类:PhotoManager初始化方法:__in

Python从零打造高安全密码管理器

《Python从零打造高安全密码管理器》在数字化时代,每人平均需要管理近百个账号密码,本文将带大家深入剖析一个基于Python的高安全性密码管理器实现方案,感兴趣的小伙伴可以参考一下... 目录一、前言:为什么我们需要专属密码管理器二、系统架构设计2.1 安全加密体系2.2 密码强度策略三、核心功能实现详解

Python Faker库基本用法详解

《PythonFaker库基本用法详解》Faker是一个非常强大的库,适用于生成各种类型的伪随机数据,可以帮助开发者在测试、数据生成、或其他需要随机数据的场景中提高效率,本文给大家介绍PythonF... 目录安装基本用法主要功能示例代码语言和地区生成多条假数据自定义字段小结Faker 是一个 python

Python实现AVIF图片与其他图片格式间的批量转换

《Python实现AVIF图片与其他图片格式间的批量转换》这篇文章主要为大家详细介绍了如何使用Pillow库实现AVIF与其他格式的相互转换,即将AVIF转换为常见的格式,比如JPG或PNG,需要的小... 目录环境配置1.将单个 AVIF 图片转换为 JPG 和 PNG2.批量转换目录下所有 AVIF 图

Python通过模块化开发优化代码的技巧分享

《Python通过模块化开发优化代码的技巧分享》模块化开发就是把代码拆成一个个“零件”,该封装封装,该拆分拆分,下面小编就来和大家简单聊聊python如何用模块化开发进行代码优化吧... 目录什么是模块化开发如何拆分代码改进版:拆分成模块让模块更强大:使用 __init__.py你一定会遇到的问题模www.

详解如何通过Python批量转换图片为PDF

《详解如何通过Python批量转换图片为PDF》:本文主要介绍如何基于Python+Tkinter开发的图片批量转PDF工具,可以支持批量添加图片,拖拽等操作,感兴趣的小伙伴可以参考一下... 目录1. 概述2. 功能亮点2.1 主要功能2.2 界面设计3. 使用指南3.1 运行环境3.2 使用步骤4. 核