Skip to content

Latest commit

 

History

History
191 lines (145 loc) · 11.1 KB

README_CN.md

File metadata and controls

191 lines (145 loc) · 11.1 KB

Apache Linkis

Linkis 构建了一层计算中间件,方便上层应用与底层数据引擎之间的连接、治理和编排

https://linkis.apache.org/

EN docs 简体中文文档

github forks github stars github contributors



English | 中文

介绍

Linkis 在上层应用程序和底层引擎之间构建了一层计算中间件。通过使用 Linkis 提供的 REST/WebSocket/JDBC 等标准接口, 上层应用可以方便地连接访问 MySQL/Spark/Hive/Presto/Flink 等底层引擎,同时实现变量、脚本、函数和资源文件等用户资源的跨上层应用互通。
作为计算中间件,Linkis 提供了强大的连通、复用、编排、扩展和治理管控能力。通过计算中间件将应用层和引擎层解耦,简化了复杂的网络调用关系, 降低了整体复杂度,同时节约了整体开发和维护成本。
Linkis 自 2019 年开源发布以来,已累计积累了 700 多家试验企业和 1000+沙盒试验用户,涉及金融、电信、制造、互联网等多个行业。 许多公司已经将 Linkis 作为大数据平台底层计算存储引擎的统一入口,和计算请求/任务的治理管控利器。

没有 Linkis 之前

有了 Linkis 之后

核心特点

  • 丰富的底层计算存储引擎支持:Spark、Hive、Python、Shell、Flink、JDBC、Pipeline、Sqoop、OpenLooKeng、Presto、ElasticSearch、Trino、SeaTunnel 等;
  • 丰富的语言支持:SparkSQL、HiveSQL、Python、Shell、Pyspark、Scala、JSON 和 Java 等;
  • 强大的计算治理能力: 能够提供基于多级标签的任务路由、负载均衡、多租户、流量控制、资源控制等能力;
  • 全栈计算存储引擎架构支持: 能够接收、执行和管理针对各种计算存储引擎的任务和请求,包括离线批量任务、交互式查询任务、实时流式任务和数据湖任务;
  • 统一上下文服务:支持跨用户、系统、计算引擎去关联管理用户和系统的资源文件(JAR、ZIP、Properties 等),结果集、参数变量、函数、UDF等,一处设置,处处自动引用;
  • 统一物料: 提供了系统和用户级物料管理,可分享和流转,跨用户、跨系统共享物料;
  • 统一数据源管理: 提供了Hive、ElasticSearch、Mysql、Kafka、MongoDB 等类型数据源信息的增删查改、版本控制、连接测试和对应数据源的元数据信息查询能力;
  • 错误码能力:提供了任务常见错误的错误码和解决方案,方便用户自助定位问题;

引擎类型

引擎名 支持底层组件版本
(默认依赖版本)
Linkis 1.X 版本要求 是否默认包含在发布包中 说明
Spark Apache >= 2.0.0,
CDH >= 5.4.0,
(默认 Apache Spark 3.2.1)
>=1.0.3 Spark EngineConn, 支持 SQL, Scala, Pyspark 和 R 代码
Hive Apache >= 1.0.0,
CDH >= 5.4.0,
(默认 Apache Hive 3.1.3)
>=1.0.3 Hive EngineConn, 支持 HiveQL 代码
Python Python >= 2.6,
(默认 Python2*)
>=1.0.3 Python EngineConn, 支持 python 代码
Shell Bash >= 2.0 >=1.0.3 Shell EngineConn, 支持 Bash shell 代码
JDBC MySQL >= 5.0, Hive >=1.2.1,
(默认 Hive-jdbc 2.3.4)
>=1.0.3 JDBC EngineConn, 已支持ClickHouse, DB2, DM, Greenplum, kingbase, MySQL, Oracle, PostgreSQL 和 SQLServer,可快速扩展支持其他数据库组件, 如SQLite
Flink Flink >= 1.12.2,
(默认 Apache Flink 1.12.2)
>=1.0.3 Flink EngineConn, 支持 FlinkSQL 代码,也支持以 Flink Jar 形式启动一个新的 Yarn 应用程序
Pipeline - >=1.0.3 Pipeline EngineConn, 支持文件的导入和导出
openLooKeng openLooKeng >= 1.5.0,
(默认 openLookEng 1.5.0)
>=1.1.1 openLooKeng EngineConn, 支持用 Sql 查询数据虚拟化引擎 openLooKeng
Sqoop Sqoop >= 1.4.6,
(默认 Apache Sqoop 1.4.6)
>=1.1.2 Sqoop EngineConn, 支持 数据迁移工具 Sqoop 引擎
Presto Presto >= 0.180,
(默认 Presto 0.234)
>=1.2.0 Presto EngineConn, 支持 Presto SQL 代码
ElasticSearch ElasticSearch >=6.0,
((默认 ElasticSearch 7.6.2)
>=1.2.0 ElasticSearch EngineConn, 支持 SQL 和 DSL 代码
Trino Trino >=371 >=1.3.1 Trino EngineConn, 支持Trino SQL 代码
Seatunnel Seatunnel >=2.1.2 >=1.3.1 Seatunnel EngineConn, 支持Seatunnel SQL 代码

下载

请前往Linkis Releases 页面 下载 Linkis 的已编译版本或源码包。

编译和安装部署

更详细的步骤参见:

## 后端编译
注意:如果使用 -Dlinkis.build.web=true 来构建web镜像,需要首先执行 管理台 linkis-web 的编译

### Mac OS/Linux 系统
# 1. 首次编译,请执行如下命令
./mvnw -N install
# 2. 构建 Linkis 部署包
# - 选项 1: 仅构建 Linkis 服务部署包
./mvnw clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
# - 选项 2: 构建 Linkis 服务部署包和 Docker 镜像
#   - 选项 2.1: 构建的镜像中不包含 mysql jdbc 包
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
#   - 选项 2.2: 构建的镜像中包含 mysql jdbc 包
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.with.jdbc=true
# - 选项 3: 构建 Linkis 服务部署包和 Docker 镜像(包括 Web 控制台)
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true
# - 选项 4: 仅构建 Linkis 服务部署包和 Docker 镜像(包括 Web 控制台和 LDH 镜像,LDH 镜像包换了多个预先配置和部署好的 Hadoop 组件,主要面向测试用途)
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true -Dlinkis.build.ldh=true -Dlinkis.build.with.jdbc=true

### Windows 系统
mvnw.cmd -N install
mvnw.cmd clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true


## 管理台编译
cd linkis/linkis-web
npm install
npm run build

集成 MySQL JDBC 驱动

由于MySQL的许可协议限制,官方发布的 Linkis 镜像没有集成 MySQL JDBC 驱动。 然而,在现阶段,Linkis 仍然依赖这个库才能正常运行。 为了解决这个问题, 我们提供了一个脚本,它可以帮助你快速的基于官方的 Linkis 镜像创建一个集成了MySQL JDBC 的自定义镜像。 这个工具创建的镜像默认的名称是 linkis:with-jdbc

$> LINKIS_IMAGE=linkis:1.3.1 
$> ./linkis-dist/docker/scripts/make-linkis-image-with-mysql-jdbc.sh

请参考快速安装部署 来部署 Linkis

示例和使用指引

文档&视频

架构概要

Linkis 基于微服务架构开发,其服务可以分为 3 类:计算治理服务、公共增强服务和微服务治理服务。

  • 计算治理服务,支持计算任务/请求处理流程的 3 个主要阶段:提交-> 准备-> 执行
  • 公共增强服务,包括上下文服务、物料管理服务及数据源服务等
  • 微服务治理服务,包括定制化的 Spring Cloud Gateway、Eureka、Open Feign

下面是 Linkis 的架构概要图. 更多详细架构文档请见 Linkis-Doc/Architecture. architecture

贡献

我们非常欢迎和期待更多的贡献者参与共建 Linkis, 不论是代码、文档,或是其他能够帮助到社区的贡献形式。
代码和文档相关的贡献请参照贡献指引.

联系我们

  • 对 Linkis 的任何问题和建议,可以提交 issue,以便跟踪处理和经验沉淀共享
  • 通过邮件方式 dev@linkis.apache.org
  • 可以扫描下面的二维码,加入我们的微信群,以获得更快速的响应

谁在使用 Linkis

我们创建了一个 issue [Who is Using Linkis] 以便用户反馈和记录谁在使用 Linkis.
Linkis 自 2019 年开源发布以来,累计已有 700 多家试验企业和 1000+沙盒试验用户,涉及金融、电信、制造、互联网等多个行业。