Apache Paimon走在正确的道路上|一些使用体验和未来判断

科技   2024-08-20 09:31   浙江  

Apache Paimon这个框架大家应该都不陌生了。

在实际工作中大家应该多多少少都用到,这个文章是一个简单的使用体会。不涉及湖框架的拉踩,我们的着眼点是解决实际问题

我来结合自身体会跟大家说说Paimon这个框架和对未来的一些判断。大家可以参考,错了也不要怪我误导你😄。

首先湖框架在发展之初解决的几个问题:Schema Evolution、流读流写、批读批写、ACID等几个通用的能力。

但是我们必须指出一点,这几个通用能力不是生产环境都需要的,我们拿Schema Evolution举例,在真正大型的、重要的生产环境其实是非常不推荐使用这种能力,不是因为它不够强大,而是因为他带来的风险和收益不成比例,没有一个开发愿意冒着背故障的风险去做这样的设计。

所以我们站在业务开发的角度去考虑问题,和站在平台开发角度考虑问题呈现了不同的诉求。

那么站在业务开发的角度也就是用户的角度,一些诉求如下:极简单的学习和理解成本、流批读写足够简单、主键/非主键场景支持丰富、最好能在领域内完成闭环支持,不要过度依赖外部组件(也就是不需要和其他组件打交道)。

所以你看对于「极简单的学习和理解成本」来说,目前Paimon的设计足够简单,概念虽然也很多,但是很容易理解,相比其他的湖框架学习成本够低,因为整个行业内大多数开发者没有极强的学习能力,甚至相当比例的人连基本的英文文档都看不懂,那么框架设计出来一定要足够简单易理解。

其次「主键/非主键场景支持丰富」并且不能出现明显的性能劣化,在Paimon这个框架里,它的设计对标了Hive、Kafka的概念,区分了Append Table、Append Queue、Table with PK等,只要你的基础够好,Hive、Kafka足够熟悉,可以轻松上手这些概念并在生产环境做出选型,这是其他湖框架做不到的。

另外一个很重要的「闭环思维」,大家试想一下,开发者在使用湖框架的时候他要解决什么样的问题,无非就是Source、Join、Lookup Join、其他算子、Sink。那么OK这些能力最好湖框架能自闭环搞定。所以基本的主键点查询能力、媲美Kafka一样的流读、媲美Spark一样的批读、无缝对接Flink Streaming、Flink Batch等,这些能力需要在一个框架内自闭环,最好不要和外部系统交互,目前Paimon做的非常好👍。

此外我们依次把常见的业务场景排列出来:流批一体、端到端精确一次、Join+Lookup关联、Partial Update、数据回溯订正等等,这些场景是我们在做开发的时候遇到的最多的场景,所以湖框架的着眼点应该是解决最常见的痛点问题

目前我只能说,Paimon社区是走在正确的道路上,未来看好。

300万字!全网最全大数据学习面试社区等你来!

如果这个文章对你有帮助,不要忘记 「在看」 「点赞」 「收藏」 三连啊喂!

全网首发|大数据专家级技能模型与学习指南(胜天半子篇)
互联网最坏的时代可能真的来了
我在B站读大学,大数据专业
我们在学习Flink的时候,到底在学习什么?
193篇文章暴揍Flink,这个合集你需要关注一下
Flink生产环境TOP难题与优化,阿里巴巴藏经阁YYDS
Flink CDC我吃定了耶稣也留不住他!| Flink CDC线上问题小盘点
我们在学习Spark的时候,到底在学习什么?
在所有Spark模块中,我愿称SparkSQL为最强!
硬刚Hive | 4万字基础调优面试小总结
数据治理方法论和实践小百科全书
标签体系下的用户画像建设小指南
4万字长文 | ClickHouse基础&实践&调优全视角解析
【面试&个人成长】社招和校招的经验之谈
大数据方向另一个十年开启 |《硬刚系列》第一版完结
我写过的关于成长/面试/职场进阶的文章
当我们在学习Hive的时候在学习什么?「硬刚Hive续集」

大数据技术与架构
王知无,大数据卷王,专注大数据技术分享。
 最新文章