Jark Wu
Jark Wu
TODO
>请自行在下面填写认领翻译,并填上认领的日期。 认领过的,如果觉得他太慢了,可以再次认领,加速翻译,知道大家都是牺牲业余时间来贡献,所以慢也是可以理解的,慢就需要大家一起帮帮忙了!谢谢。 **提示**:如何找到对应的翻译文件,方法:在 https://ci.apache.org/projects/flink/flink-docs-release-1.2/ 找到对应要翻译的章节,点击章节查看URL地址,都有缩写地址,然后在 docs 找到对应目录、对应文件。 ### 认领说明 #### 认领格式 - 未完成: - [ ] 我校对 + `` markdown语法 - 示例 ```markdown - [ ] 我翻译 `Batch (DataSet API)——Local...
>请自行在下面填写认领翻译,并填上认领的日期。 认领过的,如果觉得他太慢了,可以再次认领,加速翻译,知道大家都是牺牲业余时间来贡献,所以慢也是可以理解的,慢就需要大家一起帮帮忙了!谢谢。 **提示**:如何找到对应的翻译文件,方法:在 https://ci.apache.org/projects/flink/flink-docs-release-1.2/ 找到对应要翻译的章节,点击章节查看URL地址,都有缩写地址,然后在 docs 找到对应目录、对应文件。 ### 认领说明 #### 认领格式 - 未完成: - [ ] 我校对 + `` markdown语法 - 示例 ```markdown - [ ] 我翻译 `Batch (DataSet API)——Local...
>请自行在下面填写认领翻译,并填上认领的日期。 认领过的,如果觉得他太慢了,可以再次认领,加速翻译,知道大家都是牺牲业余时间来贡献,所以慢也是可以理解的,慢就需要大家一起帮帮忙了!谢谢。 **提示**:如何找到对应的翻译文件,方法:在 https://ci.apache.org/projects/flink/flink-docs-release-1.2/ 找到对应要翻译的章节,点击章节查看URL地址,都有缩写地址,然后在 docs 找到对应目录、对应文件。 ### 认领说明 #### 认领格式 - 未完成: - [ ] 我校对 + `` markdown语法 - 示例 ```markdown - [ ] 我翻译 `Batch (DataSet API)——Local...
>请自行在下面填写认领翻译,并填上认领的日期。 认领过的,如果觉得他太慢了,可以再次认领,加速翻译,知道大家都是牺牲业余时间来贡献,所以慢也是可以理解的,慢就需要大家一起帮帮忙了!谢谢。 **提示**:如何找到对应的翻译文件,方法:在 https://ci.apache.org/projects/flink/flink-docs-release-1.2/ 找到对应要翻译的章节,点击章节查看URL地址,都有缩写地址,然后在 docs 找到对应目录、对应文件。 ### 认领说明 #### 认领格式 - 未完成: - [ ] 我校对 + `` markdown语法 - 示例 ```markdown - [ ] 我翻译 `Batch (DataSet API)——Local...
>请自行在下面填写认领翻译,并填上认领的日期。 认领过的,如果觉得他太慢了,可以再次认领,加速翻译,知道大家都是牺牲业余时间来贡献,所以慢也是可以理解的,慢就需要大家一起帮帮忙了!谢谢。 **提示**:如何找到对应的翻译文件,方法:在 https://ci.apache.org/projects/flink/flink-docs-release-1.2/ 找到对应要翻译的章节,点击章节查看URL地址,都有缩写地址,然后在 docs 找到对应目录、对应文件。 ### 认领说明 #### 认领格式 - 未完成: - [ ] 我校对 + `` markdown语法 - 示例 ```markdown - [ ] 我翻译 `Batch (DataSet API)——Local...
>请自行在下面填写认领翻译,并填上认领的日期。 认领过的,如果觉得他太慢了,可以再次认领,加速翻译,知道大家都是牺牲业余时间来贡献,所以慢也是可以理解的,慢就需要大家一起帮帮忙了!谢谢。 **提示**:如何找到对应的翻译文件,方法:在 https://ci.apache.org/projects/flink/flink-docs-release-1.2/ 找到对应要翻译的章节,点击章节查看URL地址,都有缩写地址,然后在 docs 找到对应目录、对应文件。 ### 认领说明 #### 认领格式 - 未完成: - [ ] 我校对 + `` markdown语法 - 示例 ```markdown - [ ] 我翻译 `Batch (DataSet API)——Local...
This is a cherry-pick backport to release-1.16.
## 项目简述 基于 Apache Flink 实现 Kafka + Iceberg 的流批一体混合存储。通过结合消息队列和数据湖的优点,为用户提供逻辑层统一的表视图,可使用 Flink SQL 直接查询和写入,并同时具备毫秒级流式写入和读取、归档数据高效查询分析、存储成本廉价高效、支持row-level更新删除、全增量一体化读取等优点和特性。 ## 背景 目前用户在使用 Kafka 等消息队列构建实时数仓时,遇到了非常多的痛点,包括 1. Kafka 的存储成本昂贵,无法存储所有历史消息,通常只能存储最近几天的数据。无法满足长周期作业的需求,如机器学习、数据库CDC。 2. Kafka 的存储格式并不是面向分析设计的,查询效率低下,不满足离线分析、ad-hoc 需求。 3. 为了满足上面的需求,经常需要将 kafka 数据导出到离线数仓(hive, etc..)中,但这也导致了流批链路的割裂...