使用Apache+Spark时如何处理数据库的背压?

本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。https://developer.aliyun.com/article/706511 点击链接欢迎加入感兴趣的技术领域群。

使用Apache Spark时如何处理数据库的背压?

我们使用Apache Spark每2个小时执行一次ETL。有时,Spark在执行读/写操作时会对数据库施加很大压力。对于Spark Streaming,我可以backpressure在kafka上看到配置。有没有办法在批处理中处理这个问题?

Apache RocketMQ:如何从互联网时代演进到云

1 课时 |
154 人已学 |
免费

Apache Flink 入门到实战 - Flink开源社区出品

16 课时 |
1392 人已学 |
免费

Apache Flink 入门

9 课时 |
4826 人已学 |
免费
开发者课程背景图

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

社区圈子

Apache Spark 中国技术社区
Apache Spark 中国技术社区
阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!
4459+人已加入
加入
相关电子书
更多
Apache Spark: Cloud and On-Prem
Hybrid Cloud and Apache Spark
\"基于 Apache* Spark* 的大规模 分布式机器学习实践\"
立即下载 立即下载 立即下载
相关镜像