[帮助文档] 如何配置Kafka输出组件用于向数据源写入数据

配置Kafka输出组件,可以将外部数据库中读取数据写入到Kafka,或从大数据平台对接的存储系统中将数据复制推送至Kafka,进行数据整合和再加工。本文为您介绍如何配置Kafka输出组件。

[帮助文档] 如何配置Kafka输入组件

配置Kafka输入组件后,可以将kafka数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置Kafka输入组件。

消息队列Kafka入门课程

4 课时 |
3098 人已学 |
免费

分布式消息系统 Kafka 快速入门

24 课时 |
640 人已学 |
免费
开发者课程背景图

Kafka Consumer java api 配置

Kafka Consumer java api 配置: group.id: 指定consumer所属的consumer group consumer.id: 如果不指定会自动生成 socket.timeout.ms: 网络请求的超时设定 socket.receive.buffer.bytes: So...

[帮助文档] 配置Kafka开启Ranger权限

本文介绍了Kafka如何开启Ranger权限控制,以及Ranger Kafka权限配置说明。

[帮助文档] 如何配置Kafka

本文介绍如何创建、查看、编辑、删除Kafka自定义连接器任务。

[帮助文档] 自定义连接器中Workers的概念及配置

本文介绍自定义连接器中Workers的概念及配置。

Flink-kafka-connector Consumer配置警告,为何会报如此警告呢?

flink1.12正常程序中,有如下告警: 19:38:37,557 WARN org.apache.kafka.clients.consumer.ConsumerConfig [] - The configuration 'flink.partition-discovery.interval-mi...

Flink-kafka-connector Consumer配置为什么会发出警告?

flink1.12正常程序中,有如下告警: 19:38:37,557 WARN org.apache.kafka.clients.consumer.ConsumerConfig [] - The configuration 'flink.partition-discovery.interval-mi...

Kafka消费者Consumer常用配置

bootstrap.servers:broker服务器集群列表,格式为 host1:port1, host2:port2 key.deserializer:定义序列化的接口 value.deserializer:实现序列化接口的类 group.id:消费者分组Id consumer.tim...

【Kafka】Consumer配置

从0.9.0.0开始,下面是消费者的配置。 名称 描述 类型 默认值 bootstrap.servers 消费者初始连接kafka集群时的地址列表。不管这边配置的什么地址,消费者会使用所有的kafka集群服务器。消费者会通过这些地址列表,找到所有的kafka集群机器。 list key.deseri...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

社区圈子

消息队列
消息队列
消息队列是构建分布式互联网应用的基础设施,通过消息队列实现的松耦合架构设计可以提高系统可用性以及可扩展性,是适用于现代应用的优秀设计方案。
20+人已加入
加入
相关电子书
更多
任庆盛|Flink CDC + Kafka 加速业务实时化
消息队列 Kafka 版差异化特性
2019大数据技术公开课第五季—kafka 数据如何同步到 MaxCompute
立即下载 立即下载 立即下载