创建Tablestore Sink Connector

本文介绍如何创建使用Tablestore Sink Connector,您可通过Tablestore Sink Connector将数据从 云消息队列 Kafka 实例的数据源Topic导出至Tablestore的表中。前提条件 创建资源及授权策略,请参见 创建前提。创建Connector时生成的函数...

是否支持延迟消息

和开源Apache Kafka一样,云消息队列 Kafka 同样不支持延迟消息。

上迁移Topic

本文介绍如何使用 云消息队列 Kafka 提供的迁移工具将某个 云消息队列 Kafka 实例的Topic迁移到另一个 云消息队列 Kafka 实例。前提条件 您已完成以下操作:下载JDK 8 下载迁移工具kafka-migration-assessment.jar 购买并部署 ...

无法ping通云消息队列 Kafka 的接入点

问题描述 无法ping通云消息队列 Kafka 的接入点。本地客户端无法telnet Kafka或提示连接超时(Connection timed out)。问题原因 为了保证安全,云消息队列 Kafka 集群默认禁ping。连接VPC接入点时,客户端与Kafka不在同一VPC下。解决...

是否支持Compact的日志清理策略?

开源版本为2.2.0或以上的 云消息队列 Kafka 实例支持Compact的日志清理策略。开源版本为2.2.0或以上的 云消息队列 Kafka 实例支持Compact的日志清理策略。如需升级实例的开源版本以支持Compact的日志清理策略,请参见 升级大版本。

如何通过代理访问云消息队列 Kafka 实例

概述 暂不支持通过代理访问云消息队列 Kafka 实例,具体请查看 详细信息。详细信息 云消息队列 Kafka 的客户端访问服务端的原理如下。通过 bootstrap.servers 随机访问服务器获取Metadata。通过Metadata里的IP地址进行后续的消息收发。...

基于Flink的资讯场景实时数仓

部署架构图 选用的产品 云消息队列 Kafka 云消息队列 Kafka 是阿里云基于Apache Kafka构建的高吞吐量、高可扩展性的分布式消息队列服务,广泛用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等,是大数据生态中不可或缺的...

为什么Group不存在但能消费消息

问题现象 我在 云消息队列 Kafka 控制台 上,未查看到对应的Group,但此Group下却有消费线程在消费消息。可能原因 如果客户端使用 assign 方式消费消息,那么即使不创建Group,也可能消费消息。如果客户端使用 subscribe 方式消费消息,...

创建Elasticsearch Sink Connector

本文介绍如何创建Elasticsearch Sink Connector,您可以通过Elasticsearch Sink Connector将数据从 云消息队列 Kafka 实例的数据源Topic导出至阿里云Elasticsearch中。前提条件 详细步骤,请参见 创建前提。步骤一:创建目标服务资源 在...

接入点对比

云消息队列 Kafka 提供默认接入点、SSL接入点和SASL接入点以适用不同的连接及安全需求。默认接入点适用于在保密性较高的VPC环境收发消息;SASL接入点适用于无需对传输链路加密但需对消息收发鉴权;需要链路加密和消息鉴权,建议使用SSL...

为什么Group管理页面的Group变多了?

问题现象 在 云消息队列 Kafka 控制台 的 Group 管理 页面查看您Kafka集群上所有存在的Group时,显示的Group数量多于您手动创建的数量。可能原因 若Group的 自动创建 栏为 否,说明此Group创建于 云消息队列 Kafka 控制台 的 Group ...

创建AnalyticDB Sink Connector

本文介绍如何创建使用AnalyticDB Sink Connector,您可通过AnalyticDB Sink Connector将数据从 云消息队列 Kafka 实例的数据源Topic导出至AnalyticDB的表中。前提条件 详细步骤,请参见 创建前提。步骤一:创建目标服务资源 创建 云原生...

创建OSS Sink Connector(新版)

本文介绍如何创建使用OSS Sink Connector,您可以通过OSS Sink Connector将数据从 云消息队列 Kafka 数据源Topic导出至对象存储OSS的Object中。前提条件 详细步骤,请参见 创建前提。注意事项 Connector基于事件被处理的时间做时间...

服务支持

本文汇总了 云消息队列 Kafka 的常见问题与以及服务等级协议。服务支持 常见问题 相关协议

创建MaxCompute Sink Connector

本文介绍如何创建使用MaxCompute Sink Connector,您可以通过MaxCompute Sink Connector将数据从 云消息队列 Kafka 实例的数据源Topic导出至MaxCompute的表中。前提条件 详细步骤,请参见 创建前提。注意事项 如需使用MaxCompute分区...

配置白名单

您可以设置访问 云消息队列 Kafka 的白名单,配置在白名单中的IP地址与端口才允许访问 云消息队列 Kafka 实例。前提条件 您已购买 云消息队列 Kafka 实例,且该实例处于 服务中 的状态。注意事项 公网/VPC类型的实例默认白名单为0...

查看任务执行记录

在某个实例下发起重启类任务(包括配置变更、版本升级、开启ACL、实例升配)后,您可以在 云消息队列 Kafka 控制台查看重启类任务的执行记录,帮助您跟踪任务进展、定位服务端异常重启原因等。前提条件 创建并部署 云消息队列 Kafka ...

查看消费明细

如果您对 云消息队列 Kafka 服务的消费情况产生疑问,可以查看消费明细。查看费用账单 登录 云消息队列 Kafka 控制台。在页面右上角,选择 费用>用户中心。在左侧导航栏,按需选择 账单管理 目录下的账单维度,查看您的消费信息。月...

配置消息队列Kafka版实例的参数

本文为您介绍目标数据库实例为 专线/VPN网关/智能网关 方式接入的 阿里云消息队列Kafka版 时,部分特殊参数的配置方法和获取方式。注意事项 使用此方案将 阿里云消息队列Kafka版 接入DTS,会将数据写入到您指定的节点中。若您的源库为MySQL...

创建MQTT Source Connector

本文介绍如何在 云消息队列 Kafka 控制台创建流入任务,将 云消息队列 MQTT 版 中的数据快速导入至 云消息队列 Kafka 实例中。前提条件 您已购买 云消息队列 Kafka 实例,且实例处于 服务中 状态。具体步骤,请参见 步骤二:购买...

创建RabbitMQ Source Connector

本文介绍如何在 云消息队列 Kafka 控制台创建流入任务,将 云消息队列 RabbitMQ 版 中的数据快速导入至 云消息队列 Kafka 。前提条件 您已购买 云消息队列 Kafka 实例,且实例处于 服务中 状态。具体步骤,请参见 步骤二:购买和...

开发参考

本文介绍 云消息队列 Kafka 的SDK和API及Terraform的支持情况,供您进行对应的开发操作。开发参考 API参考指南 SDK参考 Terraform

实践教程

针对各种业务需求,云消息队列 Kafka 提供相关的实践教程,您可以根据本文查看适合您业务的实践教程文档。实践教程 最佳实践 生态对接

Topic的存储有哪些类型?

云存储和Local存储。云消息队列 Kafka 实例支持云存储和Local存储。详情请参见 存储引擎对比。

仪表盘

云消息队列 Kafka 的所有指标数据已保存到您的阿里云可观测监控 Prometheus 版中,您可以通过 可观测监控 Prometheus 版 提供的API将 云消息队列 Kafka 的仪表盘的指标数据接入到本地自建Grafana中。具体操作,请参见 将Prometheus的...

如何获取部署实例时需要的VPC信息?

在 交换机 页面,查看以下信息:交换机 实例ID/名称 专有网络 可用区 说明 请根据该页面的可用区(A~G)在 云消息队列 Kafka 控制台中选择对应的可用区(A~G)。例如,某VPC交换机(vSwitch)显示在 可用区B,那么在 云消息队列 Kafka...

降低实例配置

如果您的 云消息队列 Kafka 实例的公网流量消耗远小于购买的公网流量配置,或者分区的使用量远小于购买的分区数量,您可以降低公网流量和分区数量配置,从而节约成本。本文介绍如何在 云消息队列 Kafka 控制台降低实例的公网流量、...

生态对接概述

本文介绍 云消息队列 Kafka 支持对接的生态。阿里云生态 云数据库HBase版 基于HBase和Spark的数据处理平台 阿里云实时计算Flink 基于Flink的资讯场景实时数仓 大数据计算服务MaxCompute 接入MaxCompute 数据传输服务DTS 使用DTS同步...

报警项状态显示数据不足怎么办?

可能原因 老版 云消息队列 Kafka 实例不支持报警数据上报。解决方案 登录 云消息队列 Kafka 控制台。在 概览 页面的 资源分布 区域,选择地域。在 实例列表 页面,单击目标实例名称。在 实例详情 页面,单击 配置信息 页签,然后单击...

设置实例到期欠费预警提醒通知

欠费预警接收设置 登录 云消息队列 Kafka 控制台。单击页面右上方的 图标,进入 消息中心 页面。在左侧导航栏,单击 基本接收管理。在 基本接收管理 页面的 消息类型 中勾选 产品的欠费、停服、即将释放相关信息通知,单击 修改。在 ...

自动创建Topic

自动创建Topic是指当 云消息队列 Kafka 实例发送请求以获取不存在的Topic元数据时,例如向不存在的Topic发送生产请求,云消息队列 Kafka 可以自动创建Topic。自动创建Topic适用于迁移上云场景或测试场景,无需手动重复创建Topic,...

创建RabbitMQ Sink Connector

本文介绍如何在 云消息队列 Kafka 控制台创建消息流出任务,将 云消息队列 Kafka 数据导出至 云消息队列 RabbitMQ 版。前提条件 您已购买并部署 云消息队列 Kafka 实例,且实例处于服务中状态。具体步骤,请参见 步骤二:购买和...

使用云消息队列 Kafka 时客户端的报错及解决方案

在使用云消息队列 Kafka 时,客户端可能报错,您可以根据报错消息匹配对应的解决方案。详细信息 报错信息对应的详细信息如下。报错信息 客户端语言类型 报错原因 解决方案 TimeoutException Java 网络问题 客户端鉴权(sasl.mechanisms)...

如何进行发送消息的测试?

您可以直接在 云消息队列 Kafka 控制台进行发送消息的测试。您可以在控制台的 Topic管理 页面,单击目标Topic右侧的 发送消息,进行消息发送测试,以验证集群是否运转正常。

Kafka触发器

云消息队列 Kafka 触发器(以下简称Kafka触发器)是通过 事件总线EventBridge 将 云消息队列 Kafka 作为事件源与 函数计算 进行集成。创建完成后,您可以在 函数计算 控制台和 事件总线EventBridge 控制台查看创建的信息。当有消息...

应用场景

通过 云消息队列 Kafka 的发布/订阅模型,您可以实时收集网站活动数据(例如注册、登录、充值、支付、购买),根据业务数据类型将消息发布到不同的Topic,然后利用订阅消息的实时投递,将消息流用于实时处理、实时监控或者加载到Hadoop...

创建RocketMQ Sink Connector

本文介绍如何在 云消息队列 Kafka 控制台创建消息流出任务,将 云消息队列 Kafka 数据导出至 云消息队列 RocketMQ 版。前提条件 您已购买 云消息队列 RocketMQ 版 实例,且实例处于 服务中 状态。具体步骤,请参见 创建资源。您已...

发布者最佳实践

本文介绍 云消息队列 Kafka 发布者的最佳实践,帮助您降低发送消息的错误率。本文最佳实践基于Java客户端。对于其他语言的客户端,其基本概念与思想是相通的,但实现细节可能存在差异。发送消息 发送消息的示例代码如下:Future...

创建RocketMQ Source Connector

本文介绍如何在 云消息队列 Kafka 控制台创建消息流入任务,将 云消息队列 RocketMQ 版 的数据快速导入至 云消息队列 Kafka 。前提条件 您已购买Kafka实例,且实例处于 服务中 状态。具体步骤,请参见 步骤二:购买和部署实例。您已...

创建MNS Sink Connector

本文介绍如何在 云消息队列 Kafka 控制台创建消息流出任务,将 云消息队列 Kafka 数据导出至 消息服务。前提条件 您已购买并部署 云消息队列 Kafka 实例,且实例处于 服务中 状态。具体步骤,请参见 步骤二:购买和部署实例。您...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 MongoDB 版 云数据库 RDS 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用