Tunnel SDK常见问题

问题类别 常见问题 Tunnel SDK Upload 使用Tunnel SDK上传数据时,上传的数据可以自动分配到各个分区吗?使用Tunnel SDK上传数据时,编写完UDF打成JAR包后上传,对JAR包大小有要求吗?使用Tunnel SDK上传数据时,是否有分区数量限制?使用...

配置数据订阅任务

数据订阅功能可以帮助您获取数据库的实时增量数据,您可以根据自身业务需求自由消费增量数据,并写入任意目标端,适配各类业务场景,例如缓存更新、业务异步解耦、异构数据数据实时同步及含复杂ETL的多种业务场景。本文将介绍在DTS专属...

管理数据

若当前数据为栅格数据,您还可以做以下操作。查看栅格元数据:在数据表 操作 栏单击 图标,查看栅格元数据。名称 说明 坐标参考系 表示栅格的坐标系。宽度 表示栅格的分辨率中的宽度值。高度 表示栅格的分辨率中的高度值。数据类型 表示...

Quick BI

不支持添加度量到维度或不支持添加维度到度量 处理方法:数据集表定义中,维度或度量有明确定义,如果需要用度量的某列维度,可以数据集编辑页面单击右键,单击 转换为维度/度量,单击 保存,在仪表盘页面刷新,即可获得修改后的表结构...

常见问题概览

什么副本集实例写入数据报错:NotMaster、NotWritablePrimary或Time out after 30000ms while waiting for a server that matches writableServerSelector?数据安全 热点问题 其他常见问题 白名单分组名称及来源说明 云数据库MongoDB版...

概览

AnalyticDB PostgreSQL版 提供多种数据迁移方案,可满足不同的数据同步或迁移的业务需求,您可以在不影响业务的情况下,平滑地与各种类型的数据库实例进行迁移或数据同步。迁移数据到AnalyticDB PostgreSQL版 迁移类型 文档 简介 是否支持...

数据服务概述

数据服务作为统一的数据服务出口,实现了数据的统一市场化管理,有效地降低数据开放门槛的同时,保障了数据开放的安全。前提条件 已购买 数据服务 增值服务,开通Dataphin 常见数据应用问题 一般从需求提出到需求交付分为:需求提出-需求...

管理数据

数据集是由数据库创建时,您可以做以下操作。单击 数据库连接 后的 设置,修改数据库连接信息。单击 数据定时同步 后的 设置,打开 启用 开关,设置 定时执行 的类型,例如:每月第一天早上10点整进行数据同步。单击 数据定时同步 后的 ...

管理过滤器

数据源和过滤器数据错:在组件数据面板添加完过滤器后,如果将当前数据源切换成其他类型的数据源,会在错误信息处展示下面两个错误,提示用户数据接口有问题。重要 当数据源异常的时候,即使是有返回的数据内容,添加在数据面板的...

管理过滤器

数据源和过滤器数据错:在组件数据面板添加完过滤器后,如果将当前数据源切换成其他类型的数据源,会在错误信息处展示下面两个错误,提示用户数据接口有问题。重要 当数据源异常的时候,即使是有返回的数据内容,添加在数据面板的...

管理数据源权限

可以数据源管理页面,分享数据源权限给相应的工作空间,并进入被分享的工作空间查看该数据源。本文为您介绍如何管理数据源权限及查看分享的数据源。背景信息 通常数据源会承载数据的具体地址、账户和密码等敏感信息,但普通开发人员仅...

Hive兼容数据类型版本

Hive兼容数据类型版本是MaxCompute三种数据类型版本之一,该数据类型版本下仅支持Hive兼容数据类型。本文为您介绍Hive兼容数据类型版本的定义、支持的数据类型以及与其他数据类型版本的差异。定义 项目空间选择数据类型版本为Hive兼容数据...

轮播页面

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

2.0数据类型版本

本文为您介绍MaxCompute 2.0数据类型版本的定义、使用场景、支持的数据类型以及与其它数据类型版本的差异。定义 项目空间选择数据类型版本为2.0数据类型版本时,项目空间的数据类型属性参数定义如下。setproject odps.sql.type.system.odps...

入湖基础操作

关系数据库实时入湖:可以实现RDS MySQL或PolarDB数据库表数据增量同步到数据湖,选择在数据源管理中配置好的数据源,将数据源对应数据库中选定表的数据抽取binlog的方式将数据库表数据实时同步回放到数据湖中。待同步的数据表需确认包含...

查看数据迁移项目的详情

启动数据迁移项目后,您可以数据迁移项目的详情页面查看相应项目的基本信息、项目执行的进度和状态等信息。进入详情页面 您可以数据迁移项目的详情页面,查看计划的迁移环节、各个环节的进度和状态,帮助您了解数据库迁移的整体进度,...

存储空间分析

可以在 AnalyticDB for MySQL 空间总览页面查看集群和表的总数据量、冷数据量、热数据量、索引数据量、分区数量、节点的磁盘使用率等指标。查看集群级别的数据量 通过 空间总览 可以查看当前集群的 总数据量、热数据量、冷数据量、以及 ...

导入数据

使用场景 表数据迁移 表数据备份 表数据分析 前提条件 数据库类型如下:数据库类型 关系型数据库 MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB分布式版、AnalyticDB MySQL版、其他来源MySQL。SQL Server:RDS SQL Server、...

Quick BI连接MaxCompute

MaxCompute支持您将MaxCompute项目数据接入阿里云Quick BI,对海量数据进行实时在线分析服务,同时支持拖拽式操作和丰富的可视化效果,帮助您轻松自如地完成数据分析、业务数据探查、报表制作等工作。本文为您介绍如何使用Quick BI连接...

配置数据迁移任务

数据迁移任务可以帮助您快速地实现各种数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移、数据库拆分扩容等业务场景。本文以 RDS MySQL 迁移至 RDS MySQL 为例为您介绍配置数据迁移任务的流程。前提条件 已创建DTS专属...

从自建MySQL迁移至MyBase MySQL

DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建MySQL数据库的迁移上云。本文是以新版数据传输服务DTS(Data Transmission Service)控制台为例,旧版数据传输...

查看数据同步项目的详情

单击数据同步项目的名称,您可以在详情页面查看具体的错信息。已完成:表示数据同步项目已成功执行完毕,数据传输已按照您预设的同步模式将指定的数据内容同步至目标库中。结束中:表示数据同步项目正在被结束运行。结束中的数据同步项目...

同步 OceanBase 数据库的数据至 RocketMQ

数据传输的数据同步功能可以帮助您实现 OceanBase 数据库的物理表和 RocketMQ 数据源之间的数据实时同步,扩展消息处理能力。同步 OceanBase 数据库的数据至 RocketMQ 时,两种租户对应的数据格式请参见 数据库传输到文本协议的格式说明。...

使用数据传输迁移数据

可以通过数据迁移功能实时迁移其他数据源的数据至 OceanBase 数据库,以及迁移 OceanBase 数据库的数据至其他数据源。本文以迁移 MySQL 数据库的数据至 OceanBase 数据库为例,介绍如何使用数据传输迁移数据。前提条件 在迁移数据之前,...

任务运行失败

可以参考 配置MySQL数据源 进入 数据源管理 页面,单击目标数据源 操作 列的 编辑,在 数据源编辑 页面查看创建数据源时所使用的模式。For-each,do-while、pai等节点如何在运维中心查看日志 找到实例右键查看内部节点。分支节点运行错...

OceanBase 数据库 MySQL 租户之间的数据同步

本文为您介绍如何创建 OceanBase 数据...如果数据同步项目运行错(通常由于网络不通或进程启动过慢导致),您可以数据同步项目的列表或详情页面,单击 恢复。相关文档 新建 OceanBase 数据源 批量操作数据同步项目 查看数据同步项目的详情

OceanBase 数据库之间的数据迁移

背景信息 您可以数据传输控制台创建从 OceanBase 数据库迁移数据至 OceanBase 数据库同类型租户的数据迁移项目,通过结构迁移、全量迁移和增量同步,无缝迁移源端数据库中的存量业务数据和增量数据至目标端数据库。前提条件 数据传输已...

同步 OceanBase 数据库 MySQL 租户的数据至 Analytic...

如果数据同步项目运行错(通常由于网络不通或进程启动过慢导致),您可以数据同步项目的列表或详情页面,单击 恢复。相关文档 新建 OceanBase 数据源 新建 ADB 数据源 批量操作数据同步项目 查看数据同步项目的详情

PyODPS常见问题

什么情况下可以下载PyODPS数据到本地处理?通过open_reader最多只能取到1万条记录,如何获取多于1万条的记录?为什么尽量使用内建算子,而不是自定义函数?为什么通过DataFrame().schema.partitions获得分区表的分区值为空?如何使用PyODPS...

风险识别管理(新版)

可以基于实际场景,选择从 数据位置、数据属性、用户信息、操作时间 等维度识别风险数据,配置更精细的风险识别条件。当使用 数据属性 及 用户信息 的不同细分类别配置风险识别条件时,需要进行如下准备工作。风险识别维度 细分类别 描述...

Oracle数据

Oracle数据源为您提供读取和写入Oracle双向通道的功能,方便您后续可以通过向导模式和脚本模式配置数据同步任务。本文为您介绍DataWorks的Oracle数据同步能力支持情况。支持的版本 离线读写 版本 离线读(Oracle Reader)离线写(Oracle ...

业务指标趋势

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

添加数据

由于本示例的数据区域是全国范围,因此 裁剪边界数据接口 的数据可以保持不变。您也可以根据需要修改 裁剪边界数据接口 的数据。在 插值点数据接口 的配置页面,单击 配置数据源。在 设置数据源 页面,按照以下说明配置数据源。数据源类型...

同步 OceanBase 数据库的数据至 DataHub

本文为您介绍如何同步 OceanBase 数据库(MySQL 和 Oracle 租户)的数据至 DataHub。前提条件 数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权。已为源端 OceanBase 数据库创建专用于数据同步项目的数据库用户,并为其赋予...

点热力层(v3.x版本)

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

同步 OceanBase 数据库的数据至 Kafka

背景信息 Kafka 是目前广泛应用的高性能分布式流计算平台,数据传输支持 OceanBase 数据库两种租户与自建 Kafka 数据源之间的数据实时同步,扩展消息处理能力,广泛应用于实时数据仓库搭建、数据查询和报表分流等业务场景。前提条件 数据...

萤石云播放器

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

音频

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

Hive数据导入

云原生数据仓库AnalyticDB MySQL版 湖仓版(3.0)支持通过Hive数据迁移将Hive数据迁移至OSS。本文介绍如何添加Hive数据源,新建Hive迁移链路并启动任务,以及数据迁移后如何进行数据分析和管理数据迁移任务。功能介绍 AnalyticDB MySQL版 ...

配置数据同步任务

数据同步功能帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、云BI及实时数据仓库等多种业务场景。本文以 RDS MySQL 同步至 RDS MySQL 为例为您介绍在DTS专属集群中配置数据同步任务...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据传输服务 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用