基础散点图

说明 数据格式与设置的数据种类不统一会导致组件显示异常。参数 说明 数值型 支持整数、浮点数等数值类型的数据。类目型 支持字符、字符串等类目类型的数据。时间型 时间类型的数据,需要配置数据格式。刻度数量:组件内x轴上显示刻度的...

基础散点图

说明 数据格式与设置的数据种类不统一会导致组件显示异常。参数 说明 数值型 支持整数、浮点数等数值类型的数据。类目型 支持字符、字符串等类目类型的数据。时间型 时间类型的数据,需要配置数据格式。刻度数量:组件内x轴上显示刻度的...

气泡图

说明 数据格式与设置的数据种类不统一会导致组件显示异常。参数 说明 数值型 支持整数、浮点数等数值类型的数据。类目型 支持字符、字符串等类目类型的数据。时间型 时间类型的数据,需要配置数据格式。刻度数量:组件内x轴上刻度的数量值...

双轴折线图(v3.0及以上版本)

数据面板 双轴折线图的数据格式较为特殊,分为 x、y 和 z 三个字段,y 字段值与 z 字段值分别表示两条折线在其轴线上所对应的点。配置字段说明 字段 说明 x 折线图中每个圆点的类目,即x轴的值。该字段类型与格式须与配置项中x轴的标签数据...

配置ArgoDB输入组件

使用限制 ArgoDB输入组件支持数据格式为orc、parquet、text、holodesk、rc、seq的ArgoDB数据表。不支持ORC格式的事务表集成。操作步骤 请参见 离线管道组件开发入口,进入离线管道脚本的开发页面。按照下图指引,进入 ArgoDB 输入配置 页面...

双轴折线图(v3.0以下版本)

数据 双轴折线图的数据格式较为特殊,分为X,Y,Z三个字段,Y字段值与Z字段值分别表示两条折线在其轴线上所对应的点。上图中的示例JSON代码如下。[{"x":"2010/01/01 00:00:00","y":375,"z":22 },{"x":"2010/02/01 00:00:00","y":200,"z":59...

气泡图(v3.0以下版本)

数据格式:数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。显示格式:期望显示的数据格式,仅对时间型和数值型的数据有效。时间请参照%m/d%Y%H:%M:%S,整数参照 d,浮点参照.1f。最大值:x轴的最大值,支持...

调试实时任务

说明 Kafka中支持json、csv、canal-json、maxwell-json、debezium-json数据格式的自动抽样。Kafka自动抽样仅支持 无认证 和 用户名+密码认证 方式,不支持SSL。Kafka自动抽样时,支持选择读取数据范围,最大抽样条数为 100 条。完成所有...

恢复下载后的备份数据

恢复物理备份的下载数据 下载后的备份数据说明 MySQL数据为Xtrabackup产生的数据格式,并进行压缩。SQL Server数据为其原生备份命令产生的数据格式,并进行压缩。MySQL物理备份下载数据的示例如下。操作步骤 下载完成后,您需要对下载的...

双轴折线图

数据格式:数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。仅在 数据类型 为 时间型 时可配置。轴标签:x轴标签的样式,可单击 图标控制x轴轴标签的显隐。说明 数据格式与设置格式不统一会导致组件显示异常...

配置TDH Inceptor输入组件

使用限制 TDH Inceptor输入组件支持数据格式为orc、parquet、text、rc、seq的TDH Inceptor数据表。不支持ORC格式的事务表集成。在开始执行操作前,请确认您已完成以下操作:已创建TDH Inceptor数据源。具体操作,请参见 创建TDH Inceptor...

产品优势

开放存储 湖仓版(3.0)支持低成本的近实时批量更新数据格式—Hudi。基于低成本的OSS存储,提供开放标准的Hudi格式,支持近实时的增量数据处理能力,并提供 数据入湖 的能力。简单易用 AnalyticDB MySQL版 高度兼容MySQL协议和SQL:92、SQL:...

DataWorks数据服务对接DataV最佳实践

这是因为DataV对数据格式有一定要求,不能识别结构较深的字段,因此需要添加一个数据过滤器,过滤掉不必要的字段,在本例中直接返回rows数组即可。勾选 使用过滤器,单击 新建 图标。此处支持编写JS代码对数据结果进行二次过滤和处理,过滤...

时间轴

数据格式:需要根据数据格式进行配置,例如数据为 1982-02-01 17:09,则此配置项应该设置为%Y-%m-%d%H:%M。只有当事件 种类 为 时间型 时,该配置项才会显示。节点形状:节点的形状。节点大小:节点的大小。默认样式:未选中时节点的样式。...

新建数据处理任务

背景信息 数据处理支持以下数据格式的输入和输出:类型 输入格式 输出格式 倾斜数据 OSGB S3M、3DTiles 地形数据 GeoTIFF QUANTIZED_MESH 三维模型 FBX、GLTF S3M、3DTiles 影像优化 GeoTIFF GeoTIFF(cog)操作步骤 登录 数据资源平台控制台...

新建 TiDB 数据

TiDB 数据格式 迁移 TiDB 数据库的数据至 OceanBase 数据库 MySQL 租户时,您可以选择 TiCDC 或 TiDB Binlog 格式的数据,请从下拉列表中进行选择。备注(可选)数据源的备注信息。单击 测试连接,验证数据传输和数据源的网络连接,以及...

JindoCube使用说明

说明 Cache数据由Spark任务写到一个指定目录中,和普通的Spark写表或者写目录一样,对于Parquet、Json、ORC等数据格式,并发构建同一个Cache可能导致Cache数据不准确,不可用,应避免这种情况。如果无法避免并发构建、更新Cache,可以考虑...

JindoCube使用说明

说明 Cache数据由Spark任务写到一个指定目录中,和普通的Spark写表或者写目录一样,对于Parquet、Json、ORC等数据格式,并发构建同一个Cache可能导致Cache数据不准确,不可用,应避免这种情况。如果无法避免并发构建、更新Cache,可以考虑...

JindoCube使用说明

说明 Cache数据由Spark任务写到一个指定目录中,和普通的Spark写表或者写目录一样,对于Parquet、Json、ORC等数据格式,并发构建同一个Cache可能导致Cache数据不准确,不可用,应避免这种情况。如果无法避免并发构建、更新Cache,可以考虑...

JindoCube使用说明

说明 Cache数据由Spark任务写到一个指定目录中,和普通的Spark写表或者写目录一样,对于Parquet、Json、ORC等数据格式,并发构建同一个Cache可能导致Cache数据不准确,不可用,应避免这种情况。如果无法避免并发构建、更新Cache,可以考虑...

JindoCube使用说明

说明 Cache数据由Spark任务写到一个指定目录中,和普通的Spark写表或者写目录一样,对于Parquet、Json、ORC等数据格式,并发构建同一个Cache可能导致Cache数据不准确,不可用,应避免这种情况。如果无法避免并发构建、更新Cache,可以考虑...

JindoCube使用说明

说明 Cache数据由Spark任务写到一个指定目录中,和普通的Spark写表或者写目录一样,对于Parquet、Json、ORC等数据格式,并发构建同一个Cache可能导致Cache数据不准确,不可用,应避免这种情况。如果无法避免并发构建、更新Cache,可以考虑...

区域翻牌器(v3.0以下版本)

数据格式 数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。显示格式 期望显示的数据格式,时间请参照%m/d%Y%H:%M:%S,整数参照 d,浮点参照.1f。是否留白 打开开关,x轴两端留有空白;关闭开关,x轴两端没有...

JindoCube使用说明

说明 Cache数据由Spark任务写到一个指定目录中,和普通的Spark写表或者写目录一样,对于Parquet、Json、ORC等数据格式,并发构建同一个Cache可能导致Cache数据不准确,不可用,应避免这种情况。如果无法避免并发构建、更新Cache,可以考虑...

基本折线图(v3.0及以上版本)

数据格式 数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。范围 x轴的最小值和最大值的范围值,仅对 数值型 和 时间型 的数据有效。最大值:x轴的最大值,支持自定义输入。默认为auto,系统会根据数据最大值...

调试实时任务

说明 Kafka中支持json、csv、canal-json、maxwell-json、debezium-json数据格式的自动抽样。Kafka自动抽样仅支持 无认证 和 用户名+密码认证 方式,不支持SSL。Kafka自动抽样时,支持选择读取数据范围,最大抽样条数为 100 条。完成所有...

配置Hive输入组件

使用限制 Hive输入组件支持数据格式为 orc、parquet、text、rc、seq、iceberg(iceberg格式仅支持E-MapReduce5.x的Hive计算源或数据源)的Hive数据表。不支持ORC格式的事务表、Kudu表集成。说明 Kudu表数据集成请使用Impala输入组件。更多...

入湖基础操作

OSS数据格式转换:可以实现对阿里云对象存储OSS中已有数据进行格式转换,如CSV转Parquet、Parquet转Delta等。Kafka实时入湖:可以实现将阿里云消息队列Kafka或EMR Kafka的数据实时同步到数据湖中,支持用户自定义预处理算子。配置数据源与...

数据探索简介

支持数据湖内多种存储格式,包括Delta、Hudi、CSV、Parquet、JSON、ORC等数据格式。准备工作 已开通OSS。已开通DLF,并创建了 元数据库。通过 元数据发现/入湖任务管理 或者API等方式创建了元数据表。拥有AliyunDLFFullAccess策略权限 运行...

区域翻牌器

数据格式:数据的显示格式,仅对 时间型 的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。两端留白:x轴两端留空白的距离,取值范围为0~1。分割间隔:x轴上两个类目数据之间的间隔所占百分比,数值越大,占比越大,取值范围为0~1。仅对 ...

散点图(v3.0以下版本)

数据格式:数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。显示格式:期望显示的数据格式,仅对时间型和数值型的数据有效。时间请参照%m/d%Y%H:%M:%S,整数参照 d,浮点参照.1f。最大值:x轴的最大值,支持...

区域图(v4.0以下版本)

数据格式:数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。显示格式:期望显示的数据格式,时间请参照%m/d%Y%H:%M:%S,整数参照 d,浮点参照.1f。留白:开启后,x轴两端留有空白。留白距离:留白的距离,...

基本散点图

参数 说明 显示格式 期望显示的数据格式,仅对时间型和数值型的数据有效。时间请参照 YYYY/MM/DD HH:mm:ss,整数参照 d,浮点参照.1f。文本样式 x轴轴标签文本的字体样式、文字粗细、字号和颜色。自定义数量 x轴轴标签显示的数量值。可单击...

区域翻牌器(v3.0及以上版本)

数据格式:数据的显示格式,仅对 时间型 的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。两端留白:x轴两端留空白的距离,取值范围为0~1。分割间隔:x轴上两个类目数据之间的间隔所占百分比,数值越大,占比越大,取值范围为0~1。范围...

气泡图(v3.x版本)

数据格式 数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。范围 x轴的最小值和最大值的范围值:最大值:x轴的最大值,支持自定义输入。默认为auto,系统会根据数据最大值、最小值以及标签数量自动计算匹配。...

散点图(v3.x版本)

数据格式 数据的显示格式,仅对时间型的数据有效,请参照%Y/m/d%H:%M:%S 的格式进行配置。范围 x轴的最小值和最大值的范围值:最大值:x轴的最大值,支持自定义输入。默认为auto,系统会根据数据最大值、最小值以及标签数量自动计算匹配。...

堆叠条形图

说明 数据格式与设置的数据种类不统一会导致组件显示异常。参数 说明 类目型 支持字符、字符串等类目类型的数据。时间型 时间类型的数据,需要配置数据格式。刻度数量:组件内y轴上刻度的数量值。留白:y轴两端留空白的距离比例值,取值...

基础条形图

说明 数据格式与设置的数据种类不统一会导致组件显示异常。参数 说明 类目型 支持字符、字符串等类目类型的数据。时间型 时间类型的数据,需要配置数据格式。刻度数量:组件内y轴上刻度的数量值。留白:y轴两端留空白的距离比例值,取值...

常用案例

案例一:数据格式转换 在 画布编辑器 页面,添加 环图 组件。单击右侧配置面板的数据 图标,进入数据设置页签。单击 配置数据源,进入 设置数据源 页签。修改静态数据为如下代码。{"服饰":21,"食品":29,"建材":13,"娱乐":33 } 说明 由于...

圆弧柱形图

说明 数据格式与设置的数据种类不统一会导致组件显示异常。参数 说明 类目型 支持字符、字符串等类目类型的数据。时间型 时间类型的数据,需要配置数据格式。刻度数量:组件内径向轴上刻度的数量值。留白:径向轴两端留空白的距离比例值,...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用