使用DataWorks

MaxCompute支持通过DataWorks的数据集成功能将MaxCompute中的数据以离线方式导出至其他数据源。当您需要将MaxCompute中的数据导出至其他数据源执行后续数据处理操作时,您可以使用数据集成功能导出数据。本文为您介绍如何将MaxCompute的...

数据库性能

数据管理DMS整合了数据库自治服务DAS的部分功能,可以帮助您掌握数据库实例的性能状况,快速、精准、有效地优化数据库服务。前提条件 如果您的数据库的管控模式为自由操作或稳定变更,并且您拥有实例的登录权限,当您登录目标实例后您将...

数据库导出

当您需要进行数据库备份、导出数据库表进行数据分析等操作,您可使用 数据管理DMS 的数据导出功能,该功能可通过提交工单的方式导出数据库。前提条件 数据库类型如下:MySQL系列:自建MySQL、RDS MySQL、PolarDB MySQL版、AnalyticDB ...

数据保护伞概述

数据保护伞是一款数据安全管理产品,为您提供数据发现、数据脱敏、数据水印、访问控制、风险识别、数据溯源等多种功能,帮助您快速梳理敏感数据并进行安全管控,保障数据安全。本文为您介绍数据保护伞的使用流程、使用限制等内容。使用流程...

产品功能

TSDB 提供时序数据的高效读写。对于百万数据点的读取,响应时间小于 5 秒,且最高可以支撑每秒千万数据点的写入。数据写入 TSDB 支持通过 HTTP 协议和 TSDB Java Client 两种方式进行数据写入。数据查询 TSDB 支持通过 HTTP 协议、TSDB ...

数据流运维

您可以在数据流运维中心查看数据流的发布状态、发布详情、运行记录等。登录 数据管理DMS 5.0。在顶部菜单栏中,选择 集成与开发(DTS)>数据集成>离线集成。单击数据流名称,进入数据流详情页面。单击画布右上方 前往运维。在数据流运维...

创建Hologres数据

进行数据同步:DataWorks的数据集成模块为您提供读取和写入数据至Hologres的能力,您可将其他数据源的数据同步至当前Hologres数据源,或将当前Hologres数据源的数据同步至其他数据源。同时,可根据需要选择离线同步、实时同步、同步解决...

使用DMS数据追踪进行恢复

数据追踪与其他恢复方案的区别 恢复方案 恢复原理 费用 恢复速度 恢复范围 数据追踪 按需追踪到目标时间段内的相关更新,汇总生成逆向的回滚语句,并通过 数据变更 工单最终执行到数据库中完成数据的恢复。管控模式为自由操作,无费用。...

数据传输服务(上传)场景与工具

本文为您介绍如何将数据上传至MaxCompute或从MaxCompute下载数据,包括服务连接、SDK、工具和数据导入导出、上云等常见操作。背景信息 MaxCompute提供了多种数据上传下载的通道支持,方便您在各种场景下进行技术方案选型时参考。批量数据...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

什么是数据资源平台

阿里云数据资源平台是数据资产定义、加工、管理、服务的全流程平台,提供数据同步、数据查询、数据标准、数据建模、数据加工、质量评估、业务模型构建、资产管理、数据服务等功能,为智能数据应用持续稳定供给全量、标准、干净、智能的数据...

数据查询

访问方式 适用场景 描述 具体操作 Java Native SDK Java应用开发 支持流式数据传输,无需管理底层连接,提供线程安全的接口调用。Java Native SDK开发手册 JDBC Driver Java应用开发,需要配合框架使用的场景 需要自己管理连接池,或着使用...

创建Sap Table数据

说明 通常情况下,生产数据源和开发数据源需配置非同一个数据源,以使开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。Sap Table数据源支持 单机、负载均衡 和 ...

功能简介

支持本地上传、从OSS导入等多种方式添加数据;添加数据的同时支持各类型空间数据的元信息自动解析,支持按空间对平台所有空间数据进行统一检索、统计和管理。数据管理 支持添加单文件、多文件、数据库等多种形态,矢量、栅格、倾斜摄影等...

空间数据(邀测中)

支持本地上传、从OSS导入等多种方式添加数据;添加数据的同时支持各类型空间数据的元信息自动解析,支持按空间对平台所有空间数据进行统一检索、统计和管理。数据管理 支持添加单文件、多文件、数据库等多种形态,矢量、栅格、倾斜摄影等...

数据导入概览

从阿里云对象存储OSS导入数据至图数据库GDB实例 图数据库GDB服务端集成有数据导入模块,可以获取您提供的.csv格式的OSS数据文件,并将其解析为图中的点数据和边数据,然后将点数据和边数据导入至图数据库GDB实例。步骤 步骤说明 ① 将需要...

使用限制

在使用云数据库MongoDB前,您需要了解不同类型云数据库MongoDB实例本身存在的约束信息,使您初步了解不同类型云数据库MongoDB实例的使用限制,以帮助您选择更适合业务场景的实例。单节点实例 功能 约束 实例部署 目前不是所有地域和可用区...

实时数据消费概述

实时数据消费功能包含高速数据导入API和实时数据源消费两部分,可实现数据直接写入Segment(分片单元),避免通过COPY或INSERT方式造成的Master写入负载高的问题,也可实现使用 AnalyticDB PostgreSQL版 单产品直接消费Kafka数据。...

支持的数据

当前DBS支持如下三种方式添加数据源:手动添加数据源 批量添加数据源 自动添加数据源 DBS支持的数据源类型请参见下表。数据源类别 数据库类型 阿里云数据库 RDS MySQL RDS SQL Server RDS PostgreSQL RDS MariaDB PolarDB MySQL版 PolarDB ...

新建自定义数据

如果开发模式是Dev-Prod模式,则可以通过以下方式配置数据源:单击 生产+开发数据源,配置生产环境和开发环境的数据源。单击 生产数据源,配置生产数据源。完成生产数据源的创建后,单击 开发数据源,配置开发环境的数据源。说明 系统支持...

OSS

您可以通过以下两种方式访问OSS数据:通过提交Spark SQL语句的方式来访问OSS数据,具体操作请参见 Spark SQL。作业示例配置如下所示:{"sqls":["select*from `1k_tables`.`table0` limit 100","insert into `1k_tables`.`table0` values(1,...

功能特性

监控告警 数仓和数据湖 功能集 功能 功能描述 参考文档 数据存储 数据缓存 云数据库SelectDB支持数据缓存功能,当您需要管理缓存数据并提升云数据库 SelectDB 版的访问速度时,可以根据该文档对缓存进行有效管理,并利用LRU和TTL管理策略,...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将...MaxCompute处理业务数据和日志数据后,可以通过Quick BI快速地以可视化方式展现数据处理结果,详情请参见 基于MaxCompute的大数据BI分析。

新建自定义数据

如果开发模式是Dev-Prod模式,则可以通过以下方式配置数据源:单击 生产+开发数据源,配置生产环境和开发环境的数据源。单击 生产数据源,配置生产数据源。完成生产数据源的创建后,单击 开发数据源,配置开发环境的数据源。说明 系统支持...

数据洞察

数据洞察入口 数据分析支持通过如下几种方式进入数据洞察:数据洞察列表页 进入数据分析。登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 工作空间列表,找到目标工作空间后,单击 操作 列的 快速进入,选择 数据分析。在 数据...

添加数据

空间数据提供对矢量、栅格、矢量瓦片、栅格瓦片、三维模型、倾斜摄影、BIM、点云等数据的添加,支持通过上传文件和对象存储两种通用的方式添加数据。本文主要介绍如何添加各类空间数据。前提条件 已在云存储上存储了数据文件。背景信息 ...

购买流程

数据传输服务DTS(Data Transmission Service)支持先配置再购买和先购买再配置两种创建任务方式。若您需要随用随配,建议您选择先配置再购买的方式;若您需要先锁定财务预算而不需要配置任务,建议您选择先购买再配置的方式。本文介绍数据...

数据源管理概述

功能介绍 多数据源类型接入:Dataphin内置丰富的数据源类型,支持对接的数据源包括大数据存储型数据源、文件型数据源、消息队列型数据源、关系型数据源和NoSQL数据源。更多信息,请参见 Dataphin支持的数据源。自定义数据源类型:在内置的...

数据源管理概述

功能介绍 多数据源类型接入:Dataphin内置丰富的数据源类型,支持对接的数据源包括大数据存储型数据源、文件型数据源、消息队列型数据源、关系型数据源和NoSQL数据源。更多信息,请参见 Dataphin支持的数据源。自定义数据源类型:在内置的...

数据质量概述

数据质量帮助您第一时间感知源端数据的变更与ETL(Extract Transformation Load)中产生的脏数据,自动拦截问题任务,有效阻断脏数据向下游蔓延。避免任务产出不符合预期的问题数据,影响正常使用和业务决策。同时也能显著降低问题处理的...

Quick BI

数据可视化分析 单击左侧导航栏中的 数据集>新建数据集,选择之前配置的AnalyticDB链接,选择表的种类,将数据集添加进数据决策系统并进行后续的数据分析和仪表板展示。您可以使用如下两种方式进行数据的可视化分析:拖拽表对应列方式:...

调试实时任务

上传数据方式包括手动 上传样例数据文件、手动输入数据、自动抽样数据。手动上传样例数据文件 您可以通过上传数据方式,手动上传本地数据。上传本地数据前需要先下载样例,样例由Dataphin自动识别读写的表和表的schema信息生成的csv格式...

调试实时任务

Session集群调试方式:即通过Session集群进行调试,调试的数据为 线上的真实数据 且为 流式数据(即来源表中写入数据时,将直接输出该条数据的计算结果,与真实线上运行任务的结果一致)。该方式下,Session集群提供Flink任务状态、日志和...

导入

导入状态:导入并保存:仅导入并保存数据,不生成新的版本 导入并提交:导入数据,并将最新导入的数据提交一个新的版本 批量导入仅支持导入.xlsx 格式文件,每次最多可导入30000条数据,并且文件大小不超过10MB。查看导入结果。在 完成 页...

SQL备份与回滚(公测中)

后台异步执行是通过提交工单的方式进行表数据或表结构变更。回滚数据。执行成功后,您可在对应 执行结果 页签下,单击 获取备份。在弹出的 分组任务详情 页面,再次单击 获取备份。您可随时单击刷新,查看获取备份的进展。获取备份成功后,...

使用Kafka客户端消费订阅数据

注意事项 使用本文提供的Demo消费数据时,如果采用auto commit(自动提交),可能会因为数据还没被消费完就执行了提交操作,从而丢失部分数据,建议采用手动提交方式以避免该问题。说明 如果发生故障没有提交成功,重启客户端后会从上...

修饰词

导入并提交:导入数据,并将最新导入的数据提交一个新的版本。批量导入仅支持导入.xlsx 格式文件,每次最多可导入30000条数据,并且文件大小不超过10MB。查看导入结果。在 完成 页签,您可查看导入结果详情。单击详情列表修饰词后的 更多...

添加适配数据

在使用数据集前需要先添加支持的数据源内容,本文介绍...在 创建数据集 弹窗中,输入 数据集名称,选择 数据源导入 创建方式数据源 选择 兼容MySQL数据库,详细步骤,请参见 添加兼容MySQL数据库的数据源。确认无误后,单击 导入数据表。

使用Kafka客户端消费订阅数据

注意事项 使用本文提供的Demo消费数据时,如果采用auto commit(自动提交),可能会因为数据还没被消费完就执行了提交操作,从而丢失部分数据,建议采用手动提交方式以避免该问题。说明 如果发生故障没有提交成功,重启客户端后会从上...

数据引入概述

Dataphin支持通过数据集成和数据同步的方式,将业务数据源的数据引入Dataphin平台。背景信息 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据库备份 数据传输服务 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用