执行在线评估

采集 SQL 语句 自定义采集数据的 SQL 语句。整库评估 整库评估除包含对象评估和 SQL 评估外,还会采集 CPU、内存和磁盘等系统信息,以及表占比磁盘空间、表增长率、是否存在索引、是否无访问等业务信息,来获取源端数据库的画像信息,提供...

基本概念

同步初始化包括增量数据采集、结构初始化和全量数据初始化。增量数据采集:采集源库中待同步对象所有变更的数据。结构初始化:将源库中待同步对象的结构定义信息,同步至目标库中。全量数据初始化:将源库中待同步对象的存量数据,同步至...

统计信息

单击 重新采集 按钮并确认,系统后台会异步重新采集数据,等待几分钟后,刷新页面查看最新数据。单击 保存PDF,将页面当前数据以PDF格式保存到本地。在 未更新统计信息 区域,以图表形式查看未更新的统计信息详情。单击 自定义查询,设置...

统计信息

重新采集 如果您觉得 数据更新时间 过久,您也可以单击 重新采集 按钮并确认,让系统后台异步重新采集数据。说明 后台异步重新采集数据,您需要等待几分钟后刷新页面查看结果。保存PDF 如果您需要将页面保存到本地,请单击 保存PDF,等待...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 Kudu 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 ...

数据导入概览

使用DataWorks数据集成同步数据到GDB DataWorks 是阿里云上的一站式大数据智能云研发平台,其中数据集成服务支持导出数据到GDB,您也可以使用平台完成数据计算、筛选、转换等处理再同步到GDB。DataWorks的GDB数据源底层由GdbWriter插件提供...

应用评估

说明 迁移评分受采集数据完备性影响,请结合业务实际情况综合考虑迁移成本。整体兼容度:衡量应用SQL与数据库对象的兼容性情况。说明 数据库采集SQL受数据库系统本身影响,兼容度不作为评估参考。架构蓝图:通过拓扑图的形式,直观展示各...

创建GreenPlum数据

通过创建GreenPlum数据源能够实现Dataphin读取GreenPlum的业务数据或向GreenPlum写入数据。本文为您介绍如何创建GreenPlum数据源。背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

概述

DataWorks的安全中心作为云上大数据体系的安全门户,致力于向您提供面向数据安全生命周期全过程的安全能力,同时在符合安全规范要求的前提下,提供各类安全诊断的最佳实践。其核心功能如下:数据权限管理 安全中心为您提供精细化的数据权限...

创建GreenPlum数据

通过创建GreenPlum数据源能够实现Dataphin读取GreenPlum的业务数据或向GreenPlum写入数据。本文为您介绍如何创建GreenPlum数据源。背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

数据库监控

说明 上述各监控项的数据采集周期均为1分钟。最多支持查看7天内的监控数据。操作步骤 登录 PolarDB分布式版控制台。在页面左上角选择目标实例所在地域。在 实例列表 页,找到目标实例并单击实例ID。在左侧导航栏中,单击 监控与报警>数据库...

权限管理

数据采集 功能权限 功能权限名称 权限说明 数据采集_埋点验证访问 可以访问「数据采集-埋点验证」,使用埋点验证功能并可以查看验证报告 注意:必须要有至少一个「数据采集」的“数据权限”才能正常访问。数据权限 数据权限名称 权限说明 ...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

应用场景

数据审计 智能解析数据库及大数据的通信流量,细粒度审计数据访问行为,通过对数据源全量行为的审计溯源、危险攻击的实时告警、风险语句的智能预警,为您最敏感的数据库资产做好最安全的监控保障。个人信息合规 可精准区分和保护个人数据,...

准备数据源和计算源

准备数据源 Dataphin支持对接的数据源包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型及操作指导,请参见 Dataphin支持的数据源。重要 确定业务数据源类型后,在Dataphin创建...

通过DTS采集数据

查看数据采集结果。回到 DataHub控制台,查看通过DTS创建的数据结构是否有缺失。在RDS数据库中插入一条数据,单击 数据抽样,查看增量数据同步结果。注意 DataHub同步的是增量数据,您的数据库中必须插入、删除或更新一条或多条数据后,才...

准备数据源和计算源

准备数据源 Dataphin支持对接的数据源包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型及操作指导,请参见 Dataphin支持的数据源。重要 确定业务数据源类型后,在Dataphin创建...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

基于Delta lake的一站式数据湖构建与分析实战

数据湖作为一个集中化的数据存储仓库,支持的数据类型具有多样性,包括结构化、半结构化以及非结构化的数据数据来源上包含数据库数据、binglog 增量数据、日志数据以及已有数仓上的存量数据等。数据湖能够将这些不同来源、不同格式的数据...

计费项

数据同步实例 链路配置费用 按量付费(含Serverless)在 增量数据采集 模块启动后开始计费(包含增量数据同步暂停期间)。重要 在增量数据同步失败期间,不会计费。Serverless实例的计费详情,请参见 Serverless实例计费方式。欠费前1个...

新增消费组

若DTS增量数据采集模块或者客户端切换,则可能会导致数据重复。操作步骤 登录 数据传输控制台。在左侧导航栏,单击 数据订阅。在 数据订阅列表 页面上方,选择订阅通道所属地域。定位至已购买的数据订阅通道,单击订阅ID。单击左侧导航栏的...

用户价值

数据资源平台为用户提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

数据库导出

当您需要进行数据库备份、导出数据库表进行数据分析等操作,您可使用 数据管理DMS 的数据导出功能,该功能可通过提交工单的方式导出数据库。前提条件 数据库类型如下:MySQL系列:自建MySQL、RDS MySQL、PolarDB MySQL版、AnalyticDB ...

冷热分层

冷热数据 数据按照实际访问的频率可以分为热数据、温数据和冷数据。其中冷数据的数据量较,很少被访问,甚至整个生命周期都不会被访问。冷热数据的区分方式如下:按照数据的创建时间:通常,数据写入初期,用户的关注度较高且访问频繁,...

数据地图

其他操作 数据总览 您可以在数据总览页面查看当前地域(Region)下配置了数据采集器的Hologres数据库统计信息和表信息,进入数据总览详细步骤请参见 数据总览。查找表 数据地图支持通过表名,表描述、字段名及字段描述等搜索表,同时还可以...

索引缺失

单击 重新采集 按钮并确认,系统后台会异步重新采集数据,等待几分钟后,刷新页面查看最新数据。单击 保存PDF,将页面当前数据以PDF格式保存到本地。在 索引缺失图表信息 区域,以图表形式查看索引缺失的相关指标变化趋势。在 索引缺失详情...

新增消费组

若DTS增量数据采集模块或者客户端切换,则可能会导致数据重复。操作步骤 进入 新版DTS订阅任务的列表页面。在页面左上角,选择订阅实例所属地域。定位至目标的订阅实例,并单击实例ID。单击左侧导航栏的 数据消费。在 数据消费 页面,单击...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka至湖仓版(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS至湖仓版(推荐)大数据 Hive 数据迁移 Hive数据导入 相关文档 AnalyticDB...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。权限说明 仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据...

Delta Lake概述

Delta Lake以数据为中心,围绕数据流走向(数据从流入数据湖、数据组织管理和数据查询到流出数据湖)推出了一系列功能特性,协助您搭配第三方上下游工具,搭建快捷、易用和安全的数据湖。背景信息 通常的数据湖方案是选取大数据存储引擎...

主备方案介绍

A:存储的是数据D1和数据D2中时间戳更数据数据在LTS同步过程中不会改变数据原有的时间戳,一般情况下存储的是数据D2,但是由于主备实例不同可能存在时间戳毫秒级的时间差异造成数据D2的时间戳比数据D1的时间戳小,在这种情况下存储的...

Quick Tracking基本概念

为了能够快速上手Quick Tracking,建议先了解和学习下采集SDK和流量分析产品的基本概念,这些基本概念会贯穿数据采集到数据分析的全流程。行为采集 在行为采集中,有如下四个基本概念需要了解:系统事件 系统事件是指由采集SDK发出,用来...

数据源白名单配置

产品名称 操作说明 云原生大数据计算服务MaxCompute 设置白名单 实时数仓Hologres IP白名单 云数据库ClickHouse 设置白名单 消息队列Kafka版 配置白名单 云原生分布式数据库PolarDB-X 设置白名单 云原生分布式数据库PolarDB-X(2.0)设置白...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多信息,请参见 Apache Hudi官网。权限说明 仅支持 超级管理员、数据源管理员、...

数据导入方式介绍

为满足多样化的数据导入需求,云原生数据仓库AnalyticDB MySQL版 提供了多种数据导入方式,包括:通过外表导入数据、使用DataWorks导入数据和利用JDBC通过程序导入数据等。本文介绍各导入方式的特性及适用场景,帮助您选择正确的数据导入...

创建Impala数据

在 新建数据源 对话框的 大数据存储 区域,选择 Impala。如果您最近使用过Impala,也可以在 最近使用 区域选择Impala。同时,您也可以在搜索框中,输入Impala的关键词,快速筛选。在 新建Impala数据源 对话框中,配置连接数据源参数。配置...

典型场景

大数据分析平台 对于MaxCompute、Hadoop和Spark中保存的海量数据,可通过采用数据集成服务(DataX)或通过对象存储服务(OSS),快速批量导入到 云原生数据仓库AnalyticDB PostgreSQL版,帮助您实现高性能分析处理和在线数据探索。数据湖...

数据扫描和识别

支持扫描的数据源类型如下:结构化数据:RDS、PolarDB、PolarDB-X、MongoDB、OceanBase、自建数据库 非结构化数据:OSS 大数据:TableStore、MaxCompute、ADB-MYSQL、ADB-PG 数据源授权完成后需要多长时间完成扫描?DSC 完成数据源授权后,...

API概览

云原生数据库PolarDB 提供以下相关API接口。地域 API 描述 DescribeRegions 该接口...DescribeDBClusterMonitor 该接口用于查询 PolarDB 集群的监控数据采集频率。ModifyDBClusterMonitor 该接口用于修改 PolarDB 集群的监控数据采集频率。

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将...MaxCompute处理业务数据和日志数据后,可以通过Quick BI快速地以可视化方式展现数据处理结果,详情请参见 基于MaxCompute的大数据BI分析。
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据传输服务 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用