数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

同步 OceanBase 数据库的数据至 RocketMQ

本文为您介绍如何使用数据传输同步 OceanBase 数据库的数据至 RocketMQ。背景信息 消息队列 RocketMQ 是阿里云基于 Apache RocketMQ 构建的低延迟、高并发、高可靠的分布式消息中间件。数据传输的数据同步功能可以帮助您实现 OceanBase ...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 StarRocks 支持 不支持 Hudi 支持 支持 Doris 支持 不支持 GreenPlum 支持 支持 TDengine ...

典型场景

基于湖构建数据平台,支持BI、挖掘等业务 对象存储OSS可以作为湖存储,DLA基于OSS构建一站式的大数据平台。具体包括构建数据湖、数据ETL、交互式查询、机器学习等功能。构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建...

同步 OceanBase 数据库的数据至 Kafka

背景信息 Kafka 是目前广泛应用的高性能分布式流计算平台,数据传输支持 OceanBase 数据库两种租户与自建 Kafka 数据源之间的数据实时同步,扩展消息处理能力,广泛应用于实时数据仓库搭建、数据查询和报表分流等业务场景。前提条件 数据...

数据仓库研发规范概述

大数据时代,规范地进行数据资产管理已成为推动互联网、大数据、人工智能和实体经济深度融合的必要条件。贴近业务属性、兼顾研发各阶段要点的研发规范,可以切实提高研发效率,保障数据研发工作有条不紊地运作。而不完善的研发流程,会...

快速入门

Web 2.0时代,风靡全网的社区论坛软件系统Discuz!和博客平台WordPress均基于MySQL实现底层架构。Web 3.0时代,阿里巴巴、Facebook、Google等大型互联网公司都采用更为灵活的MySQL构建了成熟的规模数据库集群。阿里云数据库RDS MySQL基于...

云数据库Redis间的迁移

由于数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此量迁移完成后目标数据库的表存储空间会比源实例的表存储空间。DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与数据研发能力的一站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

实验介绍

数据采集 数据加工 配置数据质量监控 数据可视化展现 目标人群 开发工程师、数据分析师、产品运营等存在数仓数据获取与数据分析洞察人员。涉及产品 本案例涉及以下产品:一站式大数据开发治理DataWorks 本案例通过DataWorks实现数据采集,...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 Kudu 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 ...

数据导入概览

从阿里云对象存储OSS导入数据至图数据库GDB实例 图数据库GDB服务端集成有数据导入模块,可以获取您提供的.csv格式的OSS数据文件,并将其解析为图中的点数据和边数据,然后将点数据和边数据导入至图数据库GDB实例。步骤 步骤说明 ① 将需要...

DataWorks模块使用说明

使用流程概览:参考文档:数据集成概述 数据建模与开发 子模块:数据建模 功能说明:数据建模是链路数据治理的第一步,沉淀阿里巴巴数据中台建模方法论,从数仓规划、数据标准、维度建模、数据指标四个方面,以业务视角对业务的数据进行...

功能概述

当您的数据库中有数据需要被保护时,可以使用RDS MySQL密态数据库功能,该功能提供的加密解决方案能够在遵守数据保护法规的前提下保障您的数据安全,使被保护数据免受未授权访问。本文介绍密态数据库的概念、应用场景和安全分级。什么...

Db2 for LUW迁移至RDS MySQL

如为增量迁移任务,DTS要求源数据库的数据日志保存24小时以上,如为量迁移和增量迁移任务,DTS要求源数据库的数据日志至少保留7天以上(您可在量迁移完成后将数据日志保存时间设置为24小时以上),否则DTS可能因无法获取数据日志而导致...

RDS MariaDB迁移至RDS MySQL

由于数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此量迁移完成后目标数据库的表存储空间会比源实例的表存储空间。请确认DTS对数据类型为FLOAT或DOUBLE的列的迁移精度是否符合业务预期。DTS会通过 ROUND(COLUMN,...

MaxFrame概述

您可以用更熟悉、高效、便捷的方式利用MaxCompute的海量计算资源及数据进行规模数据处理、可视化数据探索分析以及科学计算、ML/AI开发等工作。本文为您介绍MaxFrame背景信息、功能介绍及使用场景。版本说明 当前MaxCompute MaxFrame功能...

快速体验

数据采集 数据加工 配置数据质量监控 数据可视化展现 目标人群 开发工程师、数据分析师、产品运营等存在数仓数据获取与数据分析洞察人员。涉及产品 本案例涉及以下产品:一站式大数据开发治理DataWorks 本案例通过DataWorks实现数据采集、...

从自建MySQL迁移至RDS实例

注意事项 DTS在执行数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...

产品概述

什么是密态数据密态数据库是数据库与存储实验室与阿里云数据库团队合作的自研产品,以技术为基石,最小化人员、平台管理等不可控因素造成的潜在数据安全隐患,可以有效杜绝云数据库服务(或应用服务等数据拥有者以外的任何人)接触...

产品概述

什么是密态数据密态数据库是数据库与存储实验室与阿里云数据库团队合作的自研产品,以技术为基石,最小化人员、平台管理等不可控因素造成的潜在数据安全隐患,可以有效杜绝云数据库服务(或应用服务等数据拥有者以外的任何人)接触...

数据保护规则简介

在使用密态功能之前,您需要配置数据保护规则,规则包括:指定目标数据列为被保护数据、声明数据保护方法(例如加密、脱敏)、授权指定用户访问数据等。本文介绍数据保护规则格式及说明。规则格式及说明 {"version":20230830,"rules":[{...

产品概述

什么是密态数据密态数据库是 达摩院数据库与存储实验室 与阿里云数据库团队合作的自研产品,以技术为基石,最小化人员、平台管理等不可控因素造成的潜在数据安全隐患,可以有效杜绝云数据库服务(或应用服务等数据拥有者以外的任何...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka至湖仓版(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS至湖仓版(推荐)大数据 Hive 数据迁移 Hive数据导入 相关文档 AnalyticDB...

整库离线同步至Elasticsearch

整库离线同步方案包括周期性量同步、周期性增量同步、一次性量同步、一次性增量同步、一次性量周期性增量同步。本文以一次性量周期性增量同步至Elasticsearch为例,为您讲解如何将整库数据离线同步至Elasticsearch。前提条件 已...

数据导入方式介绍

为满足多样化的数据导入需求,云原生数据仓库AnalyticDB MySQL版 提供了多种数据导入方式,包括:通过外表导入数据、使用DataWorks导入数据和利用JDBC通过程序导入数据等。本文介绍各导入方式的特性及适用场景,帮助您选择正确的数据导入...

应用场景

阿里云开源大数据平台E-MapReduce(简称EMR)具有广泛的应用场景。本文为您介绍EMR的主要应用场景。数据湖场景 DataLake集群类型提供了数据湖分析场景所需的服务和相关湖格式,包括Hadoop、OSS-HDFS、Hive、Spark、Presto等。通过选择OSS-...

应用场景

大数据场景 云数据库HBase支持海量数据的低成本存储、快速批量导入和实时访问,具备高效的增量及数据通道,可轻松与Spark、MaxCompute等大数据平台集成,完成数据规模离线分析。优势如下:低成本:高压缩比,数据冷热分离,...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

数据变更最佳实践

批量和实时导入数据 批量导入:适用于大数据量导入的场景,导入过程中可以查询旧数据,导入操作完成后一键切换新数据。导入失败时,支持回滚新数据,不影响查询旧数据。例如,从MaxCompute、OSS中导入数据到 AnalyticDB MySQL版 时,推荐...

数据

数据库备份场景下,有4个概念:数据库磁盘空间、数据文件空间、备份数据量、存储数据量。数据量 说明 数据库磁盘空间 由数据库的数据文件空间、数据库的日志文件空间、操作系统文件空间和空闲空间组成。说明 RDS中为:购买时选择的存储...

从RDS MySQL迁移至自建Kafka

Kafka是应用较为广泛的分布式、高吞吐量、高可扩展性消息队列服务,普遍用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等大数据领域,是大数据生态中不可或缺的产品之一。通过数据传输服务DTS(Data Transmission Service),...

热点散列

但是这种拆分方式按照卖家ID拆分,相同的卖家数据会分布到相同的分区,这就会导致卖家所在的分区数据异常的数据倾斜严重,卖家的数据都在一个分区(例如下图中的P5),会导致这个分区出现严重的写入热点。PolarDB-X 是如何有效的...

查看敏感数据识别结果

仅支持在 结构化数据、半结构化数据、非结构化数据大数据 分类下分别选择一个或多个数据类型,不支持跨分类同时选择多个数据类型。如果您未选中任意数据类型,数据安全中心默认展示所有数据类型下的敏感数据识别结果。数据模板:在 ...

数据安全

数据备份与恢复 云原生多模数据库 Lindorm 宽表引擎支持数据备份恢复功能,该功能基于数据生态服务中的数据迁移,将数据存储至阿里云对象存储服务OSS(Object Storage Service,简称OSS)中,定期量备份数据,实时增量同步数据,来满足对...

限制说明

数据大小 云数据库 Memcache 版支持的单条缓存数据的 Key 最大不超过 1 KB,Value 最大不超过 1 MB,过数据不适合存储。事务支持 云数据库 Memcache 版不支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当...

新建TDengine数据

说明 通常情况下,生产数据源和开发数据源需配置非同一个数据源,以使开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。配置 集群配置 区域的参数。参数 描述 ...

图扑案例

针对存储层面临的问题,厦门图扑软件基于阿里 云原生多模数据库 Lindorm 改造存储层架构,以单库多模超融合模式存储量采集的监控数据(技术方案对比如图2所示),极地简化了存储层架构,进而降低了运维成本。利用Lindorm自研的数据压缩...

离线同步数据质量排查

如果写出数据和目标存储已有数据发生数据约束(主键冲突、唯一键约束、外键约束等),数据库则使用来源数据update更新目标表已有数据行,在目标表存在多个数据约束的情况下,数据替换可能会失败并产生脏数据 如果写出数据和目标存储已有...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用