数据导入性能优化

如果单条数据量过达到数百KB,建议攒批数据大小超过8 MB,可通过8 MB/单条数据量得到攒批条数。否则单批过容易占用过多前端节点内存,影响导入性能。应用端并发配置 应用端导入数据时,建议多个并发同时导入数据。单进程无法完全利用...

数据导入性能优化

如果单条数据量过达到数百KB,建议攒批数据大小超过8 MB,可通过8 MB/单条数据量得到攒批条数。否则单批过容易占用过多前端节点内存,影响导入性能。应用端并发配置 应用端导入数据时,建议多个并发同时导入数据。单进程无法完全利用...

数据归档

RDS MySQL实例数据量较时,存储成本会随之增高。业务数据通常分为冷数据和热数据,将对象存储(OSS)作为归档冷数据的存储介质,能够大幅降低用户的存储成本。功能简介 在开启RDS MySQL通用云盘的数据归档OSS功能后,用户可通过执行下面...

限制说明

数据大小 云数据库 Memcache 版支持的单条缓存数据的 Key 最大超过 1 KB,Value 最大超过 1 MB,过数据不适合存储。事务支持 云数据库 Memcache 版支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当...

持久内存型

单实例成本对比云数据库Redis社区版最高可降低30%,且数据持久化依赖传统磁盘,保证每个操作持久化的同时提供近乎Redis社区版的吞吐和延时,极提升业务数据可靠性。购买方式 创建实例 背景信息 由于内存的价格相对昂贵且容量具备较的...

持久内存型

单实例成本对比 Redis社区版 最高可降低30%,且数据持久化依赖传统磁盘,保证每个操作持久化的同时提供近乎Redis社区版的吞吐和延时,极提升业务数据可靠性。购买方式 创建Tair实例 背景信息 由于内存的价格相对昂贵且容量具备较的...

离线同步常见问题

数据同步原则:来源端数据源的数据要能写入目的端数据源(来源端和目的端类型需要匹配,字段定义的大小需要匹配),即源端数据类型需要与写端数据类型匹配,源端是VARCHAR类型的数据不可写到INT类型的目标列中;目标端的数据类型定义的大小...

上传数据

上传CSV数据 重要 CSV文件数据格式为带BOM的UTF-8编码格式,CSV文件数据内容需要使用英文逗号作为分隔符,如当字段内出现分隔符(,)时,需要使用转义符(")包裹该字段,避免读取数据时造成字段的错误分割。CSV文件格式注意事项,请参见...

上传数据

上传CSV数据 注意 CSV文件数据格式为带BOM的UTF-8编码格式,CSV文件数据内容需要使用英文逗号作为分隔符,如当字段内出现分隔符(,)时,需要使用转义符(")包裹该字段,避免读取数据时造成字段的错误分割。CSV文件格式注意事项,请参见...

产品简介

大数据专家服务 大数据专家服务(Bigdata Expert Service)是由阿里云大数据专家基于阿里云多年大数据架构、应用、运维、AI算法建模等最佳实践经验及方法论为用户提供全方位的大数据产品技术、咨询服务及售后专家服务运维保障,帮助用户...

数据标准

数据是由特定的环境产生的,这些环境因素包括生产者、时间、系统等,从而造成了同一个语义的数据,有...说明 目前使用DDM进行数据建模可以进行逻辑建模和物理建模,但物理建模仅支持MaxCompute和Hive两种大数据引擎,支持自定义数据源类型。

支持的数据

本文介绍Lindorm与关系型数据库、NoSQL数据库、大数据生态之间的数据导入导出能力。其中部分能力由LTS(Lindorm自研的数据通道服务)支持,部分能力由DataWorks或DTS支持。数据导入 源集群 目标集群 全量导入 增量导入 关系数据库 MySQL ...

数据服务入门

步骤一:创建数据源并配置网络连通性 使用数据服务创建API前,您需将数据库或数据仓库添加为DataWorks的数据源,并保障数据服务资源组与您的目标数据源网络连通,以便调用API时DataWorks可成功访问数据源。说明 DataWorks工作空间将集群或...

测试数据构建

RDS MariaDB、其他来源MariaDB OceanBase MySQL模式 PolarDB PostgreSQL版(兼容Oracle)背景信息 功能测试或者性能测试时,往往需要准备测试数据,通常有以下几种方法:手工编写:效率低,适用于大数据量场景。维护生成测试数据脚本:成...

从RDS MySQL迁移至自建Kafka

Kafka是应用较为广泛的分布式、高吞吐量、高可扩展性消息队列服务,普遍用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等大数据领域,是大数据生态中可或缺的产品之一。通过数据传输服务DTS(Data Transmission Service),...

数据库迁移

说明 如果存在一致数据,可单击 查看详情 查看一致的概览信息,在概览信息对话框中单击 详情 查看一致的具体数据:如果数据量比较少,可以通过手动修改的方式同步数据,如果数据量比较,查明数据不一致的原因,清理目标数据库后...

MongoDB 4.2

第三方云数据库迁移至阿里云数据库MongoDB:使用MongoDB工具将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将华为云文档数据库迁移至阿里云数据库MongoDB 使用MongoDB...

如何对JSON类型进行高效分析

半结构化数据通常存在于Web页面、XML、JSON、NoSQL数据库等场景中,其灵活性和易扩展性使其成为大数据时代中可或缺的一部分。PolarDB MySQL版 本身是一个关系型数据库管理系统,其存储的数据通常是结构化数据,但也原生支持存储和查询半...

功能特性

数据分析概述 访问数据分析功能 管理数据集 仪表盘 Copilot Copilot是DMS基于阿里云模型构建的数据智能助手。其结合了DMS熟练的数据管理、数据使用能力,可帮助开发、运维、产品、运营、分析师和数据库管理员,更高效、规范地使用和管理...

表设计最佳实践

拉链表的设计 在数据仓库的数据模型设计过程中,经常会遇到如下需求:数据量较。表中的部分字段被更新。例如,用户的地址、产品的描述信息、订单的状态和手机号码等。需要查看某一个时间点或时间段的历史快照信息。例如,查看某一个订单...

如何支持超大事务

以本测试场景为例,如果事务的每条语句都是INSERT语句,那么每个分片的数据写入量应超过2 GB,事务总的数据写入量能超过:分片数量×2 GB,例如8分片的情况下,写入总量在16 GB时也会触发这个报错。但是,上述讨论并意味着只要您的...

升级数据库版本

本文介绍云数据库MongoDB支持升级的数据版本以及如何升级数据版本。注意事项 升级分片集群实例的数据版本时,实例的协议类型需为 MongoDB协议。升级采用轮转升级的方式进行,升级过程中会自动对实例进行2~3次重启,请在业务低...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

快速体验

DataWorks为您提供智能建模、数据清洗、周期调度运维、数据治理等一站式大数据开发管理能力,本文以一个零售电商行业的数仓搭建实验为例,为您介绍DataWorks在数仓搭建过程中的技术选型、技术流程以及流程实现,帮助您深入了解阿里云...

什么是DataWorks

DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。从2009年起,DataWorks不断沉淀阿里巴巴大数据建设方法论,支撑数据中台建设,同时与...

互联网、电商行业离线大数据分析

概述 电商网站的销售数据通过大数据进行分析后,可以在屏幕展示销售指标、客户指标、销售排名和订单地区分布等业务指标数据。DataV大屏支持可视化动态展示销售数据,触控大屏支持您自助查询数据,极地提高数据的可读性。应用场景 电商...

发展历程

关键性里程碑 2009年9月,ODPS(即现在的MaxCompute)大数据平台飞天项目正式启动。2010年10月,阿里巴巴集团自主研发的第一代云计算平台稳定运行。2013年8月,平台的单集群规模已达到5000台。2014年7月,平台开始对外提供服务,完全替换...

应用场景

数据分析业务 云数据库 Memcache 版搭配大数据计算服务 MaxCompute。实现对大数据的分布式分析处理,适用于商业分析、挖掘等大数据处理场景。通过数据集成服务可自助实现数据在云数据库 Memcache 版与 MaxCompute 间的同步,简化数据操作...

技术架构选型

本教程中使用阿里云大数据产品MaxCompute配合DataWorks,完成整体的数据建模和研发流程。完整的技术架构图如下图所示。其中,DataWorks的数据集成负责完成数据的采集和基本的ETL。MaxCompute作为整个大数据开发过程中的离线计算引擎。...

IoT数据自动化同步至云端解决方案

大数据分析是大数据完成数据价值化的重要手段之一,而进行大数据分析的第一步是让数据成功上云。解决方案 IoT数据自动化同步至云端解决方案主要包括存储原始数据和同步数据至分析系统两部分。IoT设备大量的数据通常以半结构化的形式存储。...

技术架构选型

本教程中使用阿里云大数据产品MaxCompute配合DataWorks,完成整体的数据建模和研发流程。完整的技术架构图如下图所示。其中,DataWorks的数据集成负责完成数据的采集和基本的ETL。MaxCompute作为整个大数据开发过程中的离线计算引擎。...

语法

语法 INSERT[INTO|OVERWRITE]table_name[(column[,.])]query INSERT INTO用于插入新数据,而INSERT OVERWRITE用于覆盖老数据,插入新数据,执行完成之后的效果是老数据全部被删除,表中的数据变成了新数据。目前只有OSS数据源支持INSERT ...

MongoDB 4.0

升级数据版本 数据迁移 变更实例配置 按时间点将备份数据恢复至新建实例 恢复云数据库MongoDB单个或多个数据库 开启或关闭实例释放保护 本操作影响实例的运行。设置可维护时间段 请将维护时间段设置在业务低峰期,以避免维护过程可能...

MongoDB 4.4

第三方云数据库迁移至阿里云数据库MongoDB:使用MongoDB工具将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将华为云文档数据库迁移至阿里云数据库MongoDB 使用MongoDB...

MongoDB 5.0

第三方云数据库迁移至阿里云数据库MongoDB:使用MongoDB工具将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将华为云文档数据库迁移至阿里云数据库MongoDB 使用MongoDB...

产品概述

什么是E-MapReduce 开源大数据开发平台E-MapReduce(简称EMR),是运行在阿里云平台上的一种大数据处理的系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理...

DataWorks on EMR数据安全方案

大数据领域,阿里云为企业用户提供了一整套数据安全方案,包含用户认证、数据权限、大数据作业管理体系等。本文以联合使用DataWorks与EMR为例,为您介绍DataWorks on EMR场景下的数据安全方案。背景信息 DataWorks on EMR目前支持LDAP...

产品简介

开源大数据开发平台E-MapReduce(简称EMR)是运行在阿里云平台上的一种大数据处理系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理数据。EMR还可以与阿里云...

MongoDB 7.0

第三方云数据库迁移至阿里云数据库MongoDB:使用MongoDB工具将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用DTS将华为云文档数据库迁移至阿里云数据库MongoDB 使用MongoDB...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据库备份 数据传输服务 阿里邮箱 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用