如何选择文件引擎规格

LindormDFS与开源HDFS保持100%通信协议兼容,使用开源客户端可直接访问,无缝接入所有开源大数据生态与云计算生态。存储规格选择 当您选择Lindorm文件引擎 作为数据、数据湖的底层存储时,推荐您选用 容量型云存储 类型。Lindorm存储以...

产品架构

PolarDB-X 1.0 承担着OLTP在线核心数据库的职责与定位,可与数据集成、数据传输,缓存、大数据生态配合使用。产品架构图 内核架构 PolarDB-X 1.0 由计算层实例与存储层私有定制RDS实例组成,通过挂载多个MySQL进行分库分表水平拆分。如同...

EMR Studio概述

EMR Studio核心优势 优势 描述 兼容开源 EMR Studio提供深度优化的开源组件使用体验,100%兼容开源大数据生态。您无需修改任务代码,即可平滑迁移上云。通过EMR Studio数据开发工作台,您可以在开源组件原生UI的基础上无缝衔接开发环节和...

常见问题

本文介绍大数据专家服务常见问题。1.售前咨询渠道 尊敬的“准”大数据专家服务用户您好:如果您准备购买阿里云大数据专家服务,但是遇到如服务范围、规格、服务选择等售前方面的问题,您可以通过钉钉与我们联系,您将“当面”获得阿里云大...

低成本历史库

大数据生态 无缝对接Spark、Hive、Flink、Presto等开源大数据生态产品,支持API访问和文件读取等多种对接方式,简单高效满足用户海量数据分析需求。典型应用 用户交易记录通过App写入MySQL,LTS将MySQL中实时同步到Lindorm,近三个月状态...

SmartData常见问题

JindoFS是阿里云开源数据E-MapReduce产品提供的一套Hadoop文件系统,主要对Hadoop和Spark大数据生态系统使用阿里云OSS提供多层次的封装支持和优化。基础功能提供适配OSS和支持访问,您可以直接使用JindoFS SDK;标准功能针对OSS提供分布...

新建数据模版

消息中间件作为数据源时,需要通过创建数据模版来解释消息中间件中消息的结构。本文介绍如何新建数据模版。操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择目标工作组,单击 资产...

新建数据模版

消息中间件作为数据源时,需要通过创建数据模版来解释消息中间件中消息的结构。本文介绍如何新建数据模版。操作步骤 登录企业数据智能平台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择目标工作组,单击 资产...

什么是云消息队列 Kafka 版?

消息队列 Kafka 版 广泛用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,已成为大数据生态中不可或缺的部分。产品优势 云消息队列 Kafka 版 针对开源的Apache Kafka提供全托管服务,解决开源产品的痛点。有了 云...

导入数据接口和请求数据接口区别

接口区别示意图 接口区别详细介绍 请求数据接口:重新请求服务端数据,上游 数据处理 节点或 图层节点 抛出的数据将作为参数。例如数字翻牌器配置了API数据源为 https://api.test ,传到请求数据接口动作的数据为 { id:"1"},则最终请求...

如何区分导入数据接口和请求数据接口

接口区别示意图 接口区别详细介绍 请求数据接口 重新请求服务端数据,上游数据处理节点或图层节点抛出的数据将作为参数。例如数字翻牌器配置了API数据源为 https://api.test ,传到请求数据接口动作的数据为 { id:"1"},则最终请求接口为 ...

RDS迁移至MaxCompute实现动态分区

本文为您介绍如何使用DataWorks数据集成同步功能自动创建分区,动态地将RDS中的数据迁移至MaxCompute大数据计算服务。前提条件 准备DataWorks环境 开通MaxCompute。在DataWorks上完成创建业务流程,本例使用DataWorks简单模式。详情请参见 ...

支持的数据

本文介绍Lindorm与关系型数据库、NoSQL数据库、大数据生态之间的数据导入导出能力。其中部分能力由LTS(Lindorm自研的数据通道服务)支持,部分能力由DataWorks或DTS支持。数据导入 源集群 目标集群 全量导入 增量导入 关系数据库 MySQL ...

如何恢复误删除的数据

详细信息 恢复大量数据方法 恢复MySQL数据 恢复SQL Server数据 恢复PostgreSQL数据 恢复MariaDB数据 恢复少量数据方法 阿里云的 数据管理(DMS)提供的数据追踪功能可以逐条恢复数据,且会自动生成回滚语句,便于少量数据的恢复。详细信息...

数据处理

本文为您详细介绍GDB Automl数据导入的方法。操作步骤 数据导入。进入GDB Automl。在页面顶端,单击 数据,选择数据导入方式。说明 目前版本支持从图数据库GDB导入数据、从文件中导入(包括从CSV文件和压缩包文件)、从数据库SQL表导入。...

数据服务入门

步骤一:创建数据源并配置网络连通性 使用数据服务创建API前,您需将数据库或数据仓库添加为DataWorks的数据源,并保障数据服务资源组与您的目标数据源网络连通,以便调用API时DataWorks可成功访问数据源。说明 DataWorks工作空间将集群或...

概述

目前已打通日志、数据库、消息中间件等多种场景的数据接入。数据清洗/数据流出 消息集成提供了强大的、界面化的数据ETL(Extract-Transform-Load)配置能力,方便快捷地对完成上报、进入到消息队列的数据进行清洗、格式化、数据格式转换等...

概述

目前已打通日志、数据库、消息中间件等多种场景的数据接入。数据清洗/数据流出 消息集成提供了强大的、界面化的数据ETL(Extract-Transform-Load)配置能力,方便快捷地对完成上报、进入到消息队列的数据进行清洗、格式化、数据格式转换等...

概述

目前已打通日志、数据库、消息中间件等多种场景的数据接入。数据清洗/数据流出 消息集成提供了强大的、界面化的数据ETL(Extract-Transform-Load)配置能力,方便快捷地对完成上报、进入到消息队列的数据进行清洗、格式化、数据格式转换等...

创建Hologres内部表

说明 更多存储格式的详细介绍,请参见 建表概述 的 orientation 参数说明。生命周期 表的生命周期,单位为秒。默认表的生命周期为永久。说明 从数据首次写入表的时间开始计算,当到达生命周期后,表数据会在某一段时间内被清除(该时间段...

功能特性

数据同步拓扑介绍 数据过滤处理与映射 WHERE条件过滤 在配置同步或迁移任务对象时,您可以通过设置过滤条件,将源数据库中满足您需求的数据同步或迁移到目标数据库。设置过滤条件 数据类型映射 在进行异构数据库之间的数据同步或迁移时,会...

数据安全

数据备份与恢复 云原生多模数据库 Lindorm 宽表引擎支持数据备份恢复功能,该功能基于数据生态服务中的数据迁移,将数据存储至阿里云对象存储服务OSS(Object Storage Service,简称OSS)中,定期全量备份数据,实时增量同步数据,来满足对...

轮播页面

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

生态对接概述

阿里云生态数据库HBase版 基于HBase和Spark的数据处理平台 阿里云实时计算Flink 基于Flink的资讯场景实时数仓 大数据计算服务MaxCompute 接入MaxCompute 数据传输服务DTS 使用DTS同步MySQL 容器服务Kubernetes版 在Knative上实现Kafka...

在线教育视频直播

并与开源社区共建的消息中间件,该产品服务于阿里巴巴集团已超过13年,经过交易核心链路反复打磨与历年双十一高并发场景的严苛考验,是一个真正具备低延迟、高并发、高可用、高可靠,可支撑万亿级数据洪峰的分布式消息中间件。更多关于 云...

基本概念

本文介绍 云原生多模数据库 Lindorm 帮助文档中的相关名词和术语的解释。A 安全组 安全组是一种虚拟防火墙,用于控制安全组中的ECS实例的出入流量。在Lindorm实例的白名单中添加安全组后,该安全组中的ECS实例就可以访问Lindorm实例。更多...

JindoData概述

JindoData是阿里云开源大数据团队自研的数据湖存储加速套件,面向大数据和AI生态,为阿里云和业界主要数据湖存储系统提供全方位访问加速解决方案。JindoData套件基于统一架构和内核实现,主要包括JindoFS存储系统(原JindoFS Block模式)、...

查询概述

云数据库 SelectDB 版 高度兼容MySQL相关生态,支持湖仓一体化,并确保了上游与下游数据生态系统的无缝整合。本文介绍SelectDB在查询方面的能力概述。基础能力 云数据库 SelectDB 版 支持标准SQL语法,在SQL方言方面向MySQL兼容。采用MySQL...

概述

背景信息 在大数据生态系统中,Alluxio位于数据驱动框架或应用(例如Apache Spark、Presto、TensorFlow、Apache Flink和Apache Hive等)和各种持久化存储系统(例如HDFS和阿里云OSS)之间,使得上层的计算应用可以通过统一的客户端API和...

上海新能源汽车车辆基础数据

2019年开始上海市新能源汽车大数据平台从自建Hadoop集群迁移至阿里云Lindorm+DLA Spark产品,有效解决了我们平台存储和计算的横向动态扩容瓶颈,同时借助其产品中间件LTS实现了我们平台数据的冷热分离,有效降低了数据存储成本,依托于阿里...

将云消息队列 Kafka 版的数据迁移至MaxCompute

本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,方便您对离线数据进行分析加工。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 ...

内容分割

本文介绍如何使用数据清洗功能中的内容分割模板处理消息数据。背景信息 数据清洗功能提供常见的消息处理模板,包括内容分割、动态路由、内容富化和内容映射等。您可以直接利用模板处理消息,也可以根据业务情况在模板基础上修改代码。消息...

内容映射

本文介绍如何使用数据清洗功能中的内容映射模板处理消息数据。背景信息 数据清洗功能提供常见的消息处理模板,包括内容分割、动态路由、内容富化和内容映射等。您可以直接利用模板处理消息,也可以根据业务情况在模板基础上修改代码。消息...

将云消息队列 Kafka 版的数据迁移至MaxCompute

本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,方便您对离线数据进行分析加工。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 ...

动态路由

本文介绍如何使用数据清洗功能中的动态路由模板处理消息数据。背景信息 数据清洗功能提供常见的消息处理模板,包括内容分割、动态路由、内容富化和内容映射等。您可以直接利用模板处理消息,也可以根据业务情况在模板基础上修改代码。消息...

血缘查看

使用DataWorks数据地图查看表或数据服务API时,可在对应的详情页面查看详细的血缘信息,这对于数据溯源及管理有很帮助,本文为您介绍数据地图的血缘查看能力。表血缘 查找某张表并进入表详情页面后,您可以单击 血缘信息 页签,查看表级...

内容富化

本文介绍如何使用数据清洗功能中的内容富化模板处理消息数据。背景信息 数据清洗功能提供常见的消息处理模板,包括内容分割、动态路由、内容富化和内容映射等。您可以直接利用模板处理消息,也可以根据业务情况在模板基础上修改代码。消息...

产品架构

阿里云产品 EMR衔接了开源大数据生态和阿里云生态。EMR可以部署在阿里云ECS(Elastic Compute Service)和Kubernetes(简称ACK)上;数据可以存储在阿里云OSS上;通过在EMR上创建Data Science集群可以使用及学习机器学习PAI;EMR集成在...

概述

存储格式 数据来源及特点 数据量增大或减少 详细数据量 JSON 大量应用产生JSON类型的数据,冗余数据。增大151.7%3.02GB AVRO Hadoop生态格式的数据数据部分遗留系统产生。增大8.3%1.3GB RCFile Hadoop生态格式的数据数据...

概述

如果使用自建开源大数据生态体系,例如Hive、Spark等,需要专门的数据工程师来操作和运维,且操作流程也不像使用MySQL一样简单,成本极高。解决方案 T+1全量同步一键建仓是指通过DLA控制台配置数据源(RDS、PolarDB for MySQL、MongoDB...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 云消息队列 Kafka 版 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用